Fondamenti della Teoria delle Matrici Random e applicazioni in sica Introduzione Lo studio delle...
Transcript of Fondamenti della Teoria delle Matrici Random e applicazioni in sica Introduzione Lo studio delle...
Universita degli Studi di Torino
SCUOLA DI SCIENZE DELLA NATURA
Corso di Laurea in Fisica
Fondamenti della Teoriadelle Matrici Randome applicazioni in fisica
Tesi di Laurea Triennale in Fisica
Relatore:Prof. Marco Panero
Candidato:Fabio Minniti
Anno Accademico2015-2016
“La pioggia delle foglioline del
ginko e caratterizzata dal fatto
che in ogni momento ogni
fogliolina che sta cadendo si
trova ad una altezza diversa
delle altre, per cui lo spazio
vuoto e insensibile in cui si
situano le sensazioni visive puo
essere suddiviso in una
successione di livelli in ognuno
dei quali si trova a volteggiare
una ed una sola fogliolina.”
I. Calvino
Abstract
La teoria delle matrici random (RMT) venne introdotta da Wigner nel conte-
sto della fisica nucleare, nella seconda meta dello scorso secolo. Negli ultimi
anni le previsioni della teoria sono state applicate in contesti apparentemente
molto diversi con ottimi risultati. Nell’elaborato si descrivono gli elementi
essenziali della teoria a partire dalle proprieta strutturali degli insiemi di
matrici random fino a descriverne le funzioni per le densita di probabilita
associate alle matrici appartenenti agli insiemi e agli autovalori reali. Ven-
gono poi descritti alcuni contesti nei quali la teoria si applica mettendo in
evidenza l’universalita della stessa. Si descrive il problema del car parking
introducendo dei modelli iterativi random per poi confrontare i dati con le
previsioni della teoria delle matrici random.
Introduzione
Lo studio delle matrici random venne introdotto da Wishart [1] negli anni
venti nel contesto della matematica statistica. Non prima degli anni cinquan-
ta pero, le matrici random vennero sfruttate per modellizzare la realta fisica.
In meccanica quantistica l’equazione di Schrodinger delinea esaustivamente
in linea di principio l’evoluzione dinamica dei sistemi di particelle. Nonostan-
te la forma dell’equazione suggerisca un approccio relativamente intuitivo al
problema, essa conduce a soluzioni analitiche solo in un numero molto limita-
to di casi. Considerando, ad esempio, un nucleo pesante o un generico sistema
multi-particelle, diventa rapidamente complicato aspettarsi di ottenere una
soluzione esatta al problema o anche soltanto una buona approssimazione.
L’inefficacia di uno specifico accostamento non definisce l’impossibilita di
trarre informazioni fisiche ma piuttosto rappresenta la necessita di cercare
approcci alternativi. In questo contesto Wigner, fisico e matematico unghe-
rese naturalizzato statunitense, vincitore del Premio Nobel per la fisica nel
1963, introdusse un assetto interpretativo mediante il quale avrebbe cercato
di descrivere alcuni fenomeni attraverso la definizione di insiemi di matrici
random [2]. Comprendere le ragioni per cui lo fece implica considerare il con-
testo sperimentale e teorico della fisica nella prima, e all’inizio della seconda,
meta del XX secolo.
In processi di scattering di neutroni a basse energie su nuclei pesanti vengono
osservate delle risonanze corrispondenti a stati eccitati semi-stabili associati
i
ii INTRODUZIONE
a nuovi nuclei. Questo avviene quando i neutroni incidono frontalmente con
i nuclei trasferendo la loro energia cinetica ai costituenti del nucleo bersaglio.
Quando gli stati eccitati decadono i neutroni emessi presentano un momento
diverso rispetto a quello precedente all’urto. Non tutti i neutroni vengono
assorbiti dai nuclei ma soltanto quelli con specifiche energie. Rappresentan-
do per esempio l’andamento della sezione d’urto in funzione dell’energia si
osservano dei picchi in prossimita delle energie di risonanza ognuno dei quali
rappresenta uno stato eccitato per il nucleo originale dell’elemento illumina-
to. La sequenza dei picchi non e casuale ma rappresentativa univocamente
rispetto al campione sul quale si effettua scattering. Se si conoscesse l’ha-
miltoniana del sistema risolvendo l’equazione di Schrodinger si potrebbe in
linea di principio ricavare lo spettro di energia relativo
HΨi(~x, t) = EiΨi(~x, t) (1)
dove H e l’operatore hamiltoniano e Ψi e l’autostato relativo all’autovalore
Ei. Nella maggior parte dei casi il sistema in esame non e sintetizzabile in
un’equazione agli autovalori in quanto la forma dell’hamiltoniana non e nota.
Wigner propose, nel caso in cui sia impossibile ricavare l’hamiltoniana che de-
scriva esattamente il sistema, di definire un ensemble di hamiltoniane aventi
medesime proprieta statistiche che l’hamiltoniana del sistema potrebbe avere
nel caso in cui fosse possibile esplicitarla. Piu in generale si potrebbe sperare
di ottenere proprieta generali relative agli spettri delle singole hamiltoniane
che in media approssimano le proprieta specifiche del sistema. Dyson speci-
fico ulteriormente in cosa consistesse l’interpretazione alla Wigner riferendosi
al sistema come ad una black box all’interno della quale piu particelle intera-
giscono in accordo a leggi non deducibili. Il problema consiste nel considerare
un ensemble di matrici in cui tutte le leggi di interazione siano equiprobabili
[3]. La Random Matrix Theory consiste nel definire un insieme di matrici e
trovare, partendo dall’insieme definito, proprieta medie relative allo spettro e
allo stato associato alle matrici stesse, rinunciando pero ai dettagli intrinseci
INTRODUZIONE iii
di uno specifico sistema.
La RMT (Random Matrix Theory) si e rivelata efficace non solo in mec-
canica quantistica ma anche nello studio di molti altri sistemi complessi,
dallo studio delle risonanze soniche nei cristalli di quarzo all’andamento dei
mercati finanziari. La teoria e stata applicata con successo anche nell’ambito
dei sistemi non integrabili nei quali l’evoluzione temporale risulta indipen-
dente dalle condizioni iniziali.
Nel primo capitolo dell’elaborato si definiranno formalmente le matrici ran-
dom e si classificheranno in base a specifiche simmetrie, cosı come storica-
mente venne fatto da Wigner. Inoltre, si ricavera una funzione densita di
probabilita per le matrici appartenenti agli insiemi definiti. Nel secondo
capitolo ci si soffermera, invece, sulla forma funzionale della densita di pro-
babilita congiunta relativa agli autovalori delle matrici random e su alcune
proprieta ad essi correlate. Infine, nell’ultimo capitolo si descrivera il vasto
campo di applicabilita della RMT, approfondendo in particolare il problema
del car parking.
La trattazione formale si basa essenzialmente sul lavoro di sintesi effettuato
da Mehta in [4] mentre per le applicazioni si e fatto riferimento a vari articoli
presenti in letteratura, i quali verranno specificati nel seguito.
Indice
Introduzione i
1 Insiemi di Matrici Random 1
1.1 Insiemi gaussiani di matrici . . . . . . . . . . . . . . . . . . . 1
1.1.1 Operatore di inversione temporale . . . . . . . . . . . . 1
1.1.2 Insieme Gaussiano Ortogonale (GOE) . . . . . . . . . . 3
1.1.3 Insiemi Gaussiani Unitari (GUE) e Simplettici (GSE) . 5
1.2 Funzione densita di probabilita . . . . . . . . . . . . . . . . . 8
1.2.1 Riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . 13
2 Densita di probabilita congiunta per gli autovalori 15
2.1 GOE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 GUE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.1 Analogia con il gas di Coulomb . . . . . . . . . . . . . 22
2.3 Distribuzione degli autovalori . . . . . . . . . . . . . . . . . . 24
2.3.1 Spaziatura tra autovalori . . . . . . . . . . . . . . . . . 25
2.3.2 Wigner surmise . . . . . . . . . . . . . . . . . . . . . . 26
2.3.3 Densita degli stati . . . . . . . . . . . . . . . . . . . . 28
2.3.4 Riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . 31
3 Applicazioni 33
3.1 RMT in fisica . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1.1 Fisica Nucleare . . . . . . . . . . . . . . . . . . . . . . 33
3.1.2 Spettro dell’operatore di Dirac in QCD . . . . . . . . . 34
v
vi INDICE
3.1.3 Funzione ζ di Riemann . . . . . . . . . . . . . . . . . . 37
3.1.4 Quantum Chaos . . . . . . . . . . . . . . . . . . . . . . 39
3.1.5 Gravita quantistica . . . . . . . . . . . . . . . . . . . . 40
3.1.6 Altre applicazioni . . . . . . . . . . . . . . . . . . . . . 42
3.2 Car parking . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.1 Modellizzazione dei dati empirici . . . . . . . . . . . . 43
3.2.2 Risultati . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2.3 Riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . 51
Conclusioni 53
A Quaternioni e trasformazioni simplettiche 55
B Determinante di Vandermonde 59
C Equazioni di Dickman 61
Bibliografia 63
Capitolo 1
Insiemi di Matrici Random
In questa prima parte dell’elaborato verranno introdotti degli insiemi
gaussiani di matrici come astrazioni matematiche per poi procedere enu-
merandone le proprieta. Inoltre, verra discusso il legame tra il concetto di
simmetria e le caratteristiche delle matrici. Successivamente si ricavera la
funzione densita di probabilita per le matrici costituenti degli insiemi.
1.1 Insiemi gaussiani di matrici
Storicamente gli insiemi gaussiani di matrici furono esposti da Wigner
facendo riferimento a specifiche simmetrie dei sistemi in analisi. In particola-
re, come gia spiegato nell’introduzione, vennero formalizzati contestualmente
allo studio degli stati di risonanza dei nuclei pesanti in processi di scattering
di neutroni a basse energie. Per completezza si descrivera nel seguito l’ope-
ratore di inversione temporale e si restringera il dominio nel quale verranno
definiti gli insiemi di matrici, dipendentemente a diverse simmetrie.
1.1.1 Operatore di inversione temporale
Vengono qui ricordate alcune nozioni basilari riguardanti l’operatore di
inversione temporale (che nel seguito si indichera con T ), applicato nel con-
testo della meccanica quantistica, e l’invarianza rispetto ad esso.
1
2 1. Insiemi di Matrici Random
Da semplici considerazioni fisiche T risulta essere antiunitario
T = KC (1.1)
dove K e un operatore unitario fissato e C effettua l’operazione di complessa
coniugazione sullo stato al quale viene applicato. Considerando un’opportuna
base di autostati, l’applicazione di T ad un generico stato Ψ decomposto
rispetto alla base produce un ulteriore stato ΨR il cui legame con lo stato
originale e definito da
ΨR = TΨ = KΨ∗ (1.2)
dove Ψ∗ rappresenta il complesso coniugato di Ψ. Dalla condizione
(Φ, AΨ) = (ΨR, ARΦR) (1.3)
per ogni coppia di stati Ψ e Φ si deduce la legge di trasformazione per un
operatore A soggetto all’azione di T
AR = KATK−1 (1.4)
dove AT rappresenta la trasposta di A. L’operatore si dice autoduale se
AR = A. Considerando il caso specifico di sistemi descritti da un operatore
Hamiltoniano H, essi godono di invarianza rispetto all’azione di T se H
risulta essere hermitiano
H† = H (1.5)
Quando la rappresentazione di uno stato viene modificata dall’azione di una
1.1 Insiemi gaussiani di matrici 3
trasformazione unitaria Ψ −→ UΨ l’operatore T si trasforma a sua volta
come
T −→ KTK−1 = KTK† (1.6)
dove il secondo passaggio e giustificato dalla definizione di operatore unitario
KK† = K†K = 1. Applicando due volte l’operatore T ci si aspetta esso
corrisponda a meno di un fattore di fase all’operatore identita
T 2 = α1 (1.7)
con |α| = 1. Dalla definizione di T si puo anche scrivere
T 2 = KCKC = KK∗CC = KK∗ = α1 (1.8)
Inoltre, essendo K unitario
K∗KT = 1 (1.9)
per cui dalle due equazioni si ottiene
K = αKT = α(αKT )T = α2K (1.10)
A seguito delle considerazioni precedenti non puo che essere α2 = 1 o α = ±1.
La matrice K dunque, oltre ad essere hermitiana e anche o simmetrica o
antisimmetrica a seconda del valore assunto da α.
1.1.2 Insieme Gaussiano Ortogonale (GOE)
L’insieme gaussiano di matrici ortogonali (indicato da qui in avanti con
l’acronimo GOE, dall’inglese Gaussian Orthogonal Ensemble) e definito ri-
4 1. Insiemi di Matrici Random
ferendosi a sistemi invarianti rispetto a inversioni temporali per cui valga
U = 1. Se l’operatore unitario coincide con l’identita, l’Hamiltoniana H del
sistema oltre ad essere hermitiana sara anche simmetrica. In altre parole
ad ogni sistema invariante rispetto ad inversioni temporali e associata una
matrice reale e simmetrica in un’opportuna base di autostati.
Il motivo per cui agli ensembles viene associato l’aggettivo “gaussiano” dipen-
de dalla distribuzione di probabilita rispetto alla quale sono definiti randomi-
camente gli elementi di matrice. Ricordando l’espressione della distribuzione
gaussiana
f(x) =1√
2πσ2e
−(x−µ)2
2σ2 (1.11)
con µ valor medio e σ2 varianza, associando ad ogni elemento di matrice aij,
con i, j = 1, 2, ..., N , la funzione f(aij) in modo indipendente, l’elemento di
matrice diventa l’argomento della distribuzione di probabilita.
Proprieta del GOE
Si consideri lo spazio delle matrici reali e simmetriche T1G di dimensioni
N ×N tali che A = AT ∀A ∈ T1G, o alternativamente per cui valga aij = aji
con i, j = 1, 2, ..., N . L’insieme gaussiano delle matrici ortogonali E1G e de-
finito in T1G e verifica le seguenti proprieta:
(1) Invarianza rispetto a trasformazioni ortogonali
T :T1G −→ T1G (1.12)
H 7−→ OTHO (1.13)
dove O e una matrice ortogonale reale.
(2) Indipendenza statistica degli elementi matriciali Hkj con k ≤ j.
Rispettivamente le due proprieta si possono esprimere formalmente come
1.1 Insiemi gaussiani di matrici 5
segue:
(1) La probabilita P (H)dH che una matrice di E1G appartenga al volume
multidimensionale dH =∏
k≤j dHkj e invariante rispetto a trasformazioni
ortogonali
P (H ′)dH ′ = P (H)dH (1.14)
dove
H ′ = OTHO (1.15)
per cui valga OTO = OOT = 1.
(2) La funzione densita di probabilita P (H) e definita dal prodotto di funzioni
reali di variabile reale
P (H) =∏k≤j
fkj(Hkj) (1.16)
1.1.3 Insiemi Gaussiani Unitari (GUE) e Simplettici
(GSE)
A differenza dell’insieme ortogonale gaussiano (GOE), l’insieme unitario
gaussiano (GUE) e l’insieme simplettico gaussiano (GSE) sono costituiti ri-
spettivamente da elementi complessi e quaternioni reali. Nel seguito verranno
descritte in modo esaustivo le principali proprieta del GUE e si forniranno
alcuni elementi relativi al GSE.
6 1. Insiemi di Matrici Random
Proprieta del GUE
L’insieme delle matrici gaussiane unitarie, indicato con E2G, e definito
nello spazio delle matrici hermitiane T2G, cioe matrici per cui valga A† = A
∀A ∈ T2G, con le due seguenti proprieta:
(1) La probabilita P (H)dH che una matrice dell’insieme E2G appartenga
al volume
dH =∏k≤j
dH(0)kj
∏k<j
dH(1)kj (1.17)
dove H(0)kj e H
(1)kj sono rispettivamente la parte reale e immaginaria dell’ele-
mento di matrice Hkj, e invariante rispetto all’automorfismo
U :T2G −→ T2G (1.18)
H 7−→ U−1HU (1.19)
dove la matrice U e unitaria.
(2) Le componenti linearmente indipendenti di H sono statisticamente in-
dipendenti.
Esattamente come fatto in precedenza nel caso del GOE le due proprieta
vengono esplicitate:
(1)
P (H ′)dH ′ = P (H)dH (1.20)
se
H ′ = U−1HU (1.21)
1.1 Insiemi gaussiani di matrici 7
dove U e una matrice unitaria.
(2) P (H) e il prodotto di funzioni di singola variabile reale
P (H) =∏k≤j
f(0)kj (H
(0)kj )∏k<j
f(1)kj (H
(1)kj ) (1.22)
Proprieta del GSE
L’insieme delle matrici gaussiane simplettiche E4G e definito nello spazio
delle matrici hermitiane autoduali T4G con le seguenti proprieta:
(1) E4G e invariante rispetto ad ogni automorfismo
S :T4G −→ T4G (1.23)
H 7−→ W−1HW (1.24)
dove W e una matrice simplettica.
(2) Le componenti di H sono anch’esse statisticamente indipendenti.
Le due proprieta si esplicitano come di seguito:
(1) La probabilita P (H)dH che l’insieme E4G si trovi nel volume
dH =∏k≤j
dH(0)kj
3∏λ=1
∏k<j
dH(λ)kj (1.25)
e invariante rispetto a trasformazioni simplettiche
P (H ′)dH ′ = P (H)dH (1.26)
8 1. Insiemi di Matrici Random
se
H ′ = WRHW (1.27)
dove
WRW = 1 (1.28)
dove λ varia rispetto alle componenti del quaternione Hkj con k ≤ j1.
(2) P (H) e il prodotto di funzioni di singola variabile reale
P (H) =∏k≤j
f(0)kj (H
(0)kj )
3∏λ=1
∏k<j
f(λ)kj (H
(λ)kj ) (1.29)
1.2 Funzione densita di probabilita
Si voglia a questo punto definire la funzione densita di probabilita asso-
ciata alle matrici degli insiemi. Come verra esposto nel seguito la richiesta
di invarianza e di indipendenza statistica tra gli elementi della matrice fissa
univocamente la forma funzionale della P (H).
L’invarianza restringe P (H) a dipendere soltanto da un numero finito di
tracce di potenze di H. Il concetto si puo esprimere sotto forma di lemma
[5].
Lemma 1.2.1. Le quantita invarianti di una matrice (N × N) H soggetta
alla trasformazione
H −→ H ′ = AHA−1 (1.30)
possono essere espresse in termini delle tracce delle prime N potenze di H.
1Per maggiori dettagli si veda l’Appendice A.
1.2 Funzione densita di probabilita 9
La traccia della j-esima potenza di H e data dalla somma delle j potenze
degli autovalori λk, k = 1, 2, ..., N , di H
trHj =N∑k=1
λjk ≡ pj (1.31)
e ogni funzione simmetrica dei λk puo essere espressa in termini dei primi pj
con j = 1, 2, ..., N (vedere per esempio [6, 7]).
Invece, l’indipendenza statistica delle componenti esclude tutte le tracce ad
eccezione delle prime due potenze, vincolando la P (H) ad essere proporzio-
nale ad un esponenziale.
Si esaminano nel seguito le conseguenze relative all’indipendenza statistica
delle varie componenti della matrice H. Si consideri la trasformazione
H = U−1H ′U (1.32)
dove
U =
cos θ sin θ 0 · · · 0
− sin θ cos θ 0 · · · 0
0 0 1 · · · 0...
......
. . ....
0 0 0 · · · 1
(1.33)
e contemporaneamente una trasformazione simplettica, unitaria e ortogonale.
Differenziando la (1.32) rispetto a θ si ricava
∂H
∂θ=∂U−1
∂θH ′U + U−1H ′
∂U
∂θ(1.34)
=∂UT
∂θH ′U + UTH ′
∂U
∂θ
=∂UT
∂θUH +HUT ∂U
∂θ
10 1. Insiemi di Matrici Random
dove nel secondo passaggio si e sfruttata l’unitarieta UT = U−1. Rica-
vando dalla (1.33) l’espressioni esplicite per UT , ∂U∂θ
e ∂UT
∂θsi ottiene
∂H
∂θ= AH +HAT (1.35)
dove
A =∂UT
∂θU (1.36)
esplicitando i prodotti tra matrici
A =∂
∂θ
cos θ − sin θ 0 · · · 0
sin θ cos θ 0 · · · 0
0 0 1 · · · 0...
......
. . ....
0 0 0 · · · 1
cos θ sin θ 0 · · · 0
− sin θ cos θ 0 · · · 0
0 0 1 · · · 0...
......
. . ....
0 0 0 · · · 1
=
− sin θ − cos θ 0 · · · 0
cos θ − sin θ 0 · · · 0
0 0 0 · · · 0...
......
. . ....
0 0 0 · · · 0
cos θ sin θ 0 · · · 0
− sin θ cos θ 0 · · · 0
0 0 1 · · · 0...
......
. . ....
0 0 0 · · · 1
=
− sin θ cos θ + cos θ sin θ −(sin2 θ + cos2 θ) 0 · · · 0
cos2 θ + sin2 θ cos θ sin θ − sin θ cos θ 0 · · · 0
0 0 0 · · · 0...
......
. . ....
0 0 0 · · · 0
=
0 −1 0 · · · 0
1 0 0 · · · 0
0 0 0 · · · 0...
......
. . ....
0 0 0 · · · 0
(1.37)
1.2 Funzione densita di probabilita 11
Se la funzione densita di probabilita
P (H) =∏(α)
∏j≤k
f(α)kj (H
(α)kj ) (1.38)
e invariante rispetto alla trasformazione U , con α che indicizza parte reale
α = 0 e parte immaginaria α = 1 rispettivamente, la sua derivata fatta
rispetto alla variabile indipendente θ da contributo nullo
∑k,j
1
f(α)kj
∂f(α)kj
∂H(α)kj
∂H(α)kj
∂θ= 0 (1.39)
il motivo per cui la derivata e scalata di un fattore 1/f(α)kj dipende dall’aver
considerato la derivata logaritmica.
Si esplicita l’espressione della derivata nel caso unitario. Gli elementi di
matrice sono complessi Hkj = H(0)kj + iH
(1)kj , inoltre essendo H hermitiana
vale Hkj = H∗jk, ovvero H(0)kj = H
(0)jk e H
(1)kj = −H(1)
jk . Applicando la relazione
(1.35) e la (1.39) si ottiene[(− 1
f(0)11
∂f(0)11
∂H(0)11
+1
f(0)22
∂f(0)22
∂H(0)22
)(2H
(0)12 ) +
1
f(0)12
∂f(0)12
∂H(0)12
(H(0)11 −H
(0)22 )
]+
+N∑k=3
(− 1
f(0)1k
∂f(0)1k
∂H(0)1k
H(0)2k +
1
f(0)2k
∂f(0)2k
∂H(0)2k
H(0)1k
)
+N∑k=3
(− 1
f(1)1k
∂f(1)1k
∂H(1)1k
H(1)2k +
1
f(1)2k
∂f(1)2k
∂H(1)2k
H(1)1k
)= 0 (1.40)
dove ogni addendo dipende da un set di parametri mutuamente esclusivi. La
somma di tutti gli addendi deve essere uguale a zero, pertanto
−H(0)2k
f(0)1k
∂f(0)1k
∂H(0)1k
+H
(0)1k
f(0)2k
∂f(0)2k
∂H(0)2k
= C0k (1.41)
12 1. Insiemi di Matrici Random
con C0k costanti, dividendo per H
(0)1k e H
(0)2k si ottiene un espressione in cui
ogni termine dipende singolarmente da un’unica variabile indipendente, per
cui si ricava
1
H(0)1k
1
f(0)1k
∂f(0)1k
∂H(0)1k
=1
H(0)2k
1
f(0)2k
∂f(0)2k
∂H(0)2k
= −2a (1.42)
dove −2a e una costante arbitraria. Si ottengono due equazioni differenziali
del primo ordine a variabili separabili nella forma
1
H(0)ik
1
f(0)ik
∂f(0)ik
∂H(0)ik
= −2a (1.43)
con i = 1, 2. Integrando si ottiene, nel caso del primo membro
f(0)1k (H
(0)1k ) = exp [−a(H
(0)1k )2] (1.44)
Negli altri due casi si ricavano espressioni analoghe. Considerando il fatto
che gli elementi al di fuori della diagonale principale compaiono al quadrato
nell’esponenziale e tutti gli invarianti sono esprimibili in termini di tracce
delle potenze di H, la P (H) risulta proporzionale ad un esponenziale in cui
ad esponente compare al piu la traccia della seconda potenza di H. La forma
generale per P (H) e
P (H) = ec∏j
exp (bH(0)jj )∏k≤j
exp [−a(H(0)kj )2]
3∏λ=1
∏k<j
exp [−a(H(λ)kj )2] (1.45)
dove le costante a e reale e positiva e b e c sono reali, in modo tale da rendere
normalizzabile e reale l’espressione di P (H). Il risultato ottenuto venne gia
derivato da Porter e Rosenzweig [8] nel 1960 ed esplicitato formalmente come
nel seguito.
1.2 Funzione densita di probabilita 13
Teorema 1.2.2. Per i tre insiemi introdotti in precedenza, P (H) e della
forma
P (H) = exp (−a trH2 + b trH + c) (1.46)
dove a e reale e positiva e b e c sono reali.
1.2.1 Riepilogo
La densita di probabilita P (H) di una matrice random H e proporzio-
nale a exp (−a trH2 + b trH + c), con a, b e c costanti reali, nei seguenti casi:
(1) Se H e una matrice random hermitiana e simmetrica, i suoi elementi
Hjk, con j ≤ k, sono statisticamente indipendenti, e P (H) e invariante ri-
spetto a trasformazioni ortogonali reali di H (GOE).
(2) Se H e una matrice random hermitiana, gli elementi Hjj della diagonale
e parte reale e immaginaria degli elementi Hjk, con j < k, sono statistica-
mente indipendenti, e P (H) e invariante rispetto a trasformazioni unitarie
di H (GUE).
(3) Se H e una matrice random hermitiana autoduale, gli elementi della dia-
gonale Hjj e le quattro componenti dei quternioni degli elementi Hjk, con
j < k, sono statisticamente indipendenti e la P (H) e invariante rispetto a
trasformazioni simplettiche di H (GSE).
In tutti i casi considerati, il concetto di invarianza e introdotto sulla base
di considerazioni fisiche e dipendentemente dalle simmetrie relative all’Ha-
miltoniana del sistema in esame. L’indipendenza statistica e stata assunta
per semplicita.
Capitolo 2
Densita di probabilita
congiunta per gli autovalori
Nel capitolo verra ricavata la funzione densita di probabilita congiunta
(j.p.d.f., Joint Probability Density Function) per gli insiemi di matrici gaus-
siani ortogonali (GOE) e unitari (GUE). Verranno esposte alcune proprieta
predicibili dal modello relative agli autovalori, e successivamente si discutera
l’analogia con il gas di Coulomb rispetto alla distribuzione degli stessi.
2.1 GOE
La j.p.d.f. per gli autovalori θ1, θ2,...,θN si puo ottenere esprimendo le
varie componenti di H in funzione dei θj e di altre variabili mutuamente
indipendenti pµ, le quali insieme agli autovalori reali costituiscono un set
completo di parametri indipendenti. La funzione descrive la probabilita che
gli autovalori reali θi e i parametri pµ siano contenuti nel volume multidi-
mensionale∏N
j=1 dθj∏l
µ=1 dpµ, con l numero dei parametri indipendenti. In
una matrice N × N reale e simmetrica il numero di variabili indipendenti
sufficienti ad esplicitare tutti gli elementi Hkj della matrice e N(N + 1)/2. Il
numero di parametri pµ si ricava da
15
16 2. Densita di probabilita congiunta per gli autovalori
l =N(N + 1)
2−N =
N(N − 1)
2(2.1)
Inoltre da (1.31) risulta
trH2 =N∑j=1
θ2j , trH =N∑j=1
θj (2.2)
per cui la densita di probabilita relativa agli N autovalori e ai parametri
indipendenti pµ, intorno ai valori θ1,...,θN e p1,...,pl, si ottiene dalla (1.45)
P (θ1, ..., θN ; p1, ..., pl) = exp
(−a
N∑j=1
θ2j + bN∑j=1
θj + c
)J(θ, p) (2.3)
dove J(θ, p) e lo Jacobiano di H(θ, p), con θ = (θ1, ..., θN) e p = (p1, ..., pl)
J(θ, p) =
∣∣∣∣∂(H11, H12, ..., HNN)
∂(θ1, ..., θN , p1, ..., pl)
∣∣∣∣ (2.4)
il quale e definito in questo caso dal determinante di una matrice di dimen-
sioni N(N + 1)/2 × N(N + 1)/2. Scegliendo i parametri pµ in modo che lo
Jacobiano della (2.4) possa esprimersi come il prodotto di una funzione f
dipendente esclusivamente dai θj e una funzione g dei pµ, la j.p.d.f., ottenu-
ta integrando la (2.3), avrebbe la forma del prodotto dell’esponenziale della
(2.3) con una costante.
Per definire i parametri pµ si ricorda che ogni matrice reale e simmetrica
si puo diagonalizzare con una matrice ortogonale
H = UΘU−1 (2.5)
= UΘUT
2.1 GOE 17
dove Θ e una matrice diagonale in cui compaiono sulla diagonale principale
i θj, e U e una matrice ortogonale
UUT = UTU = 1 (2.6)
le cui colonne rappresentano gli autovettori normalizzati della matrice H, i
quali sono ortonormali in un’opportuna base. Differenziando la (2.6) rispetto
ai pµ
∂UT
∂pµU + UT ∂U
∂pµ= 0 (2.7)
poiche i termini della (2.7) sono l’uno l’hermitiano coniugato dell’altro, la
matrice definita di seguito e antisimmetrica
S(µ) = UT ∂U
∂pµ= −∂U
T
∂pµU (2.8)
Differenziando, invece, la (2.5) sempre rispetto ai pµ
∂H
∂pµ=∂U
∂pµΘUT + UΘ
∂UT
∂pµ(2.9)
moltiplicando a sinistra per UT e a destra per U
UT ∂H
∂pµU = UT ∂U
∂pµΘ + Θ
∂UT
∂pµU (2.10)
= S(µ)Θ−ΘS(µ)
In termini delle sue componenti la (2.10) si scrive
∑jk
∂Hjk
∂pµUjαUkβ = S
(µ)αβ (θβ − θα) (2.11)
18 2. Densita di probabilita congiunta per gli autovalori
Analogamente, differenziando la (2.5) rispetto ai θj
∂H
∂θγ= U
∂Θ
∂θγUT (2.12)
moltiplicando a sinistra per UT e a destra per U ed esprimendo in componenti
∑jk
∂Hjk
∂θγUjαUkβ =
∂Θαβ
∂θγ= δαβδαγ (2.13)
La matrice associata allo Jacobiano puo essere scritta in forma partizionata
[MJ ](θ, p) =
[∂Hjj∂θγ
∂Hjk∂θγ
∂Hjj∂pµ
∂Hjk∂pµ
](2.14)
con indici 1 ≤ j < k ≤ N , γ = 1, ..., N e µ = 1, ..., N(N−1)/2. Moltiplicando
a destra la [MJ ](θ, p) per la matrice
[V ] =
[(UjαUjβ)
(2UjαUkβ)
](2.15)
con 1 ≤ j < k ≤ N e 1 ≤ α ≤ β ≤ N , sfruttando le (2.11) e (2.13)
[MJ ][V ] =
[∂Hjj∂θγ
∂Hjk∂θγ
∂Hjj∂pµ
∂Hjk∂pµ
][(UjαUjβ)
(2UjαUkβ)
]=
[δαβδαγ
S(µ)αβ (θβ − θα)
](2.16)
da cui si ricava calcolando il prodotto di matrici [MJ ][V ][∂Hjj∂θγ
UjαUjβ 2∂Hjk∂θγ
UjαUkβ∂Hjj∂pµ
UjαUjβ 2∂Hjk∂pµ
UjαUkβ
]=
[δαβδαγ
S(µ)αβ (θβ − θα)
](2.17)
Calcolando il determinante di ambo i membri si ricava
J(θ, p) detV =∏α<β
(θβ − θα) det
[δαβδαγ
Sµαβ
](2.18)
2.2 GUE 19
dove si e applicata la formula del determinante di Vandermonde1. Per cui lo
Jacobiano e definito come
J(θ, p) =∏α<β
|θβ − θα|f(p) (2.19)
in quanto sia il detV che il det
[δαβδαγ
Sµαβ
]sono funzioni delle sole pµ. Sosti-
tuendo la (2.19) nella (2.3) e integrando rispetto alle pµ si ottiene l’espressione
della densita di probabilita per gli autovalori θj
P (θ1, ..., θN) = exp
[−
N∑j=1
(aθ2j − bθj − c)
]∏j<k
|θk − θj| (2.20)
Inoltre, traslando l’origine di θ di b2a
e scalando il generico autovalore θj di
un fattore costante√
2a
θj 7−→1√2axj +
b
2a(2.21)
l’espressione (2.20) si puo semplificare, ottenendo
P (x1, ..., xN) = CN1 exp
(−1
2
N∑j=1
x2j
)∏j<k
|xk − xj| (2.22)
dove CN1 e una costante.
2.2 GUE
I risultati ottenuti per il caso ortogonale si possono riprodurre in analogia
a quanto fatto agli insiemi unitari. Oltre agli autovalori reali il numero di
parametri indipendenti pµ sufficienti a fissare univocamente tutti gli elementi
1Si veda l’Appendice B.
20 2. Densita di probabilita congiunta per gli autovalori
di matrice risulta essereN(N−1). Le relazioni (1.31) e (2.3) sono le medesime
anche per gli insiemi unitari, mentre l’espressione dello Jacobiano si adatta
alla struttura degli elementi di matrice
J(θ, p) =
∣∣∣∣∣∂(H(0)11 , ..., H
(0)NN , H
(0)12 , H
(1)12 , ..., H
(0)N−1,N , H
(1)N−1,N)
∂(θ1, ..., θN , p1, ..., pl)
∣∣∣∣∣ (2.23)
dove H(0)jk e H
(1)jk rappresentano rispettivamente la parte reale e immagi-
naria dell’elemento Hjk. Ricordando che per una matrice hermitiana vale
U = U † = (U∗)T e riscrivendo la (2.5) e la (2.6) sostituendo UT con U † si ri-
cavano le seguenti espressioni, relative agli elementi di matrice della derivata
di H fatta rispetto agli autovalori reali θγ e ai parametri indipendenti pµ, in
componenti
∑jk
∂Hjk
∂pµU∗jαUkβ = S
(µ)αβ (θβ − θα) (2.24)
∑jk
∂Hjk
∂θγU∗jαUkβ =
∂Θαβ
∂θγ= δαβδαγ (2.25)
La matrice associata allo Jacobiano si riscrive in forma partizionata come
∂Hjj∂θγ
∂H(0)jk
∂θγ
∂H(1)jk
∂θγ
∂Hjj∂pµ
∂H(0)jk
∂pµ
∂H(1)jk
∂pµ
v w
A(0) B(0)
A(1) B(1)
=
=
[ργα σ
(0)γ,αβ σ
(1)γ,αβ
ε(µ)α S
(0µ)αβ (θβ − θα) S
(1µ)αβ (θβ − θα)
](2.26)
1 ≤ j < k ≤ N
1 ≤ α < β ≤ N
1 ≤ µ ≤ N(N − 1)
1 ≤ γ ≤ N
2.2 GUE 21
dove S(0µ)αβ e S
(1µ)αβ sono la parte reale e immaginaria di S
(µ)αβ . Vengono espli-
citate le dimensioni delle matrici
∂Hjj
∂θγ, v, ρ N ×N
∂H(λ)jk
∂θγ, σ
(λ)γ,αβ N ×N(N − 1)/2
A(λ) N(N − 1)/2×N
∂H(λ)jk
∂pµ, S
(λµ)αβ N(N − 1)×N(N − 1)/2
B(µ) N(N − 1)/2×N(N − 1)
∂Hjj
∂pµ, ε(µ)α N(N − 1)×N
w N ×N(N − 1)
Indipendentemente dalla forma esplicita delle matrici v, w, A(µ), ρ, ε, σ(λ)
l’aspetto rilevante risulta essere l’aver costruito le matrici dalle componenti
della U o alternativamente l’aver differenziato Θ in funzione delle θj avendo
cosı ottenuto una dipendenza dalle sole pµ. Analogamente le matrici Sµ sono
indipendenti dagli autovalori reali. Dunque, considerando il determinante
di ambo i membri si ottiene lo Jacobiano, espresso come prodotto di due
funzioni dipendenti rispettivamente dai θj e dalle pµ separatamente
J(θ, p) =∏α<β
(θβ − θβ)2f(p) (2.27)
la cui espressione se sostituita nella (2.3), integrando rispetto ai pµ permette
di ottenere la densita di probabilita per gli autovalori reali
P (θ1, ..., θN) = exp
[−
N∑j=1
(aθ2j − bθj − c)
]∏j<k
(θk − θj)2 (2.28)
22 2. Densita di probabilita congiunta per gli autovalori
Esattamente come per l’insieme ortogonale, traslando l’origine e scalando per
una quantita costante, l’espressione si semplifica
P (x1, ..., xN) = CN2 exp
(−
N∑j=1
x2j
)∏j<k
(xk − xj)2 (2.29)
I risultati ottenuti possono essere formalizzati enunciando il seguente teore-
ma.
Teorema 2.2.1. La funzione densita di probabilita congiunta (j.p.d.f.) per
gli autovalori delle matrici appartenenti agli insiemi gaussiani ortogonali,
unitari e simplettici e data da
PNβ(x1, ..., xN) = CNβ exp
(−1
2β
N∑j=1
x2j
)∏j<k
(xk − xj)β (2.30)
dove β = 1 se l’insieme e ortogonale, β = 2 se e unitario e β = 4 se e sim-
plettico. La costante CNβ e scelta in modo tale che la PNβ sia normalizzata
all’unita ∫ ∞∞· · ·∫ ∞∞
PNβ(x1, ..., xN)dx1...dxN = 1 (2.31)
L’elemento β viene chiamato indice di Dyson. L’espressione esplicita per
CNβ puo essere calcolata sfruttando l’integrale di Selberg [4] ottenendo
C−1Nβ = (2π)N/2β−N/2−βN(N−1)/4[Γ(1 + β/2)]−NN∏j=1
Γ(1 + βj/2) (2.32)
2.2.1 Analogia con il gas di Coulomb
La forma funzionale della (2.30) non puo che suggerire un’analogia con il
gas di Coulomb. Considerando infatti un sistema di N particelle interagenti
a fissata temperatura T con energia potenziale
V (~r1, ..., ~rN) (2.33)
2.2 GUE 23
la probabilita che esse si trovino in (~r1, ..., ~rN) risulta
P (~r1, ..., ~rN) =1
Ze−βV (~r1,...,~rN ) (2.34)
dove e−βV (~r1,...,~rN ) rappresenta il fattore di Boltzmann e Z la funzione di
partizione definita da
Z =
∫· · ·∫d~r1, ..., d~rNe
−βV (~r1...~rN ) (2.35)
dove l’integrazione e effettuata sulla regione di spazio nella quale sono pre-
senti le particelle. Se il potenziale e espresso nella forma
V (~r1, ..., ~rN) =1
2
N∑i=1
|~ri|2 −∑i<j
ln |~ri − ~rj| (2.36)
le equazioni (2.30) e (2.34) coincidono a meno di un fattore β. Identificando
β = 1kBT
, con kB la costante di Boltzmann, la funzione densita di proba-
bilita congiunta coincide con il fattore di Boltzmann per tre valori diversi
dell’inverso della temperatura. Pensando agli elementi del gas come ad N
distribuzioni lineari di carica su un piano bidimensionale, una carica posta
a distanza ~rj dalla sorgente in ~ri risente di un campo elettrico proporzionale
all’inverso dalla distanza tra le due cariche
Eij(|~ri − ~rj|) ∝1
|~ri − ~rj|(2.37)
sommando su tutte le N componenti e integrando sul dominio spaziale si
ricava
V ∝ −∑i<j
ln |~ri − ~rj| (2.38)
per cui il secondo termine del potenziale e giustificato dall’interazione elet-
trostatica tra componenti. L’interazione caratterizza un sistema di cariche
poste su un piano bidimensionale. Se si considerasse una distribuzione di
cariche nello spazio tridimensionale, il potenziale dipenderebbe dall’inverso
della distanza tra sorgente e carica, e in linea di principio somministrando
una quantita finita di energia si potrebbe portare a distanza infinita la carica
24 2. Densita di probabilita congiunta per gli autovalori
soggetta al potenziale rispetto alla sorgente. Il potenziale logaritmico, invece,
risulta confinante, per cui le cariche non possono mai essere portate mutua-
mente ad una distanza infinita. Gli autovalori reali delle matrici random si
possono immaginare come soggetti a tale potenziale nonostante siano tutti
vincolati a giacere su una retta. Il primo termine del potenziale compare
ipotizzando che le particelle siano immerse in un potenziale armonico.
L’analogia con il gas di Coulomb genera una sorta di univocita concettuale
per cui gli autovalori di una matrice random, appartenenti ad uno degli insie-
mi gaussiani definiti in precedenza, si comportano come se fossero delle par-
ticelle cariche le quali si respingono mutuamente con una forza proporzionale
all’inverso della distanza tra loro.
2.3 Distribuzione degli autovalori
Negli anni sono stati introdotti numerosi strumenti per studiare analitica-
mente le proprieta degli insiemi gaussiani di matrici. In questa breve sezione
si descriveranno qualitativamente alcune di queste proprieta.
Le proprieta delle sequenze di autovalori si suddividono in linea di principio
in due classi: proprieta globali e locali. Le prime mirano ad una descrizione
generale della sequenza tralasciando i dettagli relativi ai singoli autovalori,
mentre le proprieta locali descrivono porzioni della successione e forniscono
informazioni sulla posizione reciproca tra autovalori. Sequenze descritte da
differenti densita medie di autovalori possono presentare idealmente medesi-
me proprieta locali, e viceversa. Nel caso degli insiemi di matrici random, ad
ogni matrice di un insieme gaussiano corrispondera un insieme di autovalori
o alternativamente una sequenza di autovalori. La principale congettura su
cui si basa la teoria delle matrici random riguarda la corrispondenza tra le
proprieta delle sequenze di autovalori relativi a specifici sistemi e le carat-
teristiche globali di un insieme di successioni di autovalori di un opportuno
2.3 Distribuzione degli autovalori 25
insieme di matrici. Prima di descrivere alcune proprieta delle sequenze degli
autovalori reali delle matrici appartenenti agli insiemi gaussiani si descri-
vera uno strumento utile per descrivere statisticamente generiche sequenze
di autovalori indipendentemente dalla natura delle stesse.
2.3.1 Spaziatura tra autovalori
Che si tratti di sequenze di autovalori casuali, sequenze di numeri pri-
mi, o risonanze neutroniche, o ancora la successione degli zeri della funzione
ζ di Riemann sulla retta Rez = 1/2, alcune proprieta statistiche sono co-
muni a tutte le successioni, indipendentemente dalla diversa densita degli
autovalori. Facendo riferimento ad una eventuale sequenza di livelli energe-
tici, si consideri la successione E1 ≤ E2 ≤ E3 ≤ ... contenuta nell’intervallo
δE. Se Si = Ei+1 − Ei, cioe se Si rappresenta la distanza relativa tra livelli
consecutivi, con i = 1, 2, ...N , e D il valor medio∑
i Si/N , definendo
si =SiD
(2.39)
si introduce naturalmente la densita di probabilita p(s), tale per cui p(s)ds
rappresenta la probabilita che si sia compreso tra s e s+ ds. Nel caso in cui
i livelli non siano correlati tra di loro, dividendo s in n intervalli di uguale
ampiezza p(s)ds si puo esprimere come
p(s)ds = limn→∞
(1− s
n
)n= e−sds, (2.40)
la quale prende il nome di distribuzione di Poisson.
Empiricamente, fu facile constatare quanto questa distribuzione di pro-
babilita si discostasse da quella seguita dai livelli energetici nucleari a fissati
spin e parita, cosı come differiva significativamente da quella degli autovalo-
ri di matrici random hermitiane a valori reali (cf. Fig. 2.1). Si considero,
inoltre, come la distribuzione di probabilita degli autovalori di tali matrici
fosse consistente con quella dei livelli energetici nucleari; analogamente, fu
osservato che molti altri sistemi fisici seguivano tale distribuzione di proba-
bilita, come ad esempio il biliardo di Sinai, o un atomo di idrogeno immerso
26 2. Densita di probabilita congiunta per gli autovalori
Figura 2.1: Si puo notare come la distribuzione di Poisson non sia quella seguitadagli autovalori di una matrice simmetrica a valori reali (GOE), ne approssimiopportunamente l’istogramma, relativo ad un insieme sufficientemente grande dilivelli energetici, associati a 27 nuclei differenti [9].
in un intenso campo magnetico. Oltre a questi sistemi fisici, ce ne sono molti
altri che seguono una distribuzione di probabilita lecitamente approssimabile
a quella degli autovalori di una matrice hermitiana a valori reali, lasciando
ipotizzare una sorta di universalita della distribuzione dei livelli energetici
dei sistemi complessi e non integrabili.
2.3.2 Wigner surmise
Wigner, osservando l’andamento dei dati sperimentali, relativi ai livelli
energetici di nuclei atomici, formulo una congettura, nota come “Wigner
surmise”, rispetto all’espressione di p(s). Per insiemi di matrici ortogonali
(GOE) ipotizzo che la forma della funzione potesse essere la seguente
pW1(s) =π
2se−
π4s2 (2.41)
Come esposto in [4], in seguito venne definita una soluzione esplicita per
la distribuzione degli autovalori delle matrici di insiemi ortogonali (GOE),
tale soluzione sorprendentemente presenta un andamento analogo a quello
previsto dal “Wigner surmise” (cf. Fig. 2.2). Anche per gli insiemi (GUE) e
(GSE) formulo delle ipotesi ottenendo degli ottimi risultati, in accordo alle
attuali soluzioni analitiche, di seguito si riportano le due espressioni
2.3 Distribuzione degli autovalori 27
pW2(s) = 32π2 s
2e−4πs2
pW4(s) = 218
36π3 s4e−
649πs2
(2.42)
I coefficienti numerici della (2.41) e delle (2.42) vennero introdoti in modo
tale da rendere le espressioni normalizzabili
∫ ∞0
pWβ(s)ds = 1 (2.43)
e valesse per il valore medio∫ ∞0
spWβ(s)ds = 1. (2.44)
con β = 1, 2, 4.
Figura 2.2: Si osserva un ottimo accordo tra le due distribuzioni nonostante sianostate ottenute su premesse diverse [10].
E possibile generalizzare le espressioni congetturate da Wigner [11] con
pβ(s) = aβsβe−bβs
2
(2.45)
con i valori di aβ e bβ definiti dalle
28 2. Densita di probabilita congiunta per gli autovalori
aβ(s) = 2Γβ+1
(β+22
)Γβ+1
(β+12
) (2.46)
bβ(s) =Γ2(β+22
)Γ2(β+12
)
Figura 2.3: Andamento delle Wigner surmises per i tre insiemi gaussiani.
2.3.3 Densita degli stati
Un’altra proprieta relativa agli autovalori di una matrici random riguar-
da la densita degli stati σ(x). Attraverso la (2.30) e possibile calcolare la
probabilita P (x1, ..., xN) che il set di autovalori della matrice si trovi in un
intorno infinitesimo di x1, ..., xN . La densita dei livelli
σ(x) = N
∫ ∞−∞· · ·∫ ∞−∞
P (x, x2, ..., xN)dx2...dxN (2.47)
puo essere calcolata per ogni valore di N tramite integrazione. La soluzione
del problema e non banale, ma puo essere affrontata analiticamente attraver-
so diversi approcci quali, ad esempio, il metodo del punto a sella, il metodo
dei polinomi ortogonali o attraverso il calcolo supersimmetrico [4]. Nel segui-
to si semplifichera il problema considerando il limite per N → ∞, in modo
che il corrispondente gas di Coulomb si possa considerare come un fluido
2.3 Distribuzione degli autovalori 29
classico con una densita macroscopica continua. Piu precisamente valgono i
seguenti due assunti:
(1) L’energia potenziale V data dalla (2.36) puo essere approssimata dal
funzionale
V (σ) =1
2
∫ ∞−∞
dxx2σ(x)− 1
2
∫ ∞−∞
dxdyσ(x)σ(y) ln |x− y|. (2.48)
(2) La densita dei livelli sara tale da minimizzare la (2.48), con il vincolo
∫ ∞−∞
dxσ(x) = N (2.49)
e con
σ(x) ≥ 0. (2.50)
Il primo termine dell’integrale riproduce, nel limite di N →∞, esattamente
la sommatoria del primo termine della (2.36). Non si puo dire esattamente la
stessa cosa per il secondo integrale, in quanto sono stati trascurati eventuali
correlazioni relative all’interazione tra primi vicini; nonostante cio nel limite
di N grande tali correlazioni si possono considerare trascurabili.
Per trovare i punti stazionari del funzionale V (σ) ci si riconduce all’equazione
integrale
−1
2x2 +
∫ ∞−∞
dyσ(y) ln |x− y| = C (2.51)
dove C e una costante di Lagrange. Differenziando rispetto a x e conside-
rando la parte principale dell’integrale1 si ricava
P
∫ ∞−∞
dyσ(y)
x− y= x (2.52)
nel seguito non si risolvera analiticamente il problema ma verra fornito di-
rettamente il risultato. Considerando
1Per parte principale si intende limε→0
(∫ x−ε−∞ dy +
∫∞x+ε
dy)σ(y) ln |x− y|.
30 2. Densita di probabilita congiunta per gli autovalori
σ(y) =
C(A2 − y2)1/2, |y| < A
0, |y| > A(2.53)
dalla (2.52) si ricava
C =1
π(2.54)
e dalla (2.49)
1
π
π
2A2 = N (2.55)
Per cui, considerando come variabile indipendente la x, la (2.53) si scrive
come
σ(x) =
1π(2N − x2)1/2, |x| < (2N)1/2
0, |x| > (2N)1/2(2.56)
dove x denota la posizione degli autovalori di una matrice hermitiana di
dimensioni N×N di un insieme gaussiano. La densita σ(x) fornisce il numero
medio di livelli in un intervallo di ampiezza dx centrato in x quando N →∞.
Figura 2.4: Legge del semicerchio ricavata da Wigner. Essa esprime la den-sita media dei livelli di una sequenza di autovalori di una matrice di un insiemegaussiano. Gli assi sono scalati opportunamente.
2.3 Distribuzione degli autovalori 31
La forma della densita σ(x) dell’equazione (2.56) e la ragione per cui il
risultato e noto come “legge del semicerchio” (dall’inglese semicircle law, cf.
Fig. 2.4).
2.3.4 Riepilogo
Sulla base degli insiemi gaussiani di matrici hermitiane random introdotti
nel Capitolo 1, si e derivata la funzione densita di probabilita congiunta
ottenendo proporzionalita con il fattore
∏1≤j<k≤N
|xk − xj|β exp
(−1
2β
N∑j=1
x2j
)(2.57)
dove β dipende dall’insieme considerato. Si e considerata, inoltre, l’analo-
gia con il gas di Coulomb in termini della forma funzionale, in particolare
il fattore di Boltzmann per un gas di particelle interagenti coincide a meno
di β alla densita di probabilita congiunta relativa agli autovalori di un in-
sieme di matrici random. Inoltre, e stata esposta la congettura di Wigner
(Wigner surmise), la quale nel caso di matrici random dell’insieme gaussiano
ortogonale (GOE) risulta essere
pW1(s) =π
2se−
π4s2 (2.58)
Si e enunciata la legge del semicerchio relativa alla densita media degli
autovalori di una matrice random
σ(x) =
1π(2N − x2)1/2, |x| < (2N)1/2
0, |x| > (2N)1/2(2.59)
Capitolo 3
Applicazioni
In questo capitolo si discutera la compatibilita di alcuni fenomeni con le
previsioni della teoria delle matrici random, soffermandosi sull’universalita
della stessa. In particolare, nella prima parte, si osservera come essa sia
applicabile a contesti apparentemente diversi ottenendo risultati notevoli.
Una seconda parte verra invece dedicata all’attuale tema del “car parking”.
3.1 RMT in fisica
Il campo di applicabilita della teoria delle matrici random risulta essere
molto ampio ed eterogeneo in termini di domini fenomenologici. Nei prossimi
paragrafi verranno enumerate soltanto alcune delle moltissime applicazioni
in cui la teoria trova applicazione, cercando di seguire l’evoluzione storica.
3.1.1 Fisica Nucleare
Come gia menzionato in precedenza, fu nel contesto della fisica nucleare
che la teoria delle matrici random venne per la prima volta applicata in fisi-
ca, da parte di Wigner. Inoltre, i dati raccolti all’inizio della seconda meta
del ’900 fornirono verifiche empiriche rispetto alle previsioni della teoria. Nel
1960 Porter e Rosenzweig [8] confrontarono i livelli energetici relativi a di-
versi nuclei con la distribuzione relativa alla spaziatura dei livelli prevista dal
33
34 3. Applicazioni
GOE. Come si puo facilmente osservare dalla Fig. 3.1, l’aumento della com-
plessita del sistema e indicativo rispetto alla convergenza alla distribuzione
degli autovalori di matrici random.
Figura 3.1: Diagrammi relativi alla spaziatura dei primi vicini per diversi assor-timenti di nuclei atomici. Le tre categorie differiscono per le dimensioni dei nucleipartendo da nuclei di piccole (a), medie (b) e grandi (c) dimensioni. Si osservacome le distribuzioni relative a nuclei di piccole dimensioni siano consistenti con unandamento poissoniano mentre all’aumentare della dimensione i dati converganoal GOE.
3.1.2 Spettro dell’operatore di Dirac in QCD
Negli ultimi anni la RMT e stata applicata con successo anche in cromo-
dinamica quantistica1 (QCD, quantum chromodynamics).
1Per i dettagli si vedano [12, 13].
3.1 RMT in fisica 35
La QCD e la teoria che, nel Modello Standard delle particelle elementari,
descrive le interazioni forti tra i componenti dei nucleoni: quark e gluoni.
Essa postula che queste particelle abbiano un grado di liberta interno di
“colore”, e si basa sull’invarianza locale (ovvero di “gauge”) rispetto a tra-
sformazioni nel gruppo SU(3) del “colore”. La QCD e una teoria quantistica
e relativistica e, in quanto tale, si basa sulla “seconda quantizzazione”: la
teoria non prevede una descrizione in termini della funzione d’onda di una
singola particella, bensı di un numero intero arbitrario di particelle (e anti-
particelle) e la quantizzazione dei campi che le descrivono. Nel formalismo
degli “integrali di cammino” di Feynman, l’evoluzione quantistica di quark e
gluoni e descritta dall’integrale funzionale
Z =
∫DADΨDΨ exp
(i
}
∫dt
∫d3xL[A,Ψ, Ψ]
)(3.1)
dove L e la “densita lagrangiana”, funzione dei campi A (campi vettoriali
che descrivono i gluoni), Ψ e Ψ (campi di spin 1/2 che descrivono quark e
antiquark); queste sono funzioni dello spazio e del tempo, e gli integrali DA,
DΨ e DΨ sono integrali funzionali. Nella densita lagrangiana L, l’interazione
tra i gluoni e i quark e descritta da un termine del tipo:
∑f
Ψf (x, t)[iγµ(∂µ − igAµ)−mf ]Ψf (x, t), (3.2)
dove l’indice f denota i vari tipi (o “sapori”) di quark (up, down, strange,
charm, bottom e top), di massa mf , mentre g e la costante di accoppiamento
dell’interazione forte e le γµ sono le quattro matrici gamma di Dirac. La
quantita tra parentesi quadre e l’operatore di Dirac: nel “limite chirale”
mf → 0 (che e una buona approssimazione per i quark piu leggeri, up e
down, e in una certa misura anche per lo strange) esso si riduce a:
iγµ(∂µ − igAµ)def= iγµDµ
def= i /D (3.3)
36 3. Applicazioni
dove Dµ = ∂µ − igAµ e la “derivata covariante”, e la notazione /D indica la
sua contrazione con le matrici gamma.
Figura 3.2: Distribuzione degli autovalori piccoli dell’operatore di Dirac per quat-tro diverse dimensioni del reticolo [14]. La curva in rosso rappresenta l’istogrammarelativo ai dati della simulazione numerica su reticolo mentre la curva tratteggiatale predizioni della RMT.
Al fine di dare una definizione matematicamente rigorosa e generale di Z
si puo “regolarizzare” la teoria su un reticolo quadridimensionale, sostituendo
lo spazio-tempo continuo con una griglia di punti discreti. Questo permette
anche di studiare Z numericamente, mediante calcoli con un elaboratore.
Tali calcoli permettono, tra l’altro, di studiare esplicitamente l’operatore di
Dirac nel limite chirale. Considerazioni generali sulle sue simmetrie globali
suggeriscono che esso possa essere modellizzato in termini di matrici random
con una struttura a blocchi del tipo
3.1 RMT in fisica 37
[0 W
W † 0
](3.4)
(“chiral gaussian unitary ensemble”) e che i suoi autovalori siano compatibili
con le previsioni del GUE. Queste previsioni sono effettivamente confermate
da studi numerici su reticolo (cf. Fig. 3.2).
3.1.3 Funzione ζ di Riemann
La funzione ζ di Riemann riveste fondamentale importanza nella teoria
analitica dei numeri e presenta notevoli risvolti in fisica, teoria delle proba-
bilita e statistica. Erano gia stati ottenuti dei risultati riguardo alla funzione
nel diciottesimo secolo, da Leonhard Euler, ma il riferimento a Bernhard Rie-
mann risulta giustificato dalla sua celebre congettura, pubblicata nel 1858 in
Uber die Anzahl der Primzahlen unter einer gegebenen Grosse, sull’eventuale
relazione tra numeri primi e la distribuzione degli zeri della funzione.
Figura 3.3: Grafico del modulo della funzione di Riemann ζ(a+ib) per 0 ≤ a ≤ 3e 0.1 ≤ b ≤ 200.
La funzione Zeta di Riemann e definita dalla serie
38 3. Applicazioni
ζ(z) =∞∑n=1
1
nz(3.5)
dove z ∈ C con Rez > 1. Per altri valori di z la funzione ζ e definita per
continuazione analitica. Fu nel 1876 che Riemann formulo la sua congettura
sulla distribuzione degli zeri non banali. In particolare egli suppose che “La
parte reale di ogni radice non banale e 1/2”, dunque, dovrebbero trovarsi
tutte su una retta, detta “linea critica”, parametrizzata come
z =1
2+ iγn (3.6)
con γn ∈ R. La successione dei γn avra la forma di una sequenza di numeri
reali, con n ∈ N. In Fig. 3.4. e mostrato l’andamento della spaziatura tra
primi vicini per la sequeza dei {γn}n∈[1022,1022+104]. Il confronto dell’istogram-
ma delle frequenze con la distribuzione (GUE) mostra una compatibilita
accentuata tra le due distribuzioni. Risulta, dunque, ragionevole suppor-
re che l’andamento degli zeri non banali della funzione ζ di Riemann sia
statisticamente descritto da un insieme gaussiano unitario (GUE).
Figura 3.4: Istogramma delle frequenze della spaziatura dei primi vicini prodottoconsiderando la sequenza della parte complessa di 10000 zeri non banali dellafunzione ζ di Riemann.
3.1 RMT in fisica 39
3.1.4 Quantum Chaos
Nel 1984, Bohigas, Giannoni e Schmit [15] formularono una congettura
mediante la quale esposero una corrispondenza tra la descrizione dei sistemi
caotici e la teoria delle matrici random. Per caotico si intende un sistema
in cui traiettorie che caratterizzano il moto, inizialmente vicine, divergono
esponenzialmente le une dalle altre al trascorrere del tempo. La RMT ini-
zialmente venne considerata nel contesto dei sistemi multi-particelle con un
grande numero di gradi di liberta, dunque potrebbe risultare peculiare con-
frontare le proprieta statistiche ottenute dalla stessa rispetto a sistemi caotici
con, ad esempio, soltanto due gradi di liberta.
Una particella libera di muoversi su di un piano, senza attrito e vincola-
ta all’interno di un dominio finito rispetto al quale puo urtare elasticamente,
sotto opportune condizioni a contorno, puo rappresentare un sistema caotico.
Costruendo biliardi con superfici diverse si possono realizzare praticamente
configurazioni caotiche per una particella libera.
Figura 3.5: Biliardi di forme diverse. In alto a destra lo stadio di Bunimovich,il biliardo di Sinai in alto a destra, la lumaca Pascaliana (o biliardo a forma dicardioide) in basso a sinistra e in basso a destra il biliardo anulare.
40 3. Applicazioni
Considerando ad esempio i biliardi di Sinai e a forma di cardioide, i li-
velli energetici del sistema quantistico corrispondente dovrebbero in linea di
principio aderire alla statistica del GOE. In [16] e [17] vengono illustrate
alcune distribuzioni relative alla spaziatura tra autovalori dei sistemi mec-
canici quantistici analoghi a specifiche configurazioni delle superfici. Se la
configurazione del biliardo e circolare i livelli energetici del modello quanti-
stico analogo (confinamento di una particella libera all’interno di un dominio
della stessa forma) presentano un andamento poissoniano, mentre nel caso
del dominio a forma di cardioide la densita relativa alla spaziatura tra i livelli
converge al GOE (cf. Fig. 3.6).
Figura 3.6: Sono rappresentati due istogrammi di frequenze inerenti alla spazia-tura tra primi vicini degli autovalori di una hamiltoniana che descrive un particellalibera in un dominio bidimensionale finito. A sinistra, imponendo condizioni alcontorno circolari si osserva come la distribuzione di Poisson descriva bene l’anda-mento dei dati, e stato mostrato che la considerazione in generale vale per i sistemiquantistici integrabili [17]. La descrizione del moto balistico di una particella, in cuivengono imposte condizioni a contorno relative alla forma a cardioide del dominio(a destra), e il suo analogo quantistico, vengono approssimate dalla statistica pre-vista dal GOE (in accordo a quanto congetturato da Bohigas, Giannoni e Schmit[15]).
3.1.5 Gravita quantistica
La teoria delle matrici random trova applicazione anche in gravita quanti-
stica nell’ambito dei modelli topologici. In particolare la teoria delle stringhe
3.1 RMT in fisica 41
fornisce una connessione con la RMT inerentemente alle superfici random
(c.f. Fig. 3.7, per maggiori dettagli si veda [18]). Si consideri uno spazio d-
dimensionale nel quale le funzioni Xµ(ξ0, ξ1), con µ = 1, ..., d, parametrizzano
la posizione delle stringhe su di un piano bidimensionale. Per la descrizione
dinamica delle stringhe risulta conveniente usare l’azione di Polyakov per la
stringa
S =1
2
∫d2ξ√|g|gαβ∂αXµ∂βXµ (3.7)
dove gαβ(ξ0, ξ1) con α = 0, 1 rappresenta il campo gravitazionale a due di-
mensioni. La funzione di partizione dell’azione di una stringa e data dal
seguente integrale funzionale
Z =
∫DX
∫Dg exp (−S) (3.8)
il quale puo essere risolto numericamente ricorrendo ad una discretizzazione
della superficie rispetto alla quale viene effettuata l’integrazione. E in questo
contesto che la teoria delle matrici random si applica, descrivendo alcune
proprieta delle superfici random.
Figura 3.7: Triangolazione random di un toro (sinistra). Porzione di superficiedel toro e rappresentazione del reticolo duale (destra).
42 3. Applicazioni
3.1.6 Altre applicazioni
Numerosi sono i campi in cui la teoria si applica. Oltre a quelli citati
si ricordano la finanza, nella quale la RMT viene applicata per descrivere
il rumore di campionamento in matrici di correlazione finanziarie, le neuro-
scienze, dove le matrici random vengono sfruttate per modellizzare la rete di
connessioni sinaptiche tra neuroni nel cervello, l’ottimizzazione dei sistemi di
trasmissione nell’ambito della teoria della comunicazione e molti altri.
3.2 Car parking
Il car parking problem indica il fenomeno relativo alla distribuzione e
all’ampiezza delle spaziature tra vetture contigue in un parcheggio. Le pro-
prieta teoriche del car parking vennero introdotte attraverso modelli iterativi,
in particolare mediante il modello di assorbimento sequenziale casuale, me-
glio noto in letteratura come il “random car parking model”. Il processo
di selezione casuale consiste nel considerare ogni auto partecipante indipen-
dente dalle altre e avente lunghezza l0. Sia L la lunghezza della strada con
L � l0. Il primo step consiste semplicemente nel selezionare casualmente
una posizione x sulla strada. Se l’intervallo (x − l0/2, x + l0/2) non e occu-
pato, l’auto puo essere parcheggiata corrispondentemente all’intervallo. Se
invece l’intervallo e gia occupato, dev’essere scelto casualmente un altro x′.
Quando il numero di auto parcheggiate raggiungera un certo limite critico,
tale per cui non siano presenti intervalli liberi di lunghezza l0, non potranno
essere aggiunte ulteriori vetture. Nel limite in cui L → ∞ e stato prova-
to da Renyi [19] che il limite critico si raggiunge quando N = qL/l0 con
q = 0.74759.... La distanza media tra auto nel caso di saturazione risulta
D = l0(1 − q)/q ≈ 0.3376...l0. Nel seguito si riprodurra il modello descritto
da Seba in [20].
3.2 Car parking 43
3.2.1 Modellizzazione dei dati empirici
Una quantita di dati significativi vennero raccolti da Rawal e Rodgers
[21] nel centro di Londra. Ci si accorse di come essi si discostassero si-
gnificativamente dalla distribuzione della distanza tra primi vicini ottenuta
teoricamente tramite il modello del parcheggio casuale. Nel caso continuo il
modello prevedeva un andamento per la distribuzione delle spaziature P (D)
come
P (D) ≈ 0.4217[1− 2 lnD − (1−D)(1.379− 0.365D)] (3.9)
per D piccolo. Di conseguenza l’espressione diverge, ovvero P (D) → ∞ se
D → 0. I dati empirici raccolti nel contesto londinese dimostrano chiaramen-
te come P (D)→ 0 quando D → 0. Inoltre, Abul-Magd [22] mise in evidenza
come la distribuzione spaziale delle cariche di un gas monodimensionale di
particelle interagenti in equilibrio termico, e di conseguenza la distribuzione
degli autovalori di un insieme di matrici random, ben descriva l’andamento
dei dati raccolti. A differenza dell’approccio di Abul-Magd al problema, il
quale anticipo si potesse supporre un’interazione effettiva tra vetture (poten-
ziale repulsivo logaritmico −∑
i<j ln |xi − xj|, nel limite di distanze piccole),
Rawal e Rodgers sfruttarono un modello basato sull’assorbimento casuale che
non prevedeva in una sua prima versione particolari interazioni tra le auto.
Nuove misure hanno portato a concludere che non sia possibile definire dei
risultati universalmente validi. In [20] si osserva, sulla base dei dati raccolti
in Repubblica Ceca, come la situazione relativa al traffico implichi una dif-
ferenziazione per strada delle distribuzioni delle spaziature tra vetture. Lo
stesso fenomeno e stato osservato a Ann Arbor (USA) [23] dove si e dimo-
strato che l’indice di Dyson dipende dalla strada considerata.
Diversamente dal modello di Abul-Magd [22], quello proposto di seguito non
prevede vengano premesse interazioni effettive tra le vetture. Si considerino
auto di medesima lunghezza l0, le quali vengono parcheggiate in una strada
di lunghezza L, dove L � l0. Sia Xi la posizione del centro dell’i-esima
vettura, inoltre le auto siano contate partendo da destra in modo tale che
44 3. Applicazioni
Figura 3.8: Istogramma delle frequenze dei dati raccolti da Rawal e Rodgers
[21], relativo alla distribuzione delle gaps che intervallano vetture contigue, con-
frontato con la distribuzione delle spaziature del GUE (curva continua). La linea
tratteggiata e ricavata dal model B della referenza [21].
Xi+1 > Xi. Se una macchina esce dal parcheggio oppure una ulteriore viene
parcheggiata, le posizioni delle auto Xi vanno riassegnate. Il modello si basa
su step temporali discreti. Si comincia con due auto parcheggiate, rispetti-
vamente all’inizio e alla fine della strada: X1 = 0 e X2 = L. Si suppone che
le due auto poste alle estremita del parcheggio non si muovano durante gli
step iterativi. Tutte le altre automobili partecipano nel modello. Ogni step
si puo sintetizzare in due parti:
Parte 1. Una vettura arriva nei pressi della strada e tenta di parcheggiare.
La lunghezza degli slot e data da Dk = Xk+1−Xk− l0. Di conseguenza, una
vettura di lunghezza l0 potra parcheggiare nello slot Dk soltanto se Dk > l0.
Se lo slot e disponibile l’auto puo parcheggiare arbitrariamente all’interno
dello stesso, scegliendo una posizione a cui ci si riferisce con l’indice k0. La
posizione nella quale la vettura verra parcheggiata si puo descrivere mediante
X = Xk0 + l0 + a(Dk0 − l0) (3.10)
3.2 Car parking 45
dove a ∈ (0, 1) assume valori casuali rispetto alla distribuzione P (a). Si
distinguono tre casi: X = Xk0 + l0, a = 0
X = 12(Xk0+1 −Xk0), a = 1
2
X = Xk0+1 − l0, a = 1
(3.11)
i quali corrispondono rispettivamente al caso in cui l’auto sia posizionata
all’estremo destro dello slot, al centro o a sinistra. Se non ci sono slot dispo-
nibili la parte 1 del processo viene saltata.
Parte 2. Ogni vettura esce dal parcheggio con probabilita p. Se non ci
sono altre macchine parcheggiate oltre a quelle posizionate alle estremita
X = 0 e X = L del dominio questo step viene saltato.
Il numero massimo di auto nel parcheggio risulta essere Nmax = L/l0. Se
Np > 1 piu di un’auto puo partire dal parcheggio durante uno step iterati-
vo e il numero massimo di macchine parcheggiate fluttua intorno al valore
massimo N = 1/p. Si e interessati pero al caso in cui N ≈ Nmax, per cui
p ≤ 1/L. La funzione P (a) rappresenta la tendenza dell’utente a posizionarsi
in una specifica coordinata all’interno dello slot. Se P (a) tende ad δ(a−1/2)
le auto parcheggeranno con probabilita accentuata al centro dello slot. Nel
seguito si assumeranno le seguenti condizioni:
(1) La funzione P (a) risulta simmetrica P (a) = P (1− a).
(2) Tutti gli slot sono occupati. Una vettura puo essere parcheggiata solo
quando un’altra auto parte dal parcheggio.
(3) Il modello descrive uno stato di equilibrio in cui non varia la distribuzione
delle spaziature nel tempo.
(4) Per semplificare la trattazione non si considereranno casi in cui piu di
un’auto esca dal parcheggio.
46 3. Applicazioni
Si consideri il caso in cui le auto parcheggiate siano tre, le cui posizioni
sono individuate rispettivamente da Xn+1, Xn e Xn−1. Si possono definire
due spaziature di lunghezza D1 = Xn − Xn−1 − l0 e D2 = Xn+1 − Xn − l0.Si supponga che la vettura in Xn esca dallo slot relativo. Le due spaziature
convergono ad un unico slot di ampiezza
D = D1 +D2 + l0 (3.12)
Quando un’altra auto parcheggia nello slot di ampiezza D, tale intervallo
viene suddiviso in due nuove spaziature D1 = a(D−l0) e D2 = (1−a)(D−l0).Sostituendo nelle due espressioni la (3.12) si ottieneD1 = a(D1 +D2)
D2 = (1− a)(D1 +D2)(3.13)
Per la simmetria della funzione P (a) le variabili a e 1 − a presentano la
medesima distribuzione di probabilita. Dopo alcuni step la vettura in Xn+1
esce dal parcheggio e viene sostituita da un’altra macchina. Questo rom-
pe l’indipendenza statistica di a e 1 − a per cui si puo scrivere per le due
spaziature D1 , a(D1 +D2)
D2 , b(D1 +D2)(3.14)
dove a e b sono due variabili random mutuamente indipendenti con la me-
desima distribuzione di probabilita. Le variabili D1, D2, D1 e D2 sono con-
siderate come copie statisticamente indipendenti delle spaziature tra le auto
e il simbolo , indica che la distribuzione di probabilita per il membro di
sinistra e la medesima per quello di destra. Le (3.14) si dicono distribu-
tional fixed point equations e sono state studiate esaustivamente nell’am-
bito della teoria dei numeri (vedere per esempio [24, 25]). La soluzione si
puo esprimere iterativamente. Inserendo l’espressione di D2 in D1 si ottiene
D1 , a1(D1 + a2(D1 + a3(D1 + ...))) dalla quale esplicitando la D1 si ricava
D1 , a1 + a1a2 + a1a2a3 + a1a2a3a4 + ... (3.15)
3.2 Car parking 47
dove a1, a2, a3, a4,... sono statisticamente indipendenti con medesima di-
stribuzione di probabilita P (a). Un’equazione analoga si ottiene per D2. La
relazione (3.15) si puo riscrivere come [26]
D , a(D + 1) (3.16)
Si osserva che le relazioni (3.14) non dipendono da l0, per cui il modello e
valido indipendentemente dalla lunghezza l0 delle vetture.
3.2.2 Risultati
Non e uno degli obiettivi dell’elaborato descrivere i dettagli relativi al-
la soluzione analitica mediante la quale si esplicita una funzione densita di
probabilita per D. La soluzione per le equazioni (3.15) e (3.16), quando a
e una variabile random in [0, 1] indipendente ed identicamente distribuita
(i.i.d, independent and identically distributed), e descritta dalla distribuzio-
ne di Dickman. Come risulta evidente (cf. Fig. 3.9) la distribuzione presenta
un andamento costante ρ(D) ≈ 0.5614... per D < 1.
Figura 3.9: Distribuzione di Dickman.
Nonostante possa risultare singolare la connessione tra la teoria dei nume-
ri e le spaziature dei primi vicini nel contesto del car parking, la distribuzione
48 3. Applicazioni
presenta un’ambiguita rispetto all’eventuale distribuzione effettiva delle vet-
ture. Infatti, ci si aspetta che sia nulla la probabilita che due vetture siano
immediatamente contigue, o presentino mutuamente spaziature tendenti a
zero, affinche sia garantito lo spazio sufficiente per le manovre. Oltre all’ana-
logia con la distribuzione di Dickman si e osservato che l’equazione (3.16) si
puo considerare legata ad una certa classe di equazioni differenziali note come
equazioni differenziali di Dickman. Sotto opportune condizioni relativamente
alla distribuzione di probabilita per a, le equazioni descrivono l’evoluzione
della densita ρ(D). Le equazioni si ricavano definendo una funzione di di-
stribuzione cumulativa1 R(t) di D e considerando P (a) = 6a(1 − a) (detta
distribuzione β(2, 2))
t3d2
dt2
(ρ(t)
t
)= 6ρ(t− 1) (3.17)
L’equazione differenziale non ammette una soluzione analitica ma puo essere
risolta iterativamente dividendo il dominio su cui varia la variabile indipen-
dente. Per t ∈ [0, 1] si ha ρ(t−1) = 0 (non sono previste spaziature negative)
per cui la soluzione per ρ(t) = c1t + c2t2, con c1 e c2 costanti. Ricavando la
soluzione per ρ(t− 1) e sostituendola nell’equazione differenziale, si definisce
una soluzione per l’intervallo t ∈ [1, 2]
ρ(t) = 3(c2 − c1) + 3(2c2 − c1)t ln (t) + 6c2t2(ln (t)− 1) + c3t
2 + c4t (3.18)
dove le costanti c3 e c4 si ricavano imponendo la continuita di ρ(t) e ρ′(t) in
t = 1, rispettivamente c3 = 3c1−8c2 e c4 = c1+12c2. Iterando per i successivi
intervalli di t si ottengono sempre costanti che dipendono da quelle definite
nello step precedente, per cui la soluzione e completamente determinata da
c1 e c2. La corrispondenza tra l’andamento della ρ e le soluzioni analitiche
degli insiemi GOE e GUE e sorprendente (cf. Fig. 3.10).
Il risultato garantisce una relazione tra la teoria delle matrici random e
la soluzione di equazioni analoghe alla (3.16). Le considerazioni vanno ben
1La funzione di distribuzione cumulativa e definita come R(t) := prob[D ≤ t] =∫ t0ρ(s)ds. Per maggiori dettagli su come si possano derivare le equazioni differenziali
di Dickman si veda l’Appendice C.
3.2 Car parking 49
Figura 3.10: Le soluzioni ottenute dall’equazione differenziale (3.17) (curva con-
tinua) per P (a) = β(2, 2) sono praticamente indistinguibili dalla distribuzione re-
lativa alla spaziatura dei livelli del GOE. Scegliendo P (a) = β(3.3, 3.3) la soluzione
converge al GUE.
oltre il dominio del car parking, l’equazione descrive il processo dello “split-
and-merge” caratteristico di una serie di altri fenomeni quali i processi di
Poisson-Dirichelet (processi stocastici che simulano il manifestarsi di eventi
che siano indipendenti l’uno dall’altro e che accadano continuamente nel tem-
po), la distribuzione GEM (studio di variabili aleatorie), la ricombinazione
genomica, ed altri (per maggiori dettagli si vedano ad esempio [27-31]).
Ritornando al problema dei parcheggi, in [20] sono esposti i dati sperimenta-
li raccolti in due strade differenti nel centro di Hradec Kralove (Repubblica
Ceca). Una delle due strade e a doppio senso di marcia e le auto vengono
parcheggiate sul lato destro della strada, mentre la seconda e a senso unico
e le vetture vengono parcheggiate sul lato sinistro. Sono state effettuate per
entrambi i casi 1200 misure. Si e osservato come sia piu semplice parcheggia-
re sul lato sinistro, in quanto si ha una visibilita migliore sulla ruota motrice,
per cui la P (a) dipende in una certa misura dalla locazione del parcheggio.
In generale si puo supporre che nei parcheggi sul lato sinistro della strada
50 3. Applicazioni
le utenze siano disposte a sfruttare anche slots mediamente piu stretti. In
Figura 3.11: I dati relativi ai parcheggi sul lato destro della strada (croci)
confrontati con le previsioni del GUE (linea tratteggiata) e con la soluzione del-
l’equazione (3.16) ottenuta con la distribuzione di probabilita P (a) plottata a
fianco.
Fig. 3.11 e 3.12 e mostrato il confronto dei dati sperimentali con l’andamento
previsto dai GOE, GUE e dal modello iterativo illustrato nella prima par-
te. Nonostante l’accordo dei dati con la teoria delle matrici random non sia
perfetto, si osserva comunque come esso sia migliore rispetto alle soluzioni
ottenute tramite il modello iterativo. Nei due casi per definire le P (a) si e
fatto riferimento all’intervallo a ∈ (0, 0.5). La prima distribuzione e definita
da
P (a) ≈ a
(0.5− a)α(3.19)
con α = 0.2, la distribuzione mostra chiaramente una singolarita in a = 0.5.
Nel secondo caso la distribuzione risulta avere una forma approssimativa-
mente triangolare P (a) ≈ aα con α = 0.92. In entrambi i casi le due di-
stribuzioni vengono estese all’intervallo a ∈ (0, 1) sfruttando la simmetria
P (a) = P (1− a).
3.2 Car parking 51
Figura 3.12: Confronto analogo al grafico precedente (cf. Fig. 3.11), per i dati
relativi al parcheggio posto sul lato sinistro della strada, con le previsioni del GOE.
3.2.3 Riepilogo
E stato mostrato che il fenomeno del car parking puo essere descritto in
modo esaustivo dal modello basato sulla soluzione delle fixed point equations
mediante il quale si ottiene una certa distribuzione ρ(D). I risultati sono stati
confrontati [20] con i dati raccolti nel centro di Hradec Kralove, confronto dal
quale e emersa soltanto una lieve discrepanza tra dati e la teoria delle matrici
random, demandabile alla diversa propensione dei conducenti a parcheggiare
all’interno degli slots disponibili. Inoltre, e stato dimostrato come il modello
conduca a soluzioni strettamente compatibili con l’andamento della distri-
buzione delle spaziature tra autovalori reali di insiemi gaussiani di matrici
ortogonali GOE e unitarie GUE.
Conclusioni e prospettive
La teoria delle matrici random, introdotta inizialmente da Wigner per
descrivere i livelli energetici dei nuclei atomici, si e rivelata essere un potente
strumento per interpretare statisticamente alcune proprieta relative a classi
di fenomeni, quali ad esempio la distribuzione degli autovalori. Nella prima
parte dell’elaborato, dopo aver definito formalmente gli insiemi gaussiani di
matrici e stata ricavata la densita di probabilita per le matrici costituenti gli
insiemi, esplicitandone la forma funzionale. Successivamente si e caratteriz-
zata la funzione densita di probabilita congiunta per gli autovalori reali ed e
stata illustrata l’analogia con il gas di Coulomb. Confrontando i risultati pre-
visti dalla RMT con la congettura di Wigner si e osservata la compatibilita
tra le due espressioni. E stata definita, inoltre, la densita media di autova-
lori, ricavando la legge del semicerchio. Successivamente sono stati elencati
alcuni esempi di fenomeni in cui la RMT e stata applicata con risultati no-
tevoli. In particolare e stato analizzato il problema del car parking dal quale
e emersa una correlazione tra i modelli iterativi, applicati per modellizzare
il fenomeno, e le previsioni della teoria delle matrici random. Si e osservato
come l’insieme gaussiano di riferimento possa dipendere da fattori quali la
locazione della strada nella citta e la posizione del parcheggio sulla strada.
Relativamente al problema del car parking, per approfondirlo ulteriormente,
si potrebbero raccogliere altri dati nel centro della citta di Torino attraverso
il confronto dei quali eventualmente emergerebbe una specifica simmetria del
sistema. Per quanto riguarda l’applicazione della teoria delle matrici random
53
54 CONCLUSIONI E PROSPETTIVE
alla QCD, da un punto di vista fondamentale potrebbe risultare interessante
analizzare le implicazioni ottenibili generalizzando la teoria ad altri gruppi di
gauge non abeliani. Queste generalizzazioni potrebbero comportare diverse
proprieta fisiche: ad esempio, se il gruppo di gauge di colore fosse SU(2)
anziche SU(3), i nucleoni sarebbero formati da due (anziche tre) quark di
valenza, e dunque sarebbero bosoni invece che fermioni. Anche le simmetrie
globali dell’operatore di Dirac dipendono dal gruppo di gauge, e lo spettro
dei suoi autovalori puo seguire distribuzioni corrispondenti a diversi ensem-
bles di matrici random. In letteratura si e gia verificato che le previsioni
della teoria delle matrici random sono osservate negli spettri degli operatori
di Dirac ottenuti numericamente con calcoli su reticolo [32, 33] per teorie
con gruppi di gauge SU(2) e SO(3) (oltre che per SU(3)). Un ulteriore caso
che sarebbe utile studiare e quello relativo al gruppo di gauge G2: questo e
il piu piccolo gruppo eccezionale, e presenta alcune analogie ed interessanti
differenze rispetto ai gruppi SU(n) ed SO(n) [34-42].
Appendice A
Quaternioni e trasformazioni
simplettiche
Sia K un operatore unitario antisimmetrico. Esso puo essere ridotto,
tramite una trasformazione del tipo
K → UKU † (A.1)
con U matrice unitaria, alla forma canonica
Z =
0 1 0 0 · · ·−1 0 0 0 · · ·0 0 0 1 · · ·0 0 −1 0 · · ·· · · · · · · · · · · · · · ·
≡
(0 1
−1 0
)⊕
(0 1
−1 0
)⊕ · · · ⊕
(0 1
−1 0
)
(A.2)
cioe come somma di blocchi 2×2 lungo la diagonale principale; tutti gli altri
elementi di Z sono nulli. Sia la dimensione di Z 2N × 2N . Scelta una base
opportuna in cui K si riduce a Z, si considerino le matrici unitarie B tali che
55
56 CONCLUSIONI E PROSPETTIVE
Z = BZBT (A.3)
L’insieme di tali matrici B forma un gruppo noto come gruppo simplettico N -
dimensionale Sp(N). L’algebra delle matrici simplettiche puo essere espressa
in modo conveniente in termini di quaternioni. Si introduce la base standard
di quaternioni per matrici 2× 2
e1 =
(i 0
0 −i
), e2 =
(0 1
−1 0
), e3 =
(0 i
i 0
), 1 =
(1 0
0 1
)(A.4)
con l’usuale moltiplicazione
e1e2 = −e2e1 = e3, e2e3 = −e3e2 = e1, e3e1 = −e1e3 = e2 (A.5)
Ogni matrice 2N×2N si puo costruire con N2 blocchi di matrici 2×2 ognuno
dei quali e espresso in termini di quaternioni. In particolare Z = 1Ne2. Si
definisce reale un quaternione del tipo q = q(0) + q · e, i cui coefficienti q(0),
q(1), q(2) e q(3) sono reali. Dato un quaternione, si definisce il suo coniugato
q = q(0) − q · e (A.6)
da distinguere rispetto al complesso e coniugato suo coniugato
q∗ = q(0)∗ + q∗ · e (A.7)
Si esplicita la forma dell’hermitiano coniugato
q† = q∗ = q(0)∗ − q∗ · e (A.8)
da cui si ricavano le definizione di quaternione hermitiano nel caso in cui
A Quaternioni e trasformazioni simplettiche 57
q† = q e di quaternione antihermitiano se q† = −q. Considerando una
generica matrice A di dimensioni 2N × 2N , questa puo essere scritta come
una matrice Q di dimensioni N ×N i cui elementi siano quaternioni qjk, con
k, j = 1, ..., N . Le operazioni matriciali su A vengono garantite anche per Q.
Per la trasposta di Q vale
(QT )kj = −e2qjke2, (A.9)
per la coniugazione hermitiana
(Q†)kj = q†jk, (A.10)
mentre, nel contesto fisico dei sistemi la cui hamiltoniana risulta invariante
rispetto a inversioni temporali
(QR)kj = e2(QT )kje
−12 = qjk (A.11)
dove QR e detta matrice duale di Q; A e autoduale se QR = Q, cioe se per
qjk =
(ajk bjk
cjk djk
)(A.12)
si ha
ajk = djk, bjk = −bjk, cjk = −cjk (A.13)
La condizione QR = Q† e necessaria e sufficiente perche gli elementi di Q
siano quaternioni reali. Una matrice unitaria B che soddisfa la condizione
(A.1) e automaticamente un quaternione dato che soddisfa
BR = B† = B−1 (A.14)
58 A Quaternioni e trasformazioni simplettiche
la quale definisce il gruppo simplettico. La matrice H che rappresenta l’o-
peratore energia per un sistema fisico e hermitiana H† = H e autoduale
HR = H, per cui
q†jk = qjk = qjk (A.15)
dove q(0)jk e una matrice reale e simmetrica mentre q(1)jk , q
(2)jk e q
(3)jk sono reali
antisimmetriche.
Appendice B
Determinante di Vandermonde
In algebra lineare con matrice di Vandermonde si indica una matrice le cui
righe (oppure le cui colonne) hanno elementi, a partire da 1, in progressione
geometrica aij = aj−1i .
V =
1 α1 α21 · · · αn−11
1 α2 α22 · · · αn−12
1 α3 α23 · · · αn−13
......
.... . .
...
1 αm α2m · · · αn−1m
(B.1)
Una matrice quadrata di Vandermonde di ordine n ha determinante
det(V ) =∏
1≤i<j≤n
(αj − αi) (B.2)
cioe, il prodotto di tutte le possibili differenze (contate una volta sola, con
segno opportuno) tra i coefficienti. Da quest’espressione per il determinante
segue che le matrici quadrate di Vandermonde hanno determinante nullo solo
se hanno due coefficienti αi uguali, ovvero due righe uguali. In particolare,
il rango di una generica matrice di Vandermonde e il minimo tra il numero
di colonne e il numero di distinti coefficienti αi (ovvero di righe distinte).
59
60 B Determinante di Vandermonde
Questa formula si dimostra per induzione sull’ordine n. L’espressione e veri-
ficata per n = 1 (prodotto vuoto). Per il passo induttivo, supponendo vera
la formula per l’ordine n− 1, il determinante di una matrice di Vandermon-
de di ordine n puo essere calcolato sottraendo ad ogni colonna la colonna
precedente moltiplicata per α1
det (V ) = det
1 0 0 · · · 0
1 α2 − α1 α2(α2 − α1) · · · αn−22 (α2 − α1)
1 α3 − α1 α3(α3 − α1) · · · αn−23 (α3 − α1)...
......
. . ....
1 αn − α1 αn(αn − α1) · · · αn−2n (αn − α1)
(B.3)
e dividendo ogni riga j-esima (tranne la prima) per il termine αj − α1,
portandolo fuori dalla matrice
det (V ) = det
1 0 0 · · · 0
(α2 − α1)−1 1 α2 · · · αn−22
(α3 − α1)−1 1 α3 · · · αn−23
......
.... . .
...
(αn − α1)−1 1 αn · · · αn−2n
n∏j=2
(αj − α1) (B.4)
= det
1 α2 · · · αn−22
1 α3 · · · αn−23...
.... . .
...
1 αn · · · αn−2n
n∏j=2
(αj − α1) (B.5)
Infine, applicando la formula del determinante per una matrice di Vander-
monde di ordine n− 1
det (V ) =
[ ∏2≤i<j≤n
(αj − αi)
][ ∏1=i<j≤n
(αj − αi)
]=
∏1≤i<j≤n
(αj − αi).
(B.6)
Appendice C
Equazioni di Dickman
Nella descrizione iterativa relativa alla distribuzione delle spaziature si e
ricavata l’equazione
D , a(D + 1) (C.1)
la cui soluzione e nota in teoria analitica dei numeri. Si voglia ricavare
l’equazione differenziale per la ρ(D). Sia R(t) la funzione di distribuzione
cumulativa di D
R(t) := prob[D ≤ t] =
∫ t
0
ρ(s)ds. (C.2)
Considerando l’equazione (C.1) si ricava
R(t) =
∫ 1
0
prob[a(D + 1) ≤ t]P (a)da =
∫ 1
0
R
(t
a− 1
)P (a)da; (C.3)
cambiando variabile s = t/a− 1 si ottiene un’equazione integrale per R(t)
R(t) = t
∫ ∞t−1
R(s)P
(t
s+ 1
)ds
(s+ 1)2. (C.4)
61
62 C Equazioni di Dickman
Se a e identicamente e indipendentemente distribuita allora P (a) = 1 e
l’equazione (C.3) si puo semplificare ottenendo
R(t) = t
∫ ∞t−1
R(s)ds
(s+ 1)2; (C.5)
derivando ambo i membri per t e integrando per parti si ricava l’equazione
di Dickman relativa all’evoluzione della densita di probabilita ρ(t):
tρ′(t) + ρ(t− 1) = 0. (C.6)
Supponendo, invece, che per la distribuzione P (a) valga P (0) = P (1) = 0,
si puo scegliere la distribuzione β(2, 2) tale che P (a) = 6a(1− a). Inserendo
l’espressione in (C.4), la densita di probabilita relativa alle spaziature risulta
essere soluzione della seguente equazione differenziale
t3d2
dt2
(ρ(t)
t
)= 6ρ(t− 1) (C.7)
In generale per una generica espressione funzionale di P (a), sfruttando l’e-
quazione (C.4), si puo ottenere un’equazione differenziale per l’evoluzione
della ρ.
Bibliografia
[1] Wishart J., Biometrika 20 (1928) 32.
[2] Wigner E.P., Proc. Cambridge Philos. Soc. 47 (1951) 790.
[3] Dyson J.J., Math. Phys. 3 (1962) 140.
[4] Mehta M.L., Random matrices and the statistical theory of energy levels.
Academic Press, (1967).
[5] Weyl H. Classical Groups, Princeton Univ. Press, Princeton, NJ, (1946).
[6] Macdonald LG., Some conjectures for root systems, SI AM J. Math.
Anal. 13 (1982) 988-1004.
[7] Mehta M.L., Matrix Theory, Les Editions de Physique, 91944 Les Ulis
Cedex, France, (1989MT).
[8] Porter C.E., Rosenzweig N., Statistical properties of atomic and nuclear
spectra, Ann. Acad. Sci. Fennicae, Sen A, VI Physica 44 (1960a) 1-66.
[9] Bohigas O., Haq R.U., Pandey A., Fluctuation poperties of nuclear ener-
gy levels and widths, comparison of theory with experiment Nuclear data
for science and technology., Bokhoff K.H. (Ed.): (1983) 809-814.
[10] Gaudin. M., Sur la loi limite de l’espacement des valeurs propres d’une
matrice aleatoire, Nucl. Phys. 25 (1961) 447.
[11] Guhr et al., Phys. Rep. 299 (1998) 189.
63
64 BIBLIOGRAFIA
[12] Shuryak E.V., Verbaaschot J.J.M., Random matrix theory and spectral
sum rules for the Dirac operator in QCD, hep-th/9212088v1.
[13] Verbaaschot J.J.M., Wettig T., Random Matrix Theory and Chiral
Symmetry in QCD, hep-ph/0003017v2.
[14] Berbenni-Bitsch M.E., Meyer S., Schafer A., Verbaaschot J.J.M., Wettig
T., hep-lat/9704018.
[15] Bohigas O., Giannoni M.J., Schmit C., Characterization of chaotic quan-
tum spectra and level fluctuation laws, Physical Review Letters 52
(1984) 1.
[16] Berry M.V., Tabor M., Proc. R. Soc. London Ser A 356 (1977) 375.
[17] Backer A., Ph.D. thesis, Universitat Ulm (1998).
[18] Abdalla E., Abdalla M.C.B., Dalmazi D., Zadra A., 2D-Gravity in Non-
Critical Strings, Lecture Notes in Physics, Springer, Berlin (1994).
[19] Renyi A., Publ. Math. Inst. Hung. Acad. Sci. 3 (1958) 109.
[20] P. Seba, Parking in the City, Acta Physica Polonica A, Vol.112, No.4
(2007).
[21] S. Rawal, G.J. Rodgers, Physica A 246 (2005) 621.
[22] Abul-Magd A.Y., Modelling gap-size distribution of parked cars using
random-matrix theory, Physica A 368 (2006) 536.
[23] Fader A., The gap size distribution of parked cars and the
Coulomb gas model, Mathematics REV Paper, available at
http://www.umich.edu/afader, (2006).
[24] Devroye L., Neininger R., Adv. Appl. Prob. 34 (2002) 441.
[25] Aldous D.J., Bandyopadhyay A., Ann. Appl. Prob. 15 (2005) 1047.
BIBLIOGRAFIA 65
[26] Penrose M.D., Wade A.R., Adv. Appl. Prob. 36 (2004) 691.
[27] Gnedin A., Kerov S., Combinat. Prob. Comput. 10 (2001) 213.
[28] Arratia R., Barbour A.D., Tavare S., Combinat. Prob. Comput. 8 (1999)
407.
[29] Hwang H.K., Tsai T.H., Combinat. Prob. Comput. 11 (2002) 353.
[30] Huillet T., arXiv:cond-mat/0412166.
[31] Aguech R., Lasmar N., Mahmoud H.J., Appl. Prob. 43 (2006) 1.
[32] Edwards R.G., Heller. M., Small eigenvalues of the staggered Dirac
operator in the adjoint representation and Random Matrix Theory,
hep-lat/9902021.
[33] Bruckmann F., Keppeler S., Panero M., Wettig T., Polyakov
loops and spectral properties of the staggered Dirac operator,
arXiv:0804.3929[hep-lat].
[34] Holland K., Minkowski P., Pepe M., Wiese U.J., Exceptional
confinement in G(2) gauge theory, hep-lat/0302023.
[35] Liptak L., Olejnık S., Casimir scaling in G2 lattice gauge theory,
arXiv:0807.1390[hep-lat].
[36] Danzer. J., Gattringer C., Maas A., Chiral symmetry and spec-
tral properties of the Dirac operator in G2 Yang-Mills Theory,
arXiv:0810.3973[hep-lat].
[37] Wellegehausen B., Wipf A., Wozar C., Casimir Scaling and String
Breaking in G2 Gluodynamics, arXiv:1006.2305[hep-lat].
[38] Pepe M., Wiese U.J., Exceptional Deconfinement in G2 Gauge Theory,
arXiv:hep-lat/0610076.
66 BIBLIOGRAFIA
[39] Cossu G., D’Elia M., Di Giacomo A., Lucini B., Pica C., G2 gauge
theory at finite temperature, arXiv:0709.0669[hep-lat].
[40] Bruno M., Caselle M., Panero M., Pellegrini R., Exceptional
thermodynamics: The equation of state of G2 gauge theory,
arXiv:1409.8305[hep-lat].
[41] Bonati C., Topology and θ dependence in finite temperature G2 lattice
gauge theory, arXiv:1501.01172[hep-lat].
[42] Maas A., von Smekal L., Wellegehausen B., Wipf A., The phase diagram
of a gauge theory with fermionic baryons, arXiv:1203.5653[hep-lat].