Aspetti di Algebra Lineare - matapp.unimib.itfalqui/Co-Ma/algebra.pdf · Aspetti di Algebra Lineare...

45
Aspetti di Algebra Lineare Appunti per il corso di Complementi di Matematica del Secondo anno del Corso di Laurea Triennale in Scienza dei Materiali, Universit`a di Milano–Bicocca, anni accademici 2006/2007 e 2007/2008. Gregorio Falqui Dipartimento di Matematica e Applicazioni Universit` a di Milano – Bicocca Nota Introduttiva. Il materiale contenuto in questi appunti si basa sulle lezioni tenute negli anni accademici dal 2006 in avanti per gli studenti del sec- ondo anno di Scienza dei materiali. Per prepararle, mi sono basato sui seguenti libri: T. Apostol, Calcolo Vol II (Boringhieri, Torino) S. Abeasis, Algebra lineare e geometria, (Zanichelli, Bologna). Queste note non vogliono sostituire un libro di testo, ma piuttosto costituire un resum´ e degli argomenti trattati nel corso. Conformemente allo spirito e alla pratica (e, segnatamente, al limitato tempo a disposizione per l’esposizione) delle lezioni, molto spesso le dimostrazioni – specie quelle pi´ u lunghe – sono omesse. Per queste, per ulteriori esempi, nonch´ e per una formulazione pi` u completa dei problemi e del quadro teorico, si rimanda ai due libri menzionati. Si assume (come da pratica del corso) che gli studenti siano gi`a stati esposti (nei corsi del primo anno) alle nozioni basilari della geometria euclidea del piano R 2 e nello spazio R 3 . AVVISO IMPORTANTE: Versione numero 0, December5, 2007, Soggetta a cambiamenti Commenti e correzioni sono benvenuti. 1

Transcript of Aspetti di Algebra Lineare - matapp.unimib.itfalqui/Co-Ma/algebra.pdf · Aspetti di Algebra Lineare...

Aspetti di Algebra Lineare

Appunti per il corso di Complementi di Matematica del Secondo anno del Corsodi Laurea Triennale in Scienza dei Materiali, Universita di Milano–Bicocca, anniaccademici 2006/2007 e 2007/2008.

Gregorio FalquiDipartimento di Matematica e Applicazioni

Universita di Milano – Bicocca

Nota Introduttiva. Il materiale contenuto in questi appunti si basa sullelezioni tenute negli anni accademici dal 2006 in avanti per gli studenti del sec-ondo anno di Scienza dei materiali. Per prepararle, mi sono basato sui seguentilibri:T. Apostol, Calcolo Vol II (Boringhieri, Torino)S. Abeasis, Algebra lineare e geometria, (Zanichelli, Bologna).

Queste note non vogliono sostituire un libro di testo, ma piuttosto costituireun resume degli argomenti trattati nel corso. Conformemente allo spirito e allapratica (e, segnatamente, al limitato tempo a disposizione per l’esposizione)delle lezioni, molto spesso le dimostrazioni – specie quelle piu lunghe – sonoomesse. Per queste, per ulteriori esempi, nonche per una formulazione piucompleta dei problemi e del quadro teorico, si rimanda ai due libri menzionati.Si assume (come da pratica del corso) che gli studenti siano gia stati esposti (neicorsi del primo anno) alle nozioni basilari della geometria euclidea del piano R2

e nello spazio R3.

AVVISO IMPORTANTE:

V ersione numero 0, December5, 2007, Soggetta a cambiamentiCommenti e correzioni sono benvenuti.

1

Contents

1 Spazi vettoriali 31.1 Generatori, basi (in)dipendenza lineare . . . . . . . . . . . . . . 4

2 Applicazioni lineari e matrici 5

3 Determinanti e matrici inverse 14

4 Autovalori ed Autovettori 23

5 Prodotti scalari e hermitiani. 29

6 Spazi euclidei e normati 316.1 Ortogonalita e sue prime applicazioni . . . . . . . . . . . . . . . 32

7 Operatori Hermitiani (simmetrici) 367.1 Uno spazio euclideo notevole . . . . . . . . . . . . . . . . . . . . 41

2

1 Spazi vettoriali

La nozione di spazio vettoriale formalizza le proprieta algebriche fondamentalidei vettori (applicati nello stesso ”punto”, cioe con l’origine coincidente) nellospazio ”fisico” E3. Come si vedra, tali proprieta sono proprie di elementi di altrispazi (e.g., spazi di funzioni).

Definizione 1.1 Sia F il campo dei numeri reali R o quello dei complessi C(spesso, se non si deve distinguere, ci si riferisce agli elementi di F come agliscalari). Uno spazio vettoriale V su F e un insieme dotato di due ”operazioni”:

1. Somma , + : V × V → V,

2. Moltiplicazione per uno scalare ·F× V → V,

che soddisfano le proprieta elementari della somma e moltiplicazione per unoscalare dei vettori dello spazio E3, ovvero (nella lista qui sotto, lettere a, b, . . .rappresentamo scalari, mentre lettere u, v, x, y . . . indicano vettori):

• Commutativita x + y = y + x a · x = x · a, ∀a, x, y.

• Associativita (x + y) + z = x+ (y + z), ∀x, y, z.

• Esistenza dello zero e dell’opposto Esiste un (unico) vettore 0 ∈ Vt.c.v+0 = v, ∀ v; Per ogni v ∈ V esiste (unico) un elemento (−v)t.c.v+(−v) = 0

• Proprieta che connettono + e · Le operazioni in V sono ”compatibili” conquelle note in F; per esempio,

(a+ b) · v = a · v + b · v.

Si noti che in questa ultima equazione, il simbolo + nella parte sinistraindica la somma di numeri, mentre il simbolo + a destra e la somma dielementi di V.

Esempio 1. Lo spazio delle n-uple (ordinate) di elementi di F e uno spaziovettoriale, quando si definiscano la somma e la moltiplicazione per uno scalarenel seguente modo:

(x1, x2, · · · , xn) + (y1, y2, · · · , yn) := (x1 + y1, x2 + y2, · · · , xn + yn)

a · (x1, x2, · · · , xn) := (ax1, ax2, · · · , axn),

ovvero, come si dice abitualmente, componente per componente.Esempio 2. Sia I un intervallo di R, e sia CI lo spazio delle funzioni (possibil-mente continue) definite su I a valori reali (o complessi), ovvero:

CI := {f : I → F}

3

Questo spazio e vettoriale, definendo la somma di due funzioni e la moltipli-cazione di una funzione per uno scalare nel modo solito, ovvero:

(f1 + f2)(x) := f1(x) + f2(x); (af)(x) := a f(x).

Esempio 3. Fissiamo un numero naturale N , e consideriamo l’insieme Pndei polinomi di grado N . Allora la nozione usuale di somma di polinomi e dimoltiplicazione di un polinomio per un numero forniscono a Pn la struttura dispazio vettoriale.

Esempio 4 Sia a(t) x′′ + b(t)x′ + c(t)x = 0 un’equazione differenziale lin-eare omogenea del secondo ordine. Lo spazio delle sue soluzioni e uno spaziovettoriale. 1 Questo e un modo compatto di dire che la somma di due soluzionidell’equanzione in questione e ancora una soluzione, e che se moltiplichiamouna soluzione per uno scalare (cioe un numero, identificabile con una funzionecostante), otteniamo ancora una soluzione dell’equazione. La affermazione chel’integrale generale della equazione a(t) x′′ +b(t)x′+c(t)x = 0 e la somma di duesoluzioni indipendenti e un altro modo di dire che lo spazio della soluzioni hadimensione 2. In generale, se l’equazione diferenziale ha ordine n, la dimensionedello spazio delle sue soluzioni ha dimensione n.

1.1 Generatori, basi (in)dipendenza lineare

Sia V uno spazio vettoriale. Si dice che un insieme di elementi {v1, v2, · · · , vn}e un insieme (finito) di generatori per V , o anche che {v1, v2, · · · , vn} generanoV se ogni elemento x ∈ V puo essere scritto come combinazione lineare deglielementi {v1, v2, · · · , vn}; in una formule, se

∀w ∈ V esistono n scalari

a1, a2, · · · , antali che w = a1v1 + a2v2 + · · ·anvn.(1.1)

Si dice che un insieme di elementi di V e linearmente dipendente se esiste unaloro combinazione lineare che dia come risultato il vettore 0, con coefficienti nontutti nulli, ovvero, in formule

0 =

n∑

k=1

anvn = 0, con almeno uno degli ak 6= 0.

Nel caso contrario, (cioe, se l’unica combinazione lineare dei vi che dia il vet-tore 0 e quella con tutti i coefficienti ak = 0), l’insieme {v1, v2, · · · , vn} si dicelinearmente indipendente.

Se uno spazio vettoriale V ammette un insieme finito di generatori, esso sidice finito dimensionale. Dato un sistema di generatori V = {v1, v2, · · · , vn} diuno spazio vettoriale, possono accadere due situazioni:

1Questa proprieta e vera per equazioni differenziali lineari omogenee di qualsiasi ordine.

4

1. V e linearmente indipendente;

2. V e linearmente dipendente.

Nel caso 2) e facile rendersi conto che e possibile (iterativamente) arrivare aselezionare un sottoinsieme stretto V ′ V che e ancora un insieme di genera-tori di V , e soddisfa la proprieta 1), ovvero e possibile selezionare un numero”minimale” di elementi di V che generino ancora V .

Definizione 1.2 Sia V finito-dimensionale. Un insieme lineramente indipen-dente di generatori di V e detto base di V . Si dimostra che il numero di elementiin due basi distinte di V e lo stesso. Questo numero e detto dimensione di V .Uno spazio vettoriale che non ammette alcun sistema fnito di generatori si diceinfinito-dimensionale.

Esempio 1, cos(2x), sin2(x) non sono indipendenti nello spazio delle funzioniperiodiche. Infatti, una delle possibili forme della regola di duplicazione degliarchi e

cos(2x) = cos2(x) − sin2(x) = 1 − 2 sin2(x),

ovverocos(2x) − 1 + 2 sin2(x) = 0

2 Applicazioni lineari e matrici

In questa sezione, salvo dove espressamente indicato, gli spazi vettoriali (o,altrimenti detto, lineari) considerati saranno di dimensione finita.

Siano V e W due spazi lineari di dimensione rispettivamente M ed N , e sia

L : V →W

una applicazione lineare. Fissiamo due basi {v1, v2, . . . , vM} e {w1, w2, . . . , wN}rispettivamente in V e W . Lo scopo e trovare una rappresentazione opportunadi L.

La prima osservazione e la seguente: per conoscere il valore che la appli-cazione lineare (che e una “funzione”) L assume su un qualsiasi x ∈ V , esufficiente conoscere i valori L(vi), i = 1, . . . ,M che L assume sugli elementidella base considerata.

Infatti, dato che {vi}i=1,M e una base di V , ogni vettore x ∈ V si rappresentain uno ed un solo modo come combinazione lineare di elementi della base, ovvero

x =

M∑

i=1

xivi;

5

Dato che L e lineare si ha:

L(x) = L(M∑

i=1

xivi) =M∑

i=1

xiL(vi)

il che “dimostra” l’affermazione.Ora, per ogni i fissato, consideriamo il vettore L(vi) ∈ W ; dato che la

famiglia {w1, . . . , wN} e una base in W , potremo sviluppare questo vettore lungotale base; in altre parole, sono univocamente determinati, (per ogni valore dii = 1, . . . ,M), gli N scalari lji tali che valga:

Per i fissato, i = 1, . . . ,M, L(vi) =

N∑

j=1

ljiwj. (2.1)

Quindi, date le due basi {vi} e {wj} in V e W , per le proprieta note delle basi inuno spazio lineare, risultano definiti univocamente gli N ·M scalari lji definitoda (2.1).

Notando che tali scalari hanno, in modo naturale, un doppio indice (osservi-amo che, in generale, N 6= M), e naturale arrangiarli in una tabella, che per con-venzione – e comodita, come si vedra dopo – avraN(= dimensione del codominio)righe ed M = dimensione del dominio colonne, come qui sotto:

Nrighe

Mcolonne︷ ︸︸ ︷

l11 l12 · · · l1Ml21 l22 · · · l2M

......

......

lN1 lN2 · · · lNM

Tale tabella si chiama Matrice rappresentativa di L nelle basi {vi} e {wj}; inumeri lij vengono anche detti elementi di matrice di L relativi alle basi con-siderate.

Dunque, dati due spazi V e W , (rispettivamente di dimensione M ed N),muniti di base (risp.{v1, v2, . . . , vM} e {w1, w2, . . . , wN}) , ad un operatore lin-eare possiamo associare una matrice ad N righe ed M colonne (detta matriceN ×N). E vero anche il viceversa, ovvero che a due spazi muniti di base comesopra ed ad una matrice ad N righe ed M colonne L = {lij} possiamo associareunivocamente un operatore lineare.

Basta procedere a ritroso: Consideriamo, per i = 1, . . . ,M i vettori yi in Wdefiniti da

yi =

M∑

j=1

ljiwj

6

e diciamo che tali vettori yi sono i valori che l’opratore (da costruire) L assumesui vettori di base, ovvero, definiamo L(vi) := yi. Per quanto detto all’iniziodella sezione, questo basta per definire L, come operatore lineare, su un qualsiasivettore x ∈ V ; infatti, ponimao per definizione,

se x =M∑

i=1

xivi, allora L(x) :=M∑

i=1

xiyi ≡M∑

i=1

xiL(vi). (2.2)

E immediato verificare che la formula qui sopra definisce (per costruzione!) unaapplicazione lineare. Questo procedimento si chiama “estensione per linearita”di una funzione definita sugli elementi di una base.

Osservazione 1. Un modo esplicito per costruire la matrice rappresen-tativa L di un operatore L : V → W rispetto alle basi {v1, v2, . . . , vM} e{w1, w2, . . . , wN} di V e W e il seguente: Si considera il primo vettore della basev1, si calcola L(v1) e lo si sviluppa lungo la base dei wj come L(v1) =

∑N

j=1 lj1wj;questo da luogo ad una N -upla di scalari {l11, l21, . . . , lN1}; Tale N -upla (ordi-nata) forma la prima colonna della matrice L; considerando il secondo vettorev2, si calcola L(v2) e si ottiene un’altra N -upla di scalari, {l12, l22, . . . , lN2}, cheva a formare la seconda colonna di L; e cosı via, fino all’ultimo elemento dellabase di V , vM . Esempio. La matrice rappresentativa dell’applicazione lineare0, che associa ad igni vettore di V il vettore 0 ∈W , e la matrice in cui tutti glielementi sono nulli.Sia W = V ; la matrice che rappresenta l’applicazione lineare identita (Id(x) =x, ∀x ∈ V ) e la matrice il cui elemento 1ij e 1 se i = j, e 0 altrimenti, ovvero,in simboli 1ij = δij, dove δij e il simbolo di Kronecker. Graficamente, 1 e unamatrice quadrata (il numero di righe e uguale a quello delle colonne) con 1 sulladiagoinale principale (quella che va da alto-sx a basso-dx) e 0 in tutti gli altri“posti”.

Esempio(Meno banale). Sia V lo spazio dei polinomi in una indeterminata tdi grado d ≤ 2, e W lo spazio dei polinomi (sempre in T ) di grado non superiorea 3. Consideriamo in V la base {v1 = 1, v2 = t− 1, v3 = t2 − 2t}, e in W la basestandard, {w1 = 1, w2 = t, w3 = t2, w4 = t3}; consideriamo l’operatore

L : V → W

p(t) 7→ ddtp(t) + (2 + t)p(t) +

∫ t0p(s)ds,

ed esemplifichiamo le costruzioni fatte in questo caso.Per prima cosa, notiamo che L e ben definito; infatti, l’integrale di un poli-

nomio di ordine p e un integrale di ordine al piu p+1, e quindi L manda elementidi V in elementi di W . La linearita di L e evidente. Verifichiamo prima chela famiglia {v1, v2, v3} sia una base di V ; la dimensione di V e 3, quindi bastaverificare l’indipendenza lineare dei vi. Supponiamo che

∑3i=1 civi = 0 (ovvero

consideriamo una combinazione lineare dei polinomi vi che dia il polinomio nullo.Si avra: 0 = c1(1) + c2(t− 1) + c3(t2 − t) = 0. raccogliendo le potenze di t si ha

0 = (c1 − c2) + (c2 − c3)t + c3t2( come polinomio),

7

ovvero, per il principio di identita dei polinomi, {c3 = 0, (c2−c3) = 0, (c1−c2) =0}. Ma la soluzione di queste equazioni e c1 = c2 = c3 = 0, e dunque i vi sonoindipendenti.

Dato che (tn)′ = ntn−1, e∫ t0snds =

1

n+ 1tn+1, si ha:

L(v1) =d

dt(1) + (2 + t) 1 +

∫ t

0

ds = 0 + (2 + t) + t = 2 + 2t

2w1 + 2w2 + 0w3 + 0w4 (a);

L(v2) =d

dt(t− 1) + (2 + t)(t− 1) +

∫ t

0

(s− 1)ds = 1 + (t2 + t− 2) +1

2t2 − t = −1 +

3

2t2 =

= −1w1 + 0w2 +3

2w3 + 0w4 (b);

L(v3) =d

dt(t2 − t) + (2 + t)(t2 − t) +

∫ t

0

(s2 − s)ds = 2t− 1 + (t3 + t2 − 2t) + (1

3t3 − 1

2t2) =

=4

3t3 +

1

2t2 − 1 = −1w1 + 0w2 +

1

2w3 +

4

3w4 (c).

(2.3)

Le colonne della matrice (4 × 3) L che vogliamo costruire si leggono ordinata-mente da (a), (b), (c) di questa equazione. Ovvero:

L =

2 −1 −1

2 0 0

03

2

1

2

0 04

3

Se avessimo voluto calcolare la matrice che rappresenta L, rispetto alle basistandard sia di V che di W , avremmo dovuto calcolare:

L(v′1) = L(v1) = 2 + 2t

L(v′2 =d

dt(t) + (2 + t)(t) +

∫ t

0

s ds = 1 + 2t+3

2t2

L(v′3) =d

dt(t2) + (2 + t)(t2) +

∫ t

0

s2 ds = 2t+ 2t2 +4

3t3

8

e, dunque, la matrice che rappresenta L nelle basi standard e

L′ =

2 1 0

2 2 2

03

22

0 04

3

Nota. Da questo esempio, si evince la necessita di specificare le basi nellacostruzione della matrice rappresentativa di un operatore. Infatti, nel nostrocaso si ha che lo stesso operatore e rappresentato su basi diverse da diversematrici. Questo punto verra ulteriormente esaminato piu oltre.

Osserviamo che la formula (2.2) fornisce un modo algoritmico e rapido percalcolare il valore L(x) – o meglio, lo sviluppo di L(x) nella base dei wk, unavolta noti lo sviloppu di x ∈ V sulla base dei vi, e la matrice L rappresentativadi L nelle basi considerate.

Infatti, lo sviluppo di x sui vi sara della forma x =∑

i vi; allora,

L(x) = L(

M∑

i=1

xivi) =

M∑

i=1

xi∑

j

L(vi)) =

M∑

i=1

N∑

j+1

(ljiwj);

Scambiando l’ordine della somma nell’ultima espressione (cosa lecita) si ha

L(x) =∑

j

i

ljixi

︸ ︷︷ ︸=(L(x))j

wj

Ovvero, le componenti (L(x))j di L(x) lungo la base wj di W sono dati dalle

somme∑N

i=1 ljixi.

E comodo dare una visualizzazione grafica a questo procedimento. Consid-eriamo la matrice L, di elementi lji e ordiniamo in una colonna le componentixi di x lungo vi; giustapponendo questi due oggetti,

l11 l12 · · · l1Ml21 l22 · · · l2M

......

......

lN1 lN2 · · · lNM

x1

x2

...

xM

9

si vede che, e.g, la componente (L(x))1 e pari al “prodotto scalare” della primariga di L (che e’ identificabile con la M-upla [l11, l12, · · · l1M ]) per la M-upladata da [x1, x2, · · · , xM ]. Analogamente, la componente (L(x))2 sara data dalprodotto scalare della seconda riga di L con la M-upla delle xi etc. etc.

Osservazione. Se W e dotato di una struttura euclidea ( , )W , e la base wje una base ortonormale, il calcolo degli elementi della matrice L si puo effettuareattraverso il prodotto scalare; ovvero:

lji = (wj, L(ei))W .

Come e stato osservato piu sopra, lo spazio degli operatori lineari ha unastruttura di algebra. Ovvero, sono definite, per due operatori L1, L2 : V → W ,e per uno sclare α sono definite la somma (L1 +L2) : V →W e il prodotto perα, (α ·L) : V →W . Inoltre, se L : V → W e Λ : W → Y , e definito il prodotto(cioe, la composizione) dei due operatori,

T ≡ Λ ◦ L : V −→ Yx 7→ Λ(L(x))

(2.4)

Supponiamo, come prima che questi spazi siano dotati di basi, rispettivamente{vi}i=1,...,M , {wj}j=1,...,M , e {yk}k=1,...,P , dove M,N, P sono rispettivamente ledimensioni degli spazi V,W, e Y .

E naturale domandarsi come si traducano, a livello di metrici rappresen-tative, le operazioni di somma, prodotto per uno scalare e composizione per icorrispondenti operatori lineari.

Per le prime due operazioni, la risposta e immediata (e la verifica lasciata allettore).A) La somma di due operatori definiti da V a valori in W e rappresentata dallasomma elemento per elemento delle corrispondenti matrici. Ovvero, se L1 ha,rispetto alle basi considerate, elementi di matrice {l(1)ji } ed L2 ha elementi di

matrice {l(2)ji }, la somma S = (L1 + L2) avra elementi di matrice dati da

sij = l(1)ji + l

(2)ji

Esempio. Siano L1, L2 : R2 → R3 rappresentati da

L1 =

1 0−1 20 4

L2 =

0 24 −12 −5

;

allora la somma S = (L1 + L2) e rappresentata dalla matrice

S =

1 + 0 0 + 2−1 + 4 2 + (−1)0 + 2 4 + (−5)

=

1 23 12 −1

10

L’operazione di composizione di due matrici merita, invece, uno sguardopiu attento. Consideriamo la relazione (2.4). Chiamiamo L e Λ le matrici cherappresentano, rispettivamente, L : V → W e Λ : W → Y ; i loro elementisaranno [lj,i]

j=1,...,Ni=1,...,M e [λk,j]

k=1,...,Pj=1,...,N . Il nostro problema e esprimere gli elementi

della matrice T che rappresenta T : V → Y , T = Λ◦L in termini degli elementidi matrice lji, λkj; ovvero, considerato l’i-esimo elemento vi della base di V ,dobbiamo sviluppare T (vi) sulla base assegnata degli yk, ovvero scrivere

T (vi) =P∑

k=1

tkiyk. (2.5)

Ora,

T (vi) = Λ(L(vi)) = (Per la definizione dei lji) = Λ(

N∑

j=1

ljiwj) =

= (Per la linearita di Λ) =

N∑

j=1

ljiΛ(wj) = Per la definizione dei λjk =

=N∑

j=1

(lji( P∑

k=1

λkjyj))

=

(Scambiando l’ordine delle due somme finite e dei fattori numerici lji e λkj)

=P∑

k=1

(N∑

j=1

(λkjlji

)yk.

Confrontando quest’ultima espressione con la (2.5) otteniamo il risultato desider-ato:

tki =

N∑

j=1

(λkjlji. (2.6)

A parole: l’elemento di posto (k, i) della matrice T associata alla composizionedei due operatori Λ e L (in quest’ordine, ovvero T = Λ◦L si calcola nel seguentemodo, una volta note le matrici rappresentative di Λ e L:si considerano la k-esima riga di Λ e la i-esima colonna di L (entrambe sonoN -uple di scalari) e se ne fa il “prodotto scalare” (in Rn).Esempio. Sia M = 2, N = 3, P = 4. Allora Λ e L sono le matrici (risp. 4× 2 e3 × 2)

Λ =

λ11 λ12 λ13

λ21 λ22 λ23

λ31 λ32 λ33

λ41 λ42 λ43

L =

l11 l12l21 l22l31 l22

(2.7)

La matrice T manda uno spazio vettoriale di dimensione 2 in uno di dimensione4, quindi sara una matrice 4 × 2. L’elemento, e.g., di posto (3, 2) della matrice

11

T si ottiene facendo il prodotto scalare del “vettore a tre componenti”

[λ31, λ32, λ33]︸ ︷︷ ︸terza riga di Λ

con il “vettore a tre componenti”

l12l22l32

︸ ︷︷ ︸seconda colonna di L.

Si ottiene, esplicitamente,

T32 = λ31l12 + λ32l22 + λ33l32.

In termini algoritmici, per calcolare la matrice T basta giustapporre la matriciΛ e L come nella (2.7), e ripetere il procedimento esplicitato qui sopra facendovariare gli indici di riga di T (qui da 1 a 4) e di colonna di T (qui da 1 a 2).

Si dice che la matrice T e il prodotto righe per colonne delle matrici Λ e L,e si scrive T = Λ · L

Osservazione. Consideriamo il caso di matrici che rappresentano opera-tori con dominio e codominio coincidenti (ovvero di operatori L : V → V , perqualche spazio V di dimensione M , dotato di una base {vi}i=1,...,M); Chiami-amo questo spazio Mat(N). Le operazioni che abbiamo considerato (somma,prodotto per uno scalare, e prodotto righe per colonne, che viene chiamatoprodotto tout court) sono compatibili l’una con l’altra (per esempio, (L1 + L2) ·L3 = L1 · L3 + L2 · L3, e cosı via).

Rispetto al prodotto di scalari, ci sono pero due importanti differenze:

1. Per il prodotto di numeri reali (o complessi), la equazione a ·b = 0 implicache o a = 0 o b = 0 (eventualmente entrambi). Cio non e vero per ilprodotto di due matrici.

Consideriamo ad esempio le due matrici

M1 =

(0 10 0

), M2 =

(1 00 0

). (2.8)

Entrambe sono non nulle (la matrice nulla, introdotta piu sopra, e quellain cui tutti gli elementi sono nulli); peraltro,

M1 ·M2 =

(0 10 0

)·(

1 00 0

)=

(0 00 0

)= 0.

2. Per il prodotto tra scalari, vale la proprieta di commutativita, ovvero,

a · b = b · a, ∀ a, b.

Questo non e piu vero, in generale per il prodotto tra matrici (ovvero, per ilprodotto(=composizione) di due operatori lineari in uno spazio vettoriale).

12

Le due matrici definite in (2.8) forniscono un esempio di questo fenomeno.Infatti, abbiamo gia verificato che M1 ·M2 = 0. Viceversa,

M2 ·M1 =

(1 00 0

)·(

0 10 0

)=

(0 10 0

)6= 0.

E d’uso definire la differenza dei prodotti M1 ·M2 −M2 ·M1 commutatore tra(in quest’ordine) M1 ed M2, e denotarla come

M1 ·M2 −M2 ·M1 := [M1,M2]

Si osservi che[M1,M2] = −[M2,M1]

Osservazione. L’affermazione che due matrici non commutano in generalenon significa che, date due matrici M1 ed M2 non valga mai M1 ·M2 = M2 ·M1; per esempio, le matrici 0 e 1 commutano con qualsiasi altra matrice. Laaffermazione significa piuttosto che fissata una matrice M1, la condizione suun’altra matrice M2 di commutazione con M1 e, in generale, non banale.Esempio. Sia M una matrice 2 × 2 della forma

M =

(a 00 b

), a 6= b,

e sia L una matrice 2 × 2 generica,

L =

(L11 L12

L21 L22

).

Allora il commutatore [M,L] e dato da

[M,L] =

(a 00 b

)·(L11 L12

L21 L22

)−(L11 L12

L21 L22

)·(a 00 b

)=

=

(aL11 aL12

bL21 bL22

)−(aL11 bL12

aL21 bL22

)=

(0 (a− b)L12

(b− a)L21 0

).

Ovvero, L commuta con M se e solo se i suoi elementi fuori della diagonaleL12, L21 sono nulli.Esercizio. Dimostrare che questo e vero per matrici N ×N .Esercizio. Calcolare i tre commutatori [σi, σj ], i < j, dove le matrici complesseσi, i = 1..3 sono date rispettivamente da

σ1 =

(0 1−1 0

), σ2 =

(0 ii 0

), σ3 =

(i 00 −i

). (2.9)

Queste matrici (o, talvolta, il loro prodotto con −i) sono dette matrici di Pauli egiocano un ruolo importante nella teoria del momento angolare intrinseco degli

13

elettroni e di altre particelle elementari.Esempio La proprieta di non–commutativita e una proprieta intrinseca deglioperatori e non dipende dalla loro rappresentazione matriciale. Ad esempio,consideriamo lo spazio V = C∞(R) delle funzioni definite sull’asse reale (e.g.,a valori reali), derivabili un numero arbitrario di volte. Consideriamo i dueoperatori:

x : V → Vf(x) 7→ x f(x)

,∂ : V → Vf(x) 7→ f ′(x)

. (2.10)

A parole, x associa ad una funzione f il prodotto tra f e la funzione x, mentre∂ associa ad una funzione la sua derivata prima. E immediato verificare chequesti due operatori sono ben definiti. Infatti, la derivata prima di una funzionederivabile un numero arbitrario di volte e anch’essa derivabile un numero arbi-trario di volte, e il prodotto xf(x) e derivabile un numero arbitrario di volte.La linearita di queste due operazioni e ovvia.

Vogliamo calcolare [∂, x].

Per una qualsiasi funzione f(x), si ha:

(∂ ◦ x)(f)(x) =d

dx(x f(x)) = f(x) + xf ′(x);

mentre

(x ◦ ∂)(f)(x) = xd

dx(f(x)) = xf ′(x);

Sottraendo queste espressioni si verifica che, per ogni funzione f(x), si ha

[∂, x](f(x)) = f(x),

e dunque si ottiene [∂, x] = 1.Questa relazione (o, meglio, la corrispondente con l’operatore −i~∂, dove ~ e

una costante fondamentale, la cui dimensione e quella di un momento angolare,detta costante di Planck ridotta2) e fondamentale in meccanica quantistica.

3 Determinanti e matrici inverse

Come e stato asserito in una delle lezioni precedenti, se la applicazione lineareL : V →W e invertibile (cioe e iniettiva e suriettiva), la sua inversa e ancora unaapplicazione lineare. Vogliamo, in questa lezione, approfondire questo concetto.

Per prima cosa, si puo osservare che il dato di una applicazione linearedefinisce due sottospazi vettoriali notevoli,

Ker(L) ⊂ V := {x ∈ V|L(x) = 0},Im(L) ⊂W := {y ∈W |y = L(x) per qualche x ∈ V } (3.1)

2Ridotta significa divisa per 2π

14

Il primo spazio si chiama nucleo (detto Ker dall’inglese kernel), il secondo Im-magine di L. Verifichiamo che Ker(L) e un sottospazio vettoriale del dominio.Dobbiamo dunqie verificare che se x, y sono tali che L(x) = L(y) = 0, ogni lorocombinazione lineare e ancora in Ker(L), ovvero, per igni scelta di scalari α, β,si ha

L(α x+ β y) = 0

Questo segue dalla linarita di L. Infatti:

L(αx+ β y) = αL(x) + β L(y) = α 0 + β 0 = 0.

Analogamente si verifica che Im(L) e sottospazio vettoriale di W . U n legamenotevole tar le dimensioni di questi due spazi e dato dal seguente teorema, chenon dimostriamo:

Proposizione 3.1 (Teorema della nullita piu rango) Se V e W sono di dimen-sione finita vale che

dimKer︸ ︷︷ ︸nullita

(L) + dimIm︸ ︷︷ ︸rango

(L) = dimV. (3.2)

La prima conseguenza di questa formula e che se L : V → W con V e W didimensione differente, allora L non puo essere invertibile. Infatti questa formuladice (o meghlio ribadisce) che la dimensione dell’immagine di L non puo eccederequella del dominio V . Quindi, se dimW > dimV, L non puo essre suriettivo.Viceversa, per definizione, dimIm(L) ≤ dimW; quindi se dimV > dimW, si ha,necessariamente dimKer(L) > 0. Questo significa che esiste almeno un vettorenon nullo ξ nel nucleo di L; ma allora tutti i multipli di ξ sono nel nucleo, perla linearita di L, e dunque L non e iniettivo.

Proposizione 3.2 Sia L : V → W un’operatore lineare tra spazi della stessadimensione N ; allora L e invertibile se e solo se Ker(L) = {0}.

Dimostrazione. La necessita di questa affermazione e ovvia. Dato che L elineare, L(0) = 0; se L e invertibile (cioe, in particolare, iniettivo), il suo nucleonon puo contenere alcun altro elemento.

La sufficienza e un po’ piu sottile, e la dimostrazione serve, tar l’altro, aenucleare alcune osservazioni che verranno utili in seguito. Sia {v1, . . . , vN} una(qualsiasi) base di V . Allora gli N vettori L(v1), . . . , LvN

di W sono (indipen-dentemente dall’invertibilita o meno di L) un sistema di generatori per lo spaziovettoriale Im(L). Infatti, y ∈ Im(L) ⇐⇒ y = L(x), per x ∈ V . Sviluppandotale x lungo la base dei vi, si ha x =

∑i xivi; dunque,

L(x) =∑

i

xiL(vi)

il che dimostra l’affermazione.

15

Ritornando al nostro caso, dobbiamo dimostrare che, se V e W hanno lastessa dimensione e il nucleo di L e ridotto al solo elemento 0 ∈ V , allora L einiettivo e suriettivo.

Per l’inietrtivita si procede cosı: sia L(x) = L(y); allora L(x−y) = 0, ovverox− y e nel nucleo di L. Ma dunque x− y = 0 ⇐⇒ x = y.

Per la suriettivita, consideriamo una combinazione lineare∑

i ciL(vi), e sup-poniamo che questa dia zero (in W ), ovvero

∑i ciL(vi) = 0. Per la linearit1‘a

di L, si ha

0 =∑

i

ciL(vi) =∑

i

L(civi) = L(∑

i

civi)

Dunque il vettore∑

i civi e nel nucleo di L, e dunque e il vettore nullo, datoche sto supponendo Ker(L) = {0}. Ma vi e una base di V , e dunque i ci sonotutti nulli. Questo dimostra che gli N vettori L(vi( sono anch’essi indipendenti,e dunque, dato che dim(W) = dimV = N formano una base di W . Ovvero, Wha una base formata da elemnti nell’immagine di L, e dunque L e suriettivo.

Vogliamo ora caratterizzare ”operativamente” l’esistenza di inversi di oper-atori, in termini delle matrici rappresentative. Cio si effettua tramite la gener-alizzazione al caso di dimensione N della nozione di determinante (che, nel casodi N = 3, come si e visto, nel corso di Matematica II (Stewart, §3) rappresentail prodotto misto di tre vettori).

Ricordiamo che, dati tre vettori v1, v2, v3 nello spazio euclideo E3, sviluppatirispetto alla base ortonormale ~i,~j,~k come

v1 = v11~i + v1

2~j + v1

3~k, v2 = v2

1~i + v2

2~j + v2

3~k, v3 = v3

1~i+ v3

2~j + v3

3~k,

il loro triplo prodotto misto v1 · (v2 × v3) si calcola considerando la matrice3

M :=

v11 v2

1 v31

v12 v2

2 v32

v13 v2

3 v33

e calcolando, per esempio rispetto alla prima colonna,

det3M =

(−1)1+1(v11det2

(v22 v3

2

v23 v3

3

)) + (−1)2+1v1

2(det2

(v21 v3

1

v23 v3

3

)) + (−1)3+1v1

3(det2

(v21 v3

1

v22 v3

2

)) =

riordinando i termini

v11v

22v

33 + v2

1v32v

23 + v3

1v12v

23 − v1

1v32v

23 − v2

1v12v

33 − v3

1v22v

13.

(3.3)

3Nel corso di matematica II si considerava la matrice trasposta, ovvero con le righe scam-biate con le colonne

16

Ora, possiamo considerare la funzione Det3 come una funzione che alla ternaordinata di vettori v1, v2, v3, cioe alle colonne delle loro componenti vji associaun numero reale. Questa funzione gode delle seguenti proprieta:

1.

Det3([cv1, v2, v3]) = Det3([v1, cv2, v3]) = Det3([v1, v2, cv3]) ≡ cDe3([v1, v2, v3]),

ovvero se moltiplico una delle tre colonne per uno scalare il determinantee moltiplicato per lo stesso numero (omogeneita);

2. Se, e.g., v1 = x+ y, allora

Det3([v1, v2, v3]) = Det3([x, v2, v3]) +Det3([y, v2, v3])

(Additivita)

3. Se i, j, k e una permutazione di 1, 2, 3, allora

Det3([vi, vj, vk]) = ±Det3([v1, v2, v3]),

Dove il segno e + se la permutazione e pari (ovvero si ottiene con unnumero pari di scambi di numeri adiacenti), ed e − se e dispari, ovvero siottiene con un numero dispari di scambi elementari. (Completa antisim-metria).

4.Det3([~i,~j,~k]) = 1

(Normalizzazione).

Nel caso di spazi vettoriali a dimensione N , si considerano collezioni di N vet-tori, e si definisce una funzione Det, che alle N -uple di vettori (e dunque, con-siderando il loro sviluppo lungo una base, a matrici quadrate di ordine N) chegode delle (corrispettive) delle quattro proprieta qui ricordate. Questa funzione,si puo, operativamente, definira in due modi:Iterativamente. Si osserva, dalla prima riga della (3.3) che il determinante dimatrici 3 × 3 e definito attraverso il determinante di matrici 2 × 2, dove

Det2

(v11 v12

v21 v22

)= v11v22 − v12v21. (3.4)

Allora si definisce il determinante di una matrice N ×N , Det(M) attraverso ilsuo sviluppo secondo una colonna, come segue.

Si fissa una colonna, e.g., la k-esima; allora il determinante di M si scrivecome somma di N termini,

DetN (M) =m1,k · (−1)1+kDetN−1M1,k+

m2,k · (−1)2+kDetN−1M2,k+

· · ·+mN,k · (−1)N+kDetN−1MN,k,

(3.5)

17

dove Mh,k e la matrice (N − 1) × (N − 1) che si ottiene dalla M rimuovendo lah-esima riga e la k-esima colonna. Si noti che la prima delle formule (3.3) seguequeta regola, con k = 1 (prima colonna).Per via combinatoria Si considera l’insieme PN di tutte le permutazioni degliN numeri [1, 2, 3, . . . , N ]; e noto che questo insieme (in effetti e un gruppo) ecostituito da N ! elementi, ed e generato da scambi elementari, ovvero tra dueelementio adiacenti (e.g., lo scambio che manda [1, 2, 3, . . . , N ] in [2, 1, 3 . . . , N ]).Un elemento π e detto pari se si ottiene con un numero pari nπ di scambielementari, e dispari altrimenti. Il segno sgn(π) di una permutazione π ∈ PNe, per definizione, il numero (−1)nπ (cioe e 1 se la permutazione e pari, −1 se edispari.

Data una matrice N × N , M , con elementi mij , si puo definire/calcolare ilsuo determinante attraverso la formula

DetN (M) =∑

π∈PN

sgn(π)M1π(1)M2 π(2) · · ·MN π(N)︸ ︷︷ ︸N termini

(3.6)

La seconda riga della (3.3) da un esempio di tale fomula. Si noti che il numerodelle permutazioni della stringa [1, 2, 3] e 3! = 6; le permutazioni [1, 2, 3], [2, 3, 1], [3, 1, 2]sono pari, le permutazioni [2, 1, 3], [1, 3, 2], [3, 2, 1] sono dispari.

Vale che:

• Il determinante definito attraverso la (3.5) coincide con quello definitoattraverso la (3.6).

• Il determinante cosı efinito per matrici N×N (ovvero per N -uple di vettoriin uno spazio N -dimensionale dotato di una base gode delle proprieta 1–4del prodotto triplo di vettori in E3.

Ulteriori proprieta notevoli del determinante, che si desumono agevolmente dallaproprieta base e/o dalla definizione sono:

1. Il determinante della matrice identita 1N e 1.

2. data una matrice M ad elementi mij , si definisce la sua trasposta come lamatrice ottenuta scambiando le righe di M con le sue colonne, ovvero lamatrice MT il cui elemento di posto ij e l’elemento mji (pittoricamente,si scambiamo gli elementi di M con una riflessione lungo la diagonaleprincipale). Allora vale che

Det(M) = Det(MT )

3. Una matrice si dice triangolare superiore (risp. inferiore) se tutti gli el-ementi sopra (risp. sotto) la diagonale principale sono nulli. Il determi-nante di una matrice triangolare superiore (inferiore) e il prodotto deglielementi sulla diagonale principale.

18

4. (Teorema di Binet) Il determinante del prodotto righe per colonne di duematrici e il prodotto dei determinanti, i.e.

Det(M1 ·M2) = Det(M1)Det(M2)

5. Se due colonne (o righe, per quanto detto sopra) di M sono linearmentedipendenti, allora

Det(M) = 0

Per il prodotto triplo di tre vettori, questa proprieta e ben nota. In effettiquesta e una conseguenza diretta delle proprieta 1 e 2 della lista.

Vale anche il converso dell’ultima proprieta, espressa dalla seguente relazione:

Proposizione 3.3 Det(M) 6= 0 se e solo se le colonne (e le righe) di M sonolineramente indipendenti.

Un’altra proprieta e la seguente. Se Det(M) 6= 0 allora e definita univocamentel’inversa (denotata M−1) della matrice M , che soddisfa le relazioni definitorie

M−1 ·M = M ·M−1 = 1. (3.7)

La matrice M−1 si calcola nel seguente modo: in analogia alla nella (3.5) asso-

ciamo alla matrice M la matrice M definita nel seguente modo:

Mij = (−1)i+j Det(Mij),

dove, come sopra,e la matrice (N−1)×(N−1) che si ottiene dalla M rimuovendola i-esima riga e la j-esima colonna.

Questa matrice si chiama matrice ”cofattore” (il suo elemento ij e, come sipuo vedere, il coefficiente (”cofattore”) del termine mij nello sviluppo (3.6) del

determinante di M). Allora, la matrice inversa M−1 e la trasposta di M divisaper il determinante di M . Si noti che dal teorema di Binet segue che

Det(M−1) =1

Det(M).

Proposizione 3.4 Sia L : V → V un operatore lineare; allora L e invertibilese e solo se per una (e dunque, come si vedra, per ogni) sua rappresentazionematriciale L = [lij ], si ha Det(L) 6= 0.

Dimostrazione. Abbiamo visto piu sopra che L e invertibile se e solo se, datauna base vi i vettori L(vi) sono linearmente indipendenti. Ma le colonne dellamatrice L che rappresenta L nella base vi sono proprio le componenti dei vettoriL(vi). Quindi L e invertibile se ammette una rappresentazione matriciale conuna matrice invertibile. La proprieta e indipendente dalla scelta della base.

19

Infatti, se v′i e un’altra base di V , risultano definiti univocamente gli N2 numeriGij tali che

v′i =∑

j

Gjivi

Evidentemente, vale che se

vi =∑

j

G′jiv

′j

allora, le due matrici G′ e G sono una l’inversa dell’altra.Se L e la matrice che rappresenta L nella base dei vi, la matrice L′ che

rappresenta L nella base dei v′i e data dal prodotto

L′ = G

−1LG

(la verifica della validita di questa affermazione e immediata). Dunque dalteorema di Binet,

Det(L′) = Det(G−1LG) = Det(G−1)Det(L)Det(G) = Det(L).

Per il futuro, e utile sottolineare le affermazioni qui sopra. La relazione

v′i =∑

j

Gjivi

si legge cosı: la rappresentazione matriciale di L nella base v′i si ottiene coniu-gando (ovvero con il prodotto G−1LG) la matrice che rappresenta L nella basedei vi con la matrice le cui colonne sono le componenti dei vettori della nuovabase rispetto alla precedente.

Osservazione. Dalla legge di coniugio si deduce la seguente affermazione:affermazioni concernenti una rappresentazione matriciale di un operatore L sonointrinseche, ovvero proprie dell’operatore L se e solo se sono invarianti per co-niugio tramite una qualsiasi matrice invertibile G. Ad esempio:L12 e nullo non e invariante per coniugio.L13 + L24 = 3 non e invariante per coniugio.Invece:Da sopra, il determinante di un operatore si definisce come il determinante diuna sua (qualsiasi) rappresentazione matriciale.Un’altra proprieta: definiamo la Traccia di un operatore nel seguente modo.Consideriamo una (qualsiasi) rappresentazione matriciale L di L, e definiamo

Tr(L) =n∑

i=1

Lii,

ovvero la somma degli elementi diagonali della matrice L. Verifichiamo che ilnumero Tr(L) e indipendente dalla rappresentazione matriciale. A questo scopo,ci serve il seguente

20

Lemma 3.5 Per ogni coppia di matrici A,B si ha

Tr(AB) = Tr(AB).

Considerato vero il lemma (vedi sotto) osserviamo che se L′ e un’altra rappresen-tazione matriciale di L, deve esistere una matrice G (la matrice del cambiamentodi base) per cui

L′ = G

−1LG.

Dunque:

Tr(L′) = Tr(G−1L︸ ︷︷ ︸

=A

G︸︷︷︸=B

) = (Lemma) = Tr(G G−1

︸ ︷︷ ︸=1

L) = Tr(L).

Questo prova l’asserto, una volta che si sia provata la validita del lemma. Questasegue dal fatto che gli elementi sulla diagonale del prodotto AB e

[AB]ii =∑

k

AikBki

Dunque,

Tr(AB) =n∑

i=1

[AB]ii =n∑

i=1

(n∑

k=1

AikBki

)=

n∑

k=1

(n∑

i=1

BkiAik

)=

n∑

k=1

[BA]kk = Tr(BA),

dove l’unico passaggio non banale e l’inversione (lecita) dell’ordine in qualevengono effettuate le somme sugli indici i e k (e il fatto che gli elementi Aij ,Bijsono dei numeri reali (o complessi).

Applicazioni delle nozioni qui esposte sono state gia viste nella teoria delleequazioni lineari (eventualmente non omogenee).

Consideriamo un sistema di N equazioni lineari non omogenee nelle M incog-nite {x1, x2, . . . , xM}. Queste si scrivono nella forma

a11x1 + a12x+ a13x3 + · · ·a1MxM = b1a21x1 + a22x+ a23x3 + · · ·a2MxM = b2

...aN1x1 + aN2x+ aN3x3 + · · ·aNMxM = bN

(3.8)

Qui, gli NM elementi aji sono scalari (che possona naturalmente essere arran-

giati in una matrice A = [aji]j=1,...,Ni=1,...,M , mentre gli N scalari [b1, b2, . . . , bN ] formano

il cosiddetto vettore dei termini noti. Possiamo dunque pensare al lato sinistrodi (3.8) come alla rappresentazione di un operatore L : RM → TM , rispettoalla nase standard dei due spazi coinvolti, ed al lato destro (cioe al vettore deitermini noti) come alla assegnazione di un vettore B ∈ RN .

In questo senso, il problema della soluzione di (3.8) puo essere riformulatoin questo modo:

21

Trovare un (tutti i) vettori [x1, x2, · · · , xM ] in RM che vengono mandatidalla applicazione A, rappresentata dalla matrice A = aji nel vettore B =[b1, . . . , bN ] ∈ RN .

In particolare, consideriamo il caso in cui N = M (la matrice A e dunquequadrata), e B = [0, 0, · · · , 0] (sistema omogeneo), ovvero il sistema

a11x1 + a12x+ a13x3 + · · ·a1NxN = 0a21x1 + a22x+ a23x3 + · · ·a2NxM = 0

...aN1x1 + aN2x+ aN3x3 + · · ·aNNxN = 0

(3.9)

Le soluzioni di questo sistema sono dunque gli elementi del nucleo dell’operatoreA rappresentato dalla matrice quadrata [aji]i,j=1,...,N . Dalla teoria esposta piusopra, abbiamo che:

1. Se DetA 6= 0 il nucleo dell’operatore A, rappresentato dalla matrice A

e solo il vettore nullo, cioe il sistema (3.11) ha solo la soluzione {x1 =0, x2 = 0, . . . , xN = 0}.

2. Se Det(A) = 0 il nucleo dell’operatore A non e banale, cioe esiste almenoun vettore (e dunque tutti i suoi multipli scalari) x non nullo nel nucleo.Se [x1, xx, . . . , xN ] sono le sue compenenti, questa N -upla fornisce unasoluzione (detta non banale) del sistema lineare.

Infine, nel caso Det(A) = 0, e naturale porsi il problema di come trovare unasoluzione non banale del sistema. Per risolvere questo problema si possono farele seguenti osservazioni/ipotesi:

Det(A) = 0 significa che Det(AT ) = 0; quindi le colonne di AT (che sono lerighe di A) non sono linearmente indipendenti. Questo vuole dire che c’e unaequazione ”ridondante”, ovvero che una delle equazioni del sistema (3.11) e unacombinazione lineare delle altre equazioni. Quindi per trovare le soluzioni delsistema in questione, posso considerare un sistema con una equazione in meno.Supponiamo di potere omettere l’ultima. Allora dobbiamo studiare le soluzionedel sistema em ridotto (ad N variabili ed N − 1 equazioni)

a11x1 + a12x + a13x3 + · · ·a1NxN = 0a21x1 + a22x + a23x3 + · · ·a2NxM = 0...aN−1,1x1 + aN−1,2x + aN−1,3x3 + · · ·aN−1,NxN = 0.

(3.10)

Supponendo che il determinante della matrice (N − 1)× (N − 1) ottenuta dallaA rimuovendo l’ultima riga e l’ultima colonna, riscriviamo il sistema come unsistema di N − 1 equazioni in N − 1 incognite, considerando l’ultima variabile

22

xN come un parametro, nella forma

a11x1 + a12x + a13x3 + · · ·a1,N−1xN−1 = −a1,NxN := β1

a21x1 + a22x + a23x3 + · · ·a2,N−1xN−1 = −a2,NxN := β2...aN−1,1x1 + aN−1,2x + aN−1,3x3 + · · ·aN−1,N−1xN−1 = −aN−1,NxN := βN−1

(3.11)Quest’ultimo sistema si considera, ora, come un sistema non omogeneo (ripeti-

amo, di N − 1 equazioni in N − 1 incognite), con matrice dei coefficienti AN,N

che ha determinante non nullo. La soluzione a questo sistema si puo trovarecon la regola di Cramer, ed e data dal vettore (ad N − 1 componenti)

x1

x2

...xN−1]

= AN,N

β1

β2

...βN−1

In definitiva, la soluzione non banale del sistema degenere (3.8) e data dalvettore (ad N componenti)

x = xN ·

−a1N

−a2N

...−aN−1,N

1

Questa formula – valida nel caso in cui Det(AN,N ) 6= 0 – fornisce, al variare dixN , le componenti del generico vettore del nucleo dell’operatore rappresentatodalla matrice A.

4 Autovalori ed Autovettori

La nozione di autovalore ed autovettore di un operatore e/o di una matrice sonorelativi al seguente problema. Supponiamo di avere un operatore L, definito inuno spazio V di dimensione N per il quale esistano N vettori indipendenti ψi,ed N scalari λi tali che

L · ψi = λi ψi, i = 1, . . . , N. (4.1)

Allora, nella base degli ψi, l’operatore in questione e rappresentato dalla matricediagonale diag(λi), cioe quella che ha, sulla diagonale principale, gli scalari[λ1, λ2, . . . , λN ].

23

L’azione dell’operatore L si descrive in modo semplice. Se x =∑

i xiψi e ladecomposizione di un vettore lungo al base degli ψi, allora

L(x) =∑

i

(xi)Lψi =∑

i

(λixi)ψi,

ovvero L agisce moltiplicando ciascuna componente di x rispetto alla base ψiper il corrispondente scalare λi. Se vi =

∑j Gjiψj e un’altra base di V , allora

la matrice che rappresenta L rispetto alla nuova base e data dalla matrice L =G−1 · diag(λi)G, che, in generale non e diagonale.

Il problema che pero ci vogliamo/dobbiamo porre e il seguente. Dato unoperatore L : V → V , possiamo trovare una base nella quale L sia diagonale?E, se sı, come?

Definizione 4.1 Sia L : V → V , ψ 6= 0 ∈ V l e λ uno scalare. Si dice che λe un autovalore di L, con autovettore ψ (e si dice che ψ e un autovettore di Lrelativo all’autovalore λ) se vale che

Lψ = λψ, con ψ 6= 0. (4.2)

Nota Bene. La condizione ψ 6= 0 e fondamentale. Infatti la relazione L 0 = λ0e vera per ogni scalare λ, e non dice nulla su L. La seguente osservazione e,nella sua semplicita, cruciale. Riscrivendo la (4.2) nella forma

Lψ = λψ ⇔ (L− λ1)ψ = 0, (4.3)

(nel prosieguo, ometteremo il simbolo 1), abbiamo che λ e un autovalore di Lse e solo se l’operatore L − λ ha nucleo non banale (cioe esiste un vettore nonnullo ψ ∈ Ker(L−λ)). Questo pone delle condizioni algebriche non banali su λ.Infatti, sia vi una base di V , e consideriamo la rappresentazione matriciale di L(e di L−λ) definita dalla vi. Come sappiamo, la condizione che il nucleo di L−λsia non banale si traduce nella richiesta che la matrice L− λ rappresentativa diL− λ abbia determinante nullo.

Proposizione 4.2 Se λ e un autovalore, allora il polinomio in λ (di ordineN = dim(V ) definito da

PL(λ) = Det(L − λ1) ≡ Det(lij − λδij) = 0 (4.4)

ha λ come radice.In piu questa condizione non dipende dalla scelta della base.

Dimostrazione. Se λ e un autovalore, allora il determinante di lij − λδijsi annulla, per quanto detto sopra. Dobbiamo solo fare vedere che questa con-dizione e indipendente dalla scelta della base in V . In effetti, vale che non sologli zeri, ma il polinomio Det(lij − λδij) e definito da L, ovvero non cambia alcambiare della base. Abbiamo gia osservato che se v′j =

∑iGijvi e un’altra base

24

di V , allora la matrice G di elementi Gij e invertibile, e le matrici rappresentative- nelle due basi vi e v′j di L sono legate dalla relazione

L′ = Gg · LG

−1

Dato che posso scrivere λ1 = G−1 · λ1G ottengo

Det(L′ − λ1) = Det(G−1 · LG − G−1λ1G) = Det(G−1(L − λ1)G) =

per il teorema di Binet = Det(G−1)Det(L − λ1)Det(G) = Det(L − λ1),

dove nell’ultima uguaglianza della prima riga si e raccolto a sinistra il fattoreG−1 e a destra il fattore G, mentre nell’ultima uguaglianza della seconda riga si

e usato il fatto che Det(G−1) =1

Det(G).

Il polinomio Det(L − λ1) si chiama polinomio caratteristico dell’operatore L (oanche associato all’operatore L). Il polinomio caratteristico di un operatoreL : V → V e un polinomio di ordine N = dim(V ), con coefficiente di ordine piualto dato da cN = (−1)N 4.

Proposizione 4.3 Siano ψ1 e ψ2 autovettori di L : V → V relativi ad autoval-ori distinti, cioe valgano

Lψ1 = λ1ψ1, Lψ2 = λ2ψ2, con λ1 6= λ2.

Allora ψ1 e ψ2 sono linearmente indipendenti.

Dimostrazione. Supponiamo che ci sia una combinazione lineare

c1ψ1 + c2ψ2 = 0; (4.5)

allora L(c1ψ1 + c2ψ2) = 0 e dunque vale che

c1λ1ψ1 + c2λ2ψ2 = 0. (4.6)

Se λ1 6= λ2, allora almeno uno dei due autovalori non e nullo; supponiamoλ1 6= 0. Moltiplicando (4.5) per λ1 e sottraendo questa da (4.6) si trova

c2(λ2 − λ1)ψ2 = 0

Ma ψ2 non e il vettore nullo, e (λ2−λ1) 6= 0. Quindi deve essere c2 = 0. Quindi,sostituendo nella (4.5), si ha che anche c1 = 0, il che chiude la dimostrazione.

4Talvolta il polinomio caratteristico di L e definito da Det(λ− L). La nostra definizione equesta differiscono per il fattore moltiplicativo (−1)N .

25

Per induzione, si dimostra che questa proprieta e vera anche per il caso di Mautovettori corrispondenti ad M autovalori distinti, ovvero vale che:

Proposizione 4.4 Siano {ψi}i=1,...,M M autovettori di L : V → V relativi adM autovalori distinti λ1 6= λ2 6= · · · , λM . Allora gli {ψi}i=1,...,M sono linear-mente indipendenti.

Questo considerazione mostrano che se un operatore definito su uno spazio adimensione N allora puo avere al piu N autovalori distinti, e, in questo caso, gliautovettori relativi a tali autovalori formano una base di V . Quindi in questabase L e rappresentato da una matrice diagonale (si dice che L e diagonalizzabile.

Esempio. Consideriamo la matrice di Pauli iσ1 =

(0 11 0

), pensata come

rappresentatrice dell’operatore

σ1 : C2 → C2

Il polinomio caratteristico di σ1 e

Det(

(−λ 11 −λ

)) = λ2 − 1.

Quindi σ1 ammette due autovalori distinti, λ1 = 1, λ2 = −1. Per trovareautovettori relativi a questi due autovalori, dobbiamo determinare il nucleo diσ1−1 (per λ1) e di σ1+1 (ovvero sostituire λ = ±1 nella equazione (σ1−λ1)ψ =0). Detto ψ = [ψ1, ψ2] dobbiamo (incominciando dal caso di λ1) risovere ilsistema (

−1 11 −1

)(ψ1

ψ2

)=

(00

),⇔

{−psi1 + ψ2 = 0ψ1 − ψ2 = 0

Le soluzioni di questo sistema (le due equazioni sono una l’opposto dell’altra...)sono tutti i vettori ψ tali che la prima compopnente sia uguale alla seconda,ovvero, gli autovettori relativi a λ1 = 1 sono dati da

ψ1 =

(aa

), a 6= 0. (4.7)

Un calcolo analogo porta alla caratterizzazione degli autovettori relativi a λ2 =−1 come a tutti i vettori della forma

ψ2 =

(−bb

), b 6= 0. (4.8)

Osserviame che ψ1 e ψ2 forniscono, per ogni scelta degli scalari, (eventualmnetecomplessi) a, b una base in C2. E utile verificare la legge di trasformazione dellerappresentazioni matriciali degli operatori in questo caso.

26

La matrice σ1 =

(0 11 0

)e riferita alla base naturale di C2 data da

e1 =

(10

), e2 =

(01

).

Fissati a, b non nulli, la matrice che definisce i vettori ψ1(a), ψ2(b) rispetto allabase standard e

G =

[a −ba b

], con inversa G

−1 =

[1/2 a−1 1/2 a−1

−1/2 b−1 1/2 b−1

].

Se consideriamo il prodotto G−1σ1G otteniamo[

1/2 a−1 1/2 a−1

−1/2 b−1 1/2 b−1

]·(

0 11 0

)

︸ ︷︷ ︸·[a −ba b

]

[1/2 a−1 1/2 a−1

1/2 b−1 −1/2 b−1

]·[a −ba b

]=

(1 00 −1

)(4.9)

In altre parole, la trasformazione G che manda i vettori della base standard neivettori della base degli autovettori di σ1, diagonalizza σ1.Esempio 2 Consideriamo la matrice

A =

2 1 1

1 2 3

1 −1 −2

Il suo polinomio caratteristico e

λ3 − 3λ2 − 2λ = λ(λ+ 1)(λ− 3),

e dunque i suoi autovalori sono λ1 = 0, λ2 = −1, λ3 = 3 (Osserviamo che lapresenza dell’autovalore 0 significa che il nucleo di A e non banale. Infatti, laterza riga e la differenza delle prime due.

Calcoliamo l’autovettore relativo a λ1. Dato che, appunto, la terza equazionee combinazione lineare delle prime due, possiamo considerare il sistema in dueequazioni e tre incognite (ψ1, ψ2ψ3) dato dalle prime due righe di Aψ = 0,ovvero il sistema

{2ψ1 + ψ2 + ψ3 = 0ψ1 + 2ψ2 + 3ψ3 = 0

ovvero

{2ψ1 + ψ2 = −ψ3

ψ1 + 2ψ2 = −3ψ3

Scriviamo questo sistema matricialmente come(

2 11 2

)(ψ1

ψ2

)=

(−ψ3

−3ψ3

). (4.10)

27

Ci accorgiamo che il determinante della matrice 2×2 associata a questo sistemanon omogeneo, cioe

A33 =

(2 11 2

)

e invertibile, con inversa data da

(A33)−1 =

(23

−13

−13

23

)

Dunque la soluzione generale di (4.10) e

(psi1ψ2

)=

(23

−13

−13

23

)·(

−ψ3

−3ψ3

)=

(13ψ3

−53ψ3

).

Dunque l’autovettore relativo all’autovalore 0 di A si scrive come

ψ1 =

13ψ3

−53ψ3

ψ3

= µ

1−53

,

dove µ = ψ3/3 e un qualsiasi numero non nullo.Con conti analoghi, si vede che gli autovettori relativi agli altri due autovalori

sono

λ2 = −1, ψ2 = µ

0−1

1

e

λ3 = 3, ψ3 = µ

110

In quest’ultimo caso si ha pero che

A − 31 =

−1 1 1

1 −1 3

1 −1 −5

e dunque non si puo utilizzare la matrice A33) per definire il sistema lineare 2×2

da risolvere. Una buona scelta e utilizzare A31), ovvero considerare il sistema

{ψ2 + ψ3 = ψ1

−ψ2 + 3ψ3 = −ψ1

28

5 Prodotti scalari e hermitiani.

La nozione di prodotto scalare in R3 e si generalizza nel seguente modo:

Definizione 5.1 Sia V uno spazio lineare /R. Un prodotto scalare su V e’una applicazione (“funzione”)

(·, ·) : V × V → R

che soddisfi:

1. (x, y) = (y, x) (simmetria)

2. (x, y + z) = (x, y) + (y + z) (linearita)

3. (c x, y) = c(x, y) (omogeneita)

4. (x, x) ≥ 0 e (x, x) = 0 ⇔ x = 0 (positivita)

Notiamo che, grazie alla proprieta 1) valgono anche:

(x + y, z) = (x, z) + (y + z), e (x, c y) = c(x, y).

Si puo dunque dire che un prodotto scalare su uno spazio vettoriale reale V euna applicazione simmetrica, “bilineare” (proprieta 2) e 3)) e definita positivadi V ×V in R. Esempio. Sullo spazio standard Rn delle n-uple di numeri realisi ha il prodotto scalare standard: se x = (x1, x2, . . . , xn) e y = (y1, y2, . . . , yn),allora si pone:

(x,y) =

n∑

i=1

xiyi.

Esempio. Sempre in Rn si possono porre “diversi” prodotti scalari. Per esem-pio, fissata una n-upla di numeri positivi a = a1, a2, . . . , an, si puo porre

(x,y)a =

n∑

i=1

ai xiyi

Esempio Prodotto scalare “standard” in CI .Sia I = [a, b] un intervallo (chiuso e limitato) della retta reale, e consideriamolo spazio delle funzioni continue CI definite su I a valori reali.

Sappiamo che CI e uno spazio vettoriale. Poniamo, per definizione,

(f, g) =

∫ b

a

f(x) g(x) dx.

Vogliamo verificare che (·, ·) : CI × CI → R e un prodotto scalare.Per prima cosa, notiamo che e ben definito. Infatti, se f e g sono funzioni

continue su un intervallo chiuso e limitato, lo e anche il loro prodotto, e quindil’integrale

∫ bafg(d)x e un numero reale.

29

Le proprieta di simmetria, linearita e omoigeneita sono ovvie. La propritadi positivita segue dal fatto che (f, f) =

∫ baf 2(x) dx, e dunque (f, f) ≥ 0. In

particolare, (f, f) = 0 se e solo se f = 0 per tutti gli x, ovvero f e la funzionenulla, cioe lo zero dello spazio vettoriale CI .

Analogamene al caso di Rn, se ψ(x) e una funzione non negativa, la legge

(f, g)ψ =

∫ b

a

f(x)g(x)ψ(x) dx

definisce un prodotto scalare in CI .Consideriamo ora spazi vettoriali sui numeri complessi.

Definizione 5.2 Sia V uno spazio lineare /C. Un prodotto scalare, detto an-che, se e il caso di distinguere, un prodotto hermitiano su V e’ una applicazione(“funzione”)

(·, ·) : V × V → C

che soddisfi:

1. (x, y) = (y, x) (simmetria hermitiana)

2. (x, y + z) = (x, y) + (y + z) (linearita)

3. (x, c y) = c(x, y) (omogeneita)

4. (x, x) ≥ 0 e (x, x) = 0 ⇔ x = 0 (positivita)

Notiamo che, grazie alla proprieta 1) e 2) valgono anche:

(x + y, z) = (x, z) + (y, z), e (c x, y) = c(x, y).

Si puo dunque dire che un prodotto scalare su uno spazio vettoriale complessoV e una applicazione simmetrica, “sesquilineare”5 (proprieta 2) e 3)) e definitapositiva di V × V in C.

Esempio. Il prodotto scalare standard in Cn e definito nel seguente modo.Siano se x = (x1, x2, . . . , xn) e y = (y1, y2, . . . , yn) elementi di Cn. Il prodottoscalare (o hermitiano, o euclideo) standard e definito da

(x,y) =

n∑

i=1

xiyi.

Esempio. Se CI(C) e lo spazio delle funzioni continue sull’intevallo I = [a, b] avalori complessi, allora la legge

(f, g) =

∫ b

a

f(x)g(x) dx

5sesqui=1 e 1

2.

30

da luogo ad un prodotto hermitiano in CI(C).Nota. Si noti che nel caso complesso, e cruciale prendere il complesso coniugatodelle componenti (e.g., in Cn). Se si ponesse, in completa analogia con il casoreale,

〈x,y〉 =

n∑

i=1

xiyi

si otterrebbe una forma bilineare in Cn, che non gode della proprieta di posi-tivita. Per rendersi conto di cio, basta considerare, in C2, il vettore η = (1, i) 6=0. Allora,

(η, η) = 1 1 + i i = 1 − i2 = 2, mentre 〈η, η〉 = 1 1 + i i = 1 + i2 = 0

6 Spazi euclidei e normati

Proposizione 6.1 (Disuguaglianza di Cauchy-Schwartz) Sia (V, (, )) uno spazioeuclideo. Allora, per ogni coppia v1, v2 vale che

|(v1, v2)|2 ≤ (v1, v1)(v2, v2), (6.1)

e l’uguaglianza vale solo se v2 = cv2 (cioe se v1 e v2 sono linearmente dipen-denti).

Dimostrazione. Se uno dei due vettori e nullo, la affermazione e vera. Quindipossiamo supporre che entrambi i vettori siano non nulli. Definiamo x =(v2, v2), y = (v1, v2) e consideriamo la combinazione lineare

ξ = xv1 − yv2

Dalla proprieta di positivita del prodotto scalare, abbiamo (ξ, ξ) ≥ 0. Dunque

0 ≤ (ξ, ξ) = (xv1−yv2, xv1−yv2) = |x|2(v1, v1)−xy(v2, v1)−xy(v1, v2)+|y|2(v2, v2).

ovvero, sostituendo, le espressioni di x e y,

|(v2, v2)|2(v1, v1)−(v2, v2)(v1, v2)(v2, v1)−(v1, v1)(v1, v2)(v1, v2)+|(v1, v2)|2(v2, v2) ≥ 0.

Notando che (vi, vi) > 0 e che (v2, v1) = (v1, v2), si ottiene

0 ≤ (v2, v2)2(v1, v1) − (v2, v2)|(v1, v2)|2,

e dunque, dividendo per (v2, v2), si ha che

|(v1, v2)|2 ≤ (v1, v1)(v2, v2),

che e quello che si doveva mostrare.In particolare, notiamo che l’uguaglianza vale sse ξ = 0, ovvero sse v1 e v2

sono linearmente dipendenti.

31

In uno spazio euclideo si puo definire un concetto di lunghezza (detta norma)di un vettore. Definiamo norma di v ∈ V la quantita

‖v‖ =√

(v, v). (6.2)

Proposizione 6.2 La norma di un vettore e una applicazione ‖ · ‖ : V → Rche soddisfa le seguenti proprieta

1. ‖v‖ ≥ 0, con ugualianza sse v = 0 (positivita);

2. ‖c v‖ = |c|‖v| (omogeneita);

3. ‖v + u‖ ≤ ‖v‖ + ‖u‖ (disuguaglianza triangolare).

Dimostrazione Le prime due proprieta seguono immediatamente dall proprieta2 e 3 del prodotto scalare. Per l’ultima, osservato che la disuguaglianza diCauchy–Schwartz si puo scrivere come

|(v1, v2)|2 ≤ ‖v1‖2‖v2‖2, (6.3)

il che implica le due disuguaglianze

(v1, v2) ≤ ‖v1‖‖v2‖, |(v1, v2)| ≤ ‖v1‖‖v2‖.

Consideriamo

‖v1 + v2‖2 = (v1 + v2, v1 + v2) = (v1, v1) + (v1, v2) + v1, v2) + (v2, v2) =

‖v1‖2 + ‖v2‖2 + (v1, v2) + v1, v2).

Utilizzando le disuguaglianze di cui sopra, si ha

‖v1 + v2‖2 ≤ ‖v1‖2 + ‖v2‖2 + 2‖v1‖‖v2‖ = (‖v1‖ + ‖v2‖)2

e dunque, dato che entranbi i membri di questa equazione sono numeri reali nonnegativi, la tesi si ottiene prendendo la radice quadrata.

6.1 Ortogonalita e sue prime applicazioni

Consideriamo uno spazio vettoriale V dotato di un prodotto interno (o hermi-tiano, se V e sui complessi) ( , ).

Definizione 6.3 Due vettori v1, v2 si dicono ortogonali sse (v1 , v2) = 0.

Dalla definizone vediamo subito che lo 0 di V e l’unico vettore di V ortogonalea se stesso. Infatti (0 , 0) = 0, e (v , v) = 0 ↔ v = 0 (proprieta 3 del prodottoeuclideo/hermitiano).

32

Proposizione 6.4 Siano v1, v2, non nulli e ortogonali; allora v1 e v2 sono lin-earmente indipendenti.

Dim. Sia c1v1 + c2v2 = 0 una combinazione lineare di v1 e v2 che dia 0.Dobbiamo verificare che c1 = c2 = 0. Dal fatto che (0 , 0) = 0 abbiamo

0 = (c1v1 + c2v2 , c1v1 + c2v2)

Sviluppando questa uguaglianza si ha (consideriamo il caso hermitiano)

0 = c1c1(v1, v1) + c1c2(v1, v2) + c2c1(v2, v1) + c2c2(v2, v2).

Dato che (v1, v2) = (v2, v1) sono per ipotesi nulli, ne otteniamo

0 = |c1|2(v1, v1) + |c2|2(v2, v2)

I due addendi del membro destro sono non negativi, e dunque deve valere|c1|2(v1, v1) = |c2|2(v2, v2) = 0; dato che i vettori v1, v2 non sono nulli (e dunque(vi, vi) > 0), ne possiamo concludere che c1 = c2 = 0

Osserviamo che, piu in generale, vale la seguente proprieta:Sia {v1, . . . , vk} un insieme di vettori non nulli di V , che soddisfino

(vi, vj) = 0, i 6= j = 1, . . . , k.

Allora questi vettori sono lineramente indipendenti. Infatti basta notare che,detto ξ =

∑k

i=1 xivi, si ha

(ξ, ξ) =

k∑

i,j=1

xixj(vi, vj) =∑

i

|xi|(vi, vi).

Esempio 1. Nello spazio Rn, questa proprieta, applicata a vettori vi = eli , doveei e la n-upla data da (0, 0, . . . , 0 1︸︷︷︸

posto i

, 0, . . . , 0), ribadisce che questi vettori sono

indipendenti. Peraltro, garantisce che, per esempio, i vettori v = (1, 1, 0, . . . , 0)ed u = (1,−1, 0, . . . , 0) sono indipendenti.Nota. Una coseguenza di questa proprieta e che, presi n + k vettori vα nonnulli in uno spazio vettoriale euclideo Vn di dimensione n deve aversi, per quelcheα, β, (vα, vβ) 6= 0. Viceversa, una base di Vn formata da vettori ortogonali adue a due si chiama base ortogonale. In particolare, se questi vettori sono tuttidi norma uguale a 1, la base si dice base ortonormale. Ad esempio, la terna−→i ,

−→j ,

−→k e una base ortonormale dello spazio euclideo R3, dotato del prodotto

scalare standard.

33

Esempio 2. Consideriamo lo spazio delle funzioni (diciamo continue) C[−π,π]

nell’intervallo I = [−π, π], e i vettori un ∈ C[−π,π] definiti da

u0(x) = 1, u2n−1(x) = cos(nx), u2n = sin(nx), n = 1, 2, 3, . . . .

Questo insieme (o sistema, o famiglia) di vettori e ortogonale.Infatti, consideriamo n 6= m e il prodotto scalare

(un, um) =

∫ π

−πun(x)um(x) dx.

Ora, se n e nullo, abbiamo (u0, um) =∫Iun(x)dx = 0; supponiamo che sia n

che m siano non nulli e (per esempio), sia n = 2k − 1, m = 2l. Allora si ha

(un, um) =

I

cos(k x) sin(l x) dx

Integrando per parti si ha

(un, um) =1

ksin(k x) sin(l x)

∣∣π−π −

l

k

I

sin(k x) cos(l x)dx.

dato che le funzioni sono periodiche otteniamo

(un, um) = − l

k

I

sin(k x) cos(l x)dx.

Se k = l, abbiamo dunque (un, um) = −(un, um) e dunque (un, um) = 0. sek 6= l, si ha, analogamente,

I

sin(k x) cos(l x) = − l

k

I

cos(k x) sin(l x) dx

e dunque otteniamo che

(u2k−1, u2l) =l2

k2(u2k−1, u2l)

che dimostra che (u2k−1, u2l) = 0, ∀ k, l. Il caso n,m entrambi pari o disparisi tratta analogamente. Dunque gli un sono un sistema ortogonale in C[−π,π].Ricordando che ∫

I

cos2(nx) dx =

I

sin2(nx)dx = π

e osservamdo che (u0, u0) = 2π si vede che la famiglia

v0 =u0√2π, vn =

un√π

34

e ortonormale in C[−π,π].Esempio 3. Una variante dell’esempio 2. Sia VC lo spazio delle funzioni pe-riodiche da I = [−π, π] a valori complessi. Consideriamo, in VCC la famiglia{en}n∈Z definita da:

e0(x) = 1, en(x) = exp(i n x), n 6= 0. (6.4)

Questa e una famiglia ortogonale. Infatti, consideriamo il prodotto scalare

(en, em) =

I

en(x)em(x) dx =

I

exp(−i n x) exp(imx) dx ≡∫

I

exp(i(n−m) x)dx

Supponiamo n 6= m. Integrando

(en, em) =1

i(n−m)

∣∣ exp(i(n−m) x)∣∣π−π = 0,

per la periodicita della funzione esponenziale con argomento immaginario. Se,ora, n = m (eventualmente entrambi = 0) abbiamo

(en, en) =

I

1 dx = 2π.

Dunque la famiglia ortonormale corrispondente alla famiglia en si ottene comevn = en√

2π.

Basi ortonormali godono di una proprieta fondamentale, ovvero che le com-ponenti dello sviluppo di un generico vettore v sulla base in questione si cal-colano attraverso prodotti scalari. Ovvero, vale che

Proposizione 6.5 Sia {e1, . . . , en} una (qualsiasi) base ortonormale in Vn. Losviluppo dell’elemento v ∈ V lungo V e dato da

v =∑

i

vi ei, con vi = (v, ei). (6.5)

In altre parole, le componenti di v lungo la base ei sono i prodotti scalari (ei, v).Dimostrazione. Dato che ei sono una base, lo sviluppo

v =∑

i

vi ei

e univocamente determinato. Scegliamo un indice k e prendiamo il prodottoscalare (ek, v) di entrambi i membri di questa uguaglianza; a sinistra abbiamo(v, ek), mentre a destra (grazie alla linearita del prodotto euclideo)

i

vi(ek, ei) = vk perche (ek, ei) = 0 se i 6= k, e vale 1 per i = k.

Nota. Questa dimostrazione e fatta per spazi di dimensione finita. Peraltrovale anche in dimensione infinita.

35

Proposizione 6.6 (Formule di Parseval) Sia Vn uno spazio vettoriale (comp-lesso) di dimensione finita, e {ei}i=1,...,n una sua base ortonormale. Allora, perogni coppia di vettori x, y ∈ Vn,

(y, x) =

n∑

i=1

(ei, y)(ei, x). (6.6)

In particolare, ‖x‖2 =∑

i |(ei, x)|2.

Dimostrazione. Scriviamo, secondo la (6.5),

x =∑

i

(ei, x)ei

e calcoliamo (y, x); sfruttando sempre la linearita di ( , ) abbiamo

(y, x) = (y,∑

i

(ei, x)ei) =∑

i

(y, (ei, x)ei

)=∑

i

(ei, x)(y, ei) =∑

i

(ei, y)(ei, x),

come affermato. La seconda affermazione si ottiene prendendo y = x.

7 Operatori Hermitiani (simmetrici)

Il problema di determinare se e quando un operatore e diagonalizzabile non e difacile risoluzione. In questa ultima lezione introdurremo una classe di operatorilineari, detti operatori Hermitiani definiti su spazi euclidei (complessi), per iquali vale un teorema di diagonalizzazione.

Consideriamo uno spazio vettoriale euclideo complesso (V, ( , )); sia L : V →V . L’aggiunto di L e quell’operatore L† che verifica

(y, Lx) = (L†y, x) = (x, L†y), ∀x, y ∈ V. (7.1)

Per definizione, (L1 + L2)† = L†1 + L†

2, e (zL)† = zL†.Esempio 1. Se V e di dimensione finita, l’aggiunto di un operatore esiste

sempre. In particolare, se L e la rappresentazione matriciale di L rispetto aduna base ortonormale {ei}i=1,...,N=dimV, gli elementi di matrice [l†]ij sono datidai complessi coniugati degli elementi della matrice trasposta LT , ovvero, informule,

l†ij = lji

Per rendersi conto di questo fatto, basta ricordare che rispetto ad una baseortonormale, l’elemento di matrice lij si calcola come

lij = (ei, L(ej))

36

Dunque, l’elemento l†ij e

(ei, L†(ej)) = (L†(ej), ei) = (ej , L(ei)) = lji,

dove, nella terza uguaglianza si e usata (“al contrario”) la definizione di ag-giunto.

Per comodita, data una matrice L, si chiama matrice aggiunta (o, anche,coniugata Hermitiana) di L, la matrice il cui elemento di posto i, j e il complessoconiugato dell’elemento di posto j, i della matrice L. In poche parole, la matriceaggiunta e la coniugata della trasposta (o la trasposta della coniugata).

Nota Nel caso reale, la matrice aggiunta si riduce alla matrice trasposta.Esempio 2 Sia C∞([a, b]) lo spazio delle funzioni periodiche definite sull’intervallo

[a, b], derivabili un numero arbitrario di volte, dotato del prodotto euclideo

(f, g) =

∫ b

a

f(x)g(x) dx ,

e consideriamo l’operatore ∂, che associa ad f(x) la sua derivata. Verifichiamoche ∂† = −∂.

(f, ∂(g)) =

∫ b

a

f(x)d

dx(g(x)) dx = ( integrando per parti )

f(x)g(x)∣∣ba−∫ b

a

(d

dxf(x))g(x) dx =

( dato che le funzioni sono periodiche )

=

∫ b

a

− d

dx(f(x))g(x) dx = (−∂f, g).

Definizione 7.1 Un operatore si chiama autoaggiunto o hermitiano se L = L†;una matrice si chiama autoaggiunta o hermitiana se e uguale alla sua aggiunta.Un operatore si dice antiautoaggiunto (o anti hermitiano) se il suo aggiunto e ilsuo opposto (cioe, L+L† = 0). Osserviamo che se L e hermitiano, i L e antiher-mitiano e viceversa. Nel caso reale, una matrice hermitiana e una matrice checoincide con la sua trasposta, ed e detta piu comunemente matrice simmetrica(omettendo ”rispetto alla riflessione secondo la diagonale principale”).

Esempi. Le matrici di Pauli definite in (2.9) sono (cosı come l’operatore ∂discusso qui sopra, antiautoaggiunte. L’operatore i~∂ e autoaggiunto.

Nel seguito considereremo autovalori ed autovettori di operatori (matrici)hermitiani.

Nota. Un operatore autoaggiunto e rappresentato, in una base ortonormaleda una matrice autoaggiunta. Questa proprieta e invariante per coniugio permatrici unitarie, ovvero matrici la cui inversa coincide con la aggiunta. Duebasi ortonormali in uno spazio vettoriale complesso (finito dimensionale) sono

37

collegate da una matrice unitaria.Esercizio. Dimostrare queste affermazioni, ricordando che

(AB)† = B†A† notare l’inversione dell’ordine

e(G−1)† = (G†)−1.

Esercizio. Dimostrare anche queste ultime due affermazioni.

Proposizione 7.2 Se λ e un autovalore di un operatore hermitiano H, alloraλ e reale (λ = λ; nel caso di operatori antihermitiani, λ e immaginario puro.

Dimostrazione. Se λ e un autovalore di H , allora esiste un vettore non nulloψ tale che

Hψ = λψ,⇒, (ψ,Hψ) = (ψ, λψ) = λ(ψ, ψ);

Ma (ψ,Hψ) = (H†ψ, ψ); dato che H† = H , quest’ultima equazione diventa(λψ, ψ) = λ(ψ, ψ).

Nella sezione precedente, abbiamo visto che autovettori di un operatore qual-siasi relativi ad autovalori distinti sono linearmente indipendenti. Per operatoriHermitiani, vale una proprieta piu forte, ovvero:

Proposizione 7.3 Siano λ1 e λ2 due autovalori distinti di un operatore Her-mitiano H : V → V , e siano ψ1 e ψ2 due autovettori relativi, ovvero,

Hψ1 = λ1ψ1, Hψ2 = λ2ψ2, con λi ∈ R, ψi 6= 0, i = 1, 2. (7.2)

Allora ψ1 e ψ2 sono ortogonali.

Dimostrazione. Da un lato

(ψ1, Hψ2) = (ψ1, λ2ψ2) = λ2(ψ1, ψ2)

Dall’altro (utilizzando H = H† e il fatto che gli autovalori sono reali),

(ψ1, Hψ2) = (H†(ψ1), ψ2) = (Hψ1, ψ2) = (λ1ψ1, ψ2) = λ1(ψ1, ψ2)

Sottraendo queste due relazioni si ha

0 = (ψ1, Hψ2) − (ψ1, Hψ2) = (λ2 − λ1)(ψ1, ψ2).

Dato che abbiamo supposto λ1 6= λ2 deve essere (ψ1, ψ2) = 0.

38

Nota La semplicita della dimostrazione di questa proposizione non rende gius-tizia alla sua importanza. Di fatto, la proprieta di ortogonalita di autovettorirelativi ad autovalori differenti e l’elemento cruciale che assicura la diagonaliz-zabilita di operatori (matrici) Hermitiani.

Una generalizzazione della proprieta qui sopra e la seguente. Dato uno spazioEuclideo V , ed un suo sottospazio vettoriale, W ⊂ V , il complemento ortogonaleW⊥ di W in V e definito nel seguente modo:

W⊥ := {y ∈ V t.c. (y, x) = 0, ∀x ∈W}, (7.3)

o, a parole, e l’insieme (che si dimostra essere un sottospazio vettoriale di V )di tutti quei vettori che sono ortogonali (secondo ( , )) a ogni elemento delsottospazio assegnato W .

Proposizione 7.4 Sia H : V → V un operatore hermitiano, e sia W un sot-tospazio invariante per H, ovvero tale che

H x ∈W ∀x ∈W. (7.4)

Allora anche il suo complemento ortogonale W⊥ e invariante sotto H, ovvero

H y ∈W⊥ ∀ y ∈W⊥. (7.5)

Dimostrazione. Esplicitando la (7.5), dobbiamo dimostrare che per tutti gliy tali che (y, x) = 0, ∀x ∈ Wsuccede che(x,Hy) = 0, ∀x ∈W .Ora:

(x,Hy) = ((H†x), y) = (H e hermitiano ) = (Hx, y), ∀x, y.

Ma, se x ∈ W , Hx ∈ W per l’ipotesi (7.4), e quindi (Hx, y) = 0, dato chey ∈W⊥. Dunque (x,Hy) = 0 se x ∈W , ovvero Hy ∈W⊥.

Da questi risultati segue la diagonalizzabilita di un operatore Hermitiano H ,ovvero che H “ammette una base di autovettori”. L’argomento procede perinduzione “a ritroso”. Descriviamolo algoritmicamente.

Passo 1Si considera dapprima H1 ≡ H : V → V ; il polinomio caratteristico di H0

ammette (per il teorema fondamentale dell’algebra) una radice λ1. In particolarequesta e una radice reale. In corrispondenza di λ1, esiste6 almeno un autovettoreψ1,

H1ψ1 = λ1ψ1

6Questo e un teorema: data una radice del polinomio caratteristico di una matrice, alloraesiste almeno un autovettore. Il problema della non diagonalizzabilita di una matrice nasce dalfatto che non e detto che ad una radice di ordine n del polinomio caratteristico corrispondanoesattamente n auutovalori indipendenti

39

Considero allora V1 := {spazio generato da ψ1}, e, soprattutto, il suo comple-mento ortogonale V ⊥

1 . Per la proposizione (7.4), H definisce un operatore

H2 := H|V ⊥1

: V ⊥1 → V ⊥

1 .

Questo operatore e ben definito ed Hermitiano. Quindi posso tornare al passo1, e riapplicare l’argomento.

Dopo un numero N = dimV di passi si costruisce la base richiesta.Il procedimento qui sopra illustra anche l’ultima particolarita saliente degli

operatori Hermitiani. Consideriamo la sequenza degli autovalori7 λ1, λ2, · · · , λN ,e quella degli autovettori relativi {ψ1, ψ2, . . . , ψN}. Per costruzione, gli ψj sonoortogonali l’un l’altro, i.e., (ψi, ψj) = 0, i 6= j. Quindi, eventualmente dividendoper ‖ψj‖, posso considerare una nuova sequenza di autovettori {ψ′

1, ψ′2, · · · , ψ′

N},fatta da vettori ortonormali, i.e.,

(ψ′i, ψ

′j) = δij.

Se {vk} e una base ortonormale di V (e.g., la base standard in CN), allorauna matrice U che diagonalizza (la matrice H rappresentativa di) H , si ottienegiustapponendo le colonne delle componenti degli autovettori ψ′

i rispetto allabase considerata.

La aggiunta di U e la matrice la cui i-esima riga e formata dai complessiconiugati di queste componenti. Consideriamo il prodotto della matrici U† · U.L’elemento di posto k, j, e, per definizione, la somma termine a termine (su l)dei prodotti degli elementi di posto k, l di U† (cioe il complesso coniugato dellacomponente l-esima del k-esimo autovettore) per gli elementi di posto l, j di U,ovvero la componente l-esima del j-esimo autovettore. In breve,

[U† · U

]kj

= (ψk, ψj)V = δkj

In modo compatto, U† · U = 1. Quindi la matrice U che diagonalizza un op-

eratore Hermitiano rispetto ad una base ortonormale di autovettori soddisfa lacondizione

U−1 = U

†;

una tale matrice si dice Unitaria (la corrispondente condizione nel caso reale eO−1 = OT , e la matrice viene detta ortogonale). Un operatore che, in una baseortonormale, viene rappresentato da una matrice unitaria si dice unitario.

Gli operatori unitari godono della seguente proprieta caratteristica:

Proposizione 7.5 U : V → V e unitario se e solo se, ∀x, y ∈ V ,

(U(y), U(x)) = (x, y), (7.6)

cioe se conserva i prodotti scalari tra vettori (e, in particolare, le loro norme).

7Non e detto che i λi siano tutti distinti, ma questo non importa

40

Dimostrazione Da un lato, possiamo scrivere il membro sinistro della (7.6)come

(U(y), U(x)) = (U †(U(y)), x) = ( se U † · U = 1) = (y, x).

D’altro canto, sia ei una base ortonormale di V . Allora

U(ek) =∑

j

Ukjej ,

Allora,

(U(ek), U(el)) =∑

j

n

UkjUln(ej , en).

Ma la base e ortonormale, dunque (ej , en) = δjn. La somma doppia di quest’ultimaequazione diventa una somma singola (per la proprieta del simbolo δ di Kro-necker, e.g., su j, ovvero

(U(ek), U(el)) =∑

j

n

UkjUlnδjn =∑

n

[U†]nk︷︸︸︷Ukn Uln =

n

UlnU†nk = [UU

†]lk.

Dato che (U(ek), U(el)) = (ek, el) = δkl = δlk, ne segue che [UU†]lk = δlk.

Ritornando a considerare un operatore autoaggiunto H , possiamo sintetizzarele considerazioni fin qui fatte nel seguente

Teorema 7.6 Un operatore (matrice) autoaggiunto (a) si diagonalizza tramiteun operatore (matrice) unitario (a).

Nel caso dello spazio euclideo V = E3, un operatore lineare ortogonalee dunque un operatore lineare che conserva gli angoli tra i vettori e le lorolunghezze. Dunque e un operatore che rappresenta una rotazione rigida attornoad un asse8.

7.1 Uno spazio euclideo notevole

In questa sezione finale studieremo in modo informale uno spazio euclideo com-plesso (in generale, specie nel caso infinito dimensionale, tali spazi si chiamanospazi di Hilbert) di notevole interesse in meccanica quantistica.

Definizione 7.7 Chiamiamo ′L2(R,C) lo spazio delle funzioni f , definite sull’assereale a valori complessi, derivabili infinite volte, ”a quadrato integrabili”, ovverotali che valga ∫

R

|f(x)|2dx <∞. (7.7)

8A meno di riflessioni.

41

Lo spazio ′L2(R,C) e dotato di un prodotto scalare definito, come negli altricasi di spazi di funzioni su intervalli della retta reale, da

(f, g) =

R

f(x)g(x) dx. (7.8)

Infatti, una applicazione, diretta ma non banale, della disuguaglianza di Cauchy–Schwartz mostra che,

R

|f(x)|2dx e

R

|g(x)|2dx <∞ ⇒∫

R

f(x)g(x) dx <∞,

ovvero che, date f, g ∈ ′L2(R,C), allora (f, g) e ben definito; il fatto che siaun prodotto euclideo si mostra come nel caso di funzioni definite su intervalli.Osserviamo che ogni f ∈ ′L2(R,C) si annulla all’infinito (cioe limx→±∞ f(x) =0); questo permette di rendersi conto che gli operatori −i∂, e dunque anche−∂2

x = (−i∂)2 sono hermitiani su ′L2(R,C). In ′L2(R,C) consideriamo lo spazioF delle funzioni della forma

f(x) = P (x) exp (−x2

2), dove P e un polinomio.

Su F definiamo l’operatore

H : F −→ Ff(x) 7→ (−1

2∂2x + 1

2x2)(f(x)) = −1

2f ′′(x) + x2 f(x).

(7.9)

Vogliamo verificare che l’operatore H ammette, la sequenza di numeri

λn = (n+1

2), n = 0, 1, . . .

come autovalori, e come corrispondenti autovettori funzioni fn della forma

fn = Pn(x) exp (−x2

2),

per polinomi Pn di grado n, univocamente definiti (a meno di una costantemoltiplicativa, come e ovvio).

Per semplicita notazionale, consideriamo l’operatore H motiplicato per 2,ovvero mostriamo che

H ′ := −∂2x + x2

ha autovalori dati da λn = 2n+ 1, n = 0, 1, . . ..Procediamo prima con esempi di grado basso, cominciando come ovvio con

n = 0. Abbiamo, detta ψ0 := exp (−x2

2),

dψ0

dx= −xψ0,

d2

dx2ψ0 = −ψ0 + x

dψ0

dx= −ψ0 + x2ψ0 (7.10)

42

Dunque,

H ′(ψ0) = −(∂2x + x2)(ψ0) = −(−ψ0 + x2ψ0) + ψ0 = ψ0.

Dunque, la affermazione e vera per n = 0. Consideriamo il caso n = 1, eψ1 = (x + a)ψ0. Abbiamo, in questo caso,

ψ′1 = aψ0 − x(x + a)ψ0,⇒, ψ1” = (x3 + ax2 − 3 x− a)ψ0

Allora,

H ′(ψ1) =(−(x3 + ax2 − 3 x− a) + (x2(x + a))

)ψ0 = (3x+ a)ψ0.

D’altro canto, λψ1 = (λ x+ λ a)ψ0; dunque l’uguaglianza

H ′ψ1 = λψ1

e vera se e solo se λ = 3, a = 0; vediamo che per n = 1 la affermazione e vera,con ψ1 = xψ0.

Per n generico, si puo procedere nel seguente modo:Si osserva che

d2

f(xexp (−x

2

2)) =

(f ′′(x) − 2 x− f(x) + x2f(x)

)exp (−x

2

2)),

il che implica che

H(f(x) exp (−x2

2)) = (− (f ′′(x) + 2 x+ f(x)) exp (−x

2

2).

e dunque l’equazione agli autovalori H ′ψ = λψ si scrive come

(− (f ′′(x) + 2 x+ (1 − λ)f(x)) exp (−x2

2) = 0,⇔ f ′′(x) + 2 x+ (1 − λ)f(x).

(7.11)Ora, se f(x) = Pn(x) e un polinomio di grado n, con coefficiente leading 1,

ovvero

Pn(x) = xn +n−1∑

k=0

xk, o Pn =n∑

k=0

akxk, an = 1,

abbiamo che la (7.11) diviene:

−n∑

k=2

(k(k − 1)ai)(xk−2 + (

n∑

k=1

(2kakxk) +

n∑

k=0

((1 − λ)akxk) = 0. (7.12)

Quindi per risolvere il nostro problema basta verificare che questa equazione erisolubile nello spazio dei polinomi, ovvero dei coefficienti {a0, . . . , an−1}.

43

Consideriamo il temine di ordine piu elevato (ovvero n) in (7.12); il primoaddendo non contribuisce; dunque si ha

(2n+ 1 − λ) = 0 ⇒ λn = 2n+ 1.

Questa prima equazione determina λn = 2n + 1, e dunque, per lo studio delleequazioni successive possiamo considerare la equazione

−n∑

k=2

(k(k − 1)ak)(xk−2 + (

n∑

k=1

(2kakxk) +

n∑

k=0

((−2n)akxk) = 0. (7.13)

Per il termine di ordine n − 1 di Pn si ha (anche qui il primo addendo noncontribuisce):

2(n− 1)an−1 − 2nan−1 ≡ (−2)an−1 = 0 ⇔ an−1 = 0.

La equazione per an−2 e (qui c’entra anche il primo addendo)

− (n− 2)(n− 3)=1︷︸︸︷an +2(n− 2)an−2 − 2nan−2

≡ −(n− 2)(n− 3) − 2an−2 = 0

⇔ an−2 = −1

4(n− 2)(n− 3)

La equazione per an−3 e

−(n−3)(n−4)an−1 +2(n−3)an−3 −2nan−3 ≡ −(n−3)(n−4)an−1 −6an−3 = 0

Ma abbiamo visto che an−1 = 0, e dunque anche an−3 = 0.In generale, guardando in faccia la (7.13) si osserva che, per i coefficienti ai

questa da luogo ad equazioni ricorsive che determinano il termine ap−2, noto iltermine ap; infatti si ha, per p = n− l, l = 2, . . . , n− 1

−(n− l − 1)(n− l − 2)an−l − 2lan−l−2 = 0

e, per l’ultimo termine (p = 0 ↔ l = n), (qui il secondo addendo della (7.13)non contribuisce)

−2a2 − 2na0 = 0,⇔ a0 = −1

na2.

Questo conclude la dimostrazione.

Osservazioni. 1) E evidente che Pn(x) non e la funzione nulla; dato che

(ψn, ψn) =

R

P 2n(x) exp(−x2) dx

e un numero finito (l’integrando decade esponenzialmente), chiamiamolo cn9 ,

se considero ψ′n = ψn

cnho

9E.g., c0 =∫

Rexp(−x2)dx =

√π

44

i) Hψ′n = (n+ 1

2)ψ′

n

ii) (ψ′n, ψ

′n) = 1 (gli autovettori “primati” hanno norma pari ad 1).

2) (ψn, ψm) = 0 se n 6= m (Autovettori corrispondenti ad autovalori distinitisono “ortogonali”!); in particolare si ha anche che

(ψ′n, ψ

′m) = 0 se n 6= m,

ovvero i vettori {ψ′n}n=0,1,2,... formano una famiglia (o sistema) di vettori ortonor-

mali in L2(R,C)10

3) I polinomi corrispondenti ai vettori ψ′n, ovvero

P ′n ≡ ψ′

n exp(x2) ≡ Pn√cn

si chiamano Polinomi di Hermite. Osserviamo che la relazione di ricorrenza

ak+2 = G(ak), an = 1, an−1 = 0

implica che i polinomi di Hermite sono pari se n e pari e dispari se n e dispari.

10In un senso opportuno, essi formano una base nello spazio di Hilbert L2(R,C) .

45