Lezioni Di Algebra Lineare (Cabib)

80
Lezioni di Algebra Lineare E. Cabib 1 1 Dipartimento di Ingegneria Civile e Architettura, Universit` a di Udine, Via delle Scienze 208, 33100 Udine, Italy ([email protected]).

Transcript of Lezioni Di Algebra Lineare (Cabib)

Page 1: Lezioni Di Algebra Lineare (Cabib)

Lezioni di

Algebra Lineare

E. Cabib 1

1Dipartimento di Ingegneria Civile e Architettura, Universita di Udine, Via delleScienze 208, 33100 Udine, Italy ([email protected]).

Page 2: Lezioni Di Algebra Lineare (Cabib)

Indice

1 Spazi vettoriali 31.1 Alcune strutture algebriche . . . . . . . . . . . . . . . . . . . . . 31.2 Nozioni fondamentali ed esempi . . . . . . . . . . . . . . . . . . . 51.3 Spazi unitari e spazi normati . . . . . . . . . . . . . . . . . . . . 131.4 Spazio euclideo, traslazioni e vettori . . . . . . . . . . . . . . . . 211.5 Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2 Matrici 332.1 Operazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332.2 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.3 Sistemi lineari, matrice inversa . . . . . . . . . . . . . . . . . . . 412.4 Sistemi lineari, rango . . . . . . . . . . . . . . . . . . . . . . . . . 432.5 Il rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . . 46

3 Applicazioni lineari 493.1 Definizioni ed esempi . . . . . . . . . . . . . . . . . . . . . . . . . 493.2 Lo spazio delle applicazioni lineari . . . . . . . . . . . . . . . . . 543.3 Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . 573.4 Diadi e proiezioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 613.5 Forme bilineari e forme quadratiche . . . . . . . . . . . . . . . . 633.6 Relazione tra un vettore e un tensore emisimmetrico . . . . . . . 653.7 Le isometrie di En, tensori ortogonali e cinematica rigida . . . . . 67

4 Autovalori e autovettori 704.1 Formulazione del problema ed esempi . . . . . . . . . . . . . . . 704.2 Autovalori semplici . . . . . . . . . . . . . . . . . . . . . . . . . . 744.3 Proprieta spettrali delle forme hermitiane e anti-hermitiane . . . 754.4 Proprieta estremali degli autovalori di una forma quadratica . . . 77

1

Page 3: Lezioni Di Algebra Lineare (Cabib)
Page 4: Lezioni Di Algebra Lineare (Cabib)

Capitolo 1

Spazi vettoriali

1.1 Alcune strutture algebriche

Insiemi su cui sono definite leggi di composizione tra gli elementi, noteanche come operazioni, prendono il nome di strutture algebriche. Una strut-tura algebrica e tanto piu ricca quanto maggiore e il numero delle operazionio il numero di proprieta cui sono soggette. L’algebra astratta e la discplina,sempre in continua evoluzione come tutti campi della Matematica, che ha peroggetto la definizione e lo studio delle strutture algebriche che di volta in vol-ta, per varie motivazioni teoriche e/o applicative, possono richiamare l’interessenell’ambiente scientifico.

L’algebra astratta in se non sara considerata in questo corso, tuttavia riteni-amo utile per il seguito vedere brevemente qualche definizione e qualche esempiosenza nessuna pretesa di approfondimento.

• Gruppi - Si chiama gruppo un insieme G munito di un’operazione binariainterna, cioe di una legge di composizione ∗ : G×G → G che gode delle proprieta

- associativa: (a ∗ b) ∗ c = a ∗ (b ∗ c) ∀a, b, c ∈ G,- esistenza dell’identita: ∃e ∈ G : a ∗ e = a ∀a ∈ G,- esistenza dell’inverso: ∀a ∈ G ∃a−1 ∈ G : a ∗ a−1 = e .

Se in piu vale la proprieta commutativa: a ∗ b = b ∗ a allora G si chiamagruppo commutativo o gruppo abeliano. Se vale solo la proprieta associativa Gviene detto semigruppo

Si dimostra facilmente che l’identita e unica, che l’inversa e unica e cheagiscono come tali sia destra che a sinistra.

Un sottoinsieme H di G che e a sua volta un gruppo si chiama sottogruppodi G.

Per fare degli esempi, sono gruppi commutativi l’insieme degli interi conl’addizione, l’insieme delle rotazioni rispetto ad uno stesso asse, ma e un grupponon commutativo l’insieme di tutte le rotazioni dello spazio. Tra i gruppi finitiricordiamo le simmetrie di un poligono regolare di n lati o la somma negli

3

Page 5: Lezioni Di Algebra Lineare (Cabib)

4 Capitolo 1. Spazi vettoriali

interi modulo un certo numero intero. La circonferenza dei numeri complessi dimodulo 1 e un sottogruppo di C rispetto al prodotto.

Di un certo interesse anche per noi e il gruppo Sn delle n! permutazioni su uninsieme Sn di n elementi, ad esempio formato dai numeri naturali da 1 a n. Unapermutazione σ ∈ Sn e una funzione iniettiva, quindi anche bigettiva, da Sn inse stesso. L’operazione e la composizione con identita i(h) = h. Generalmenteuna permutazione viene indicata con la notazione

σ =(

1 2 . . . nσ(1) σ(2) . . . σ(n)

)

mentre per la composizione si dispongono una dopo l’altra le permutazioninell’ordine in cui agiscono

σ2 ◦ σ1 =(

1 2 . . . nσ2(1) σ2(2) . . . σ2(n)

)(1 2 . . . n

σ1(1) σ1(2) . . . σ1(n)

)

=(

1 2 . . . nσ2(σ1(1)) σ2(σ1(2)) . . . σ2(σ1(n))

).

Ad esempio se

σ1 =(

1 2 3 43 1 4 2

)e σ2

(1 2 3 44 2 1 3

)

si ha

σ2 ◦ σ1 =(

1 2 3 44 2 1 3

) (1 2 3 43 1 4 2

)=

(1 2 3 42 1 3 4

).

La segnatura ε(σ) di una permutazione σ e data dal numero di scambi, cioe dalnumero di coppie (i, j) con i < j tali che σ(i) > σ(j). Se questo numero e parisiamo di fronte ad una permutazione pari, e si pone ε(σ) = 1, altrimenti si trattadi una permutazione dispari, ε(σ) = −1. La σ1 dell’esempio presenta 4 scambied e pari, la σ2 ne presenta 5 ed e dispari e la loro composizione presenta unsolo scambio, e dispari in accordo col prodotto delle rispettive segnature. Pern = 3 la determinazione della segnatura e piu immediata: e pari se conserval’ordine ciclico dei 3 numeri, se invcece lo inverte e dispari.

Sia H un sottogruppo di G. Al variare di a ∈ G le classi laterali rispettiva-mente destre o sinistre

Ha = {ha | h ∈ H} , aH = {ah | h ∈ H}costituiscono ciascuna una partizione di G, una famiglia di sottoinsiemi disgiuntie non vuoti la cui unione coincide con G. Possiamo riconoscere le classi laterali,mettiamo le destre, come le classi di equivalenza della relazione a ∼ b ⇔ a ∈ Hb,ossia ab−1 ∈ H. E ben definito l’insieme quoziente G/H nel caso che H siaun sottogruppo normale, cioe soddisfi la proprieta Ha = aH per ogni a ∈ G(oltreche ovviamente nel caso di G abeliano). Anche G/H e un gruppo in cuil’operazione tra due classi laterali e

aH ∗ bH = abH ,

Page 6: Lezioni Di Algebra Lineare (Cabib)

1.2. Nozioni fondamentali ed esempi 5

H e l’identita e l’inversa di aH e a−1H.

• Anelli - Si chiama anello un insieme A munito di due operazioni, unadi gruppo abeliano, interpretata come additiva, e l’altra, la moltiplicativa, disemigruppo per cui vale la proprieta distributiva

(a + b)c = ab + ac .

L’anello e commutativo se tale e il prodotto. Se e presente l’identita, 1, diciamoche A e un monoide o un anello unitario. Se poi l’anello e commutativo e nonammette divisori dello 0, sodisfa cioe la legge di annullamento del profotto, Aviene detto dominio d’integrita.

Esempi di anelli (unitari) sono i numeri interi, la classe Zk degli interi mod-ulo k, l’insieme P[x] dei polinomi con i coefficienti e la cosidetta indeterminatax che variano in un anello. Anche l’insieme delle funzioni f : X → A, con Xqualsiasi e A anello, e un anello. Come vedremo l’insieme delle matrici a m righee n colonne, anche se a coefficienti in un campo K (v. qua sotto), e un anellonon commutativo, e un monoide se m = n, ma non e mai un dominio d’integrita.

• Corpi - Si chiama corpo un monoide K tale che K − {0} e un gruppo.Nel caso commutativo si chiama campo. Poiche ogni elemento a ∈ K − {0}ammette inverso, si verifica immediatamente che un corpo K e anche un dominiod’integrita. Tra gli anelli Zk i campi sono quelli con k numero intero primo, altricampi sono R e C che useremo spesso nel seguito.

1.2 Nozioni fondamentali ed esempi

A partire dai comuni vettori, finora usati forse in modo intuitivo in Fisica, siperviene al concetto generale di spazio vettoriale nell’ambito del quale rientranomolti casi di notevole interesse. Uno spazio vettoriale V su un campo K, i cuielementi in questo contesto vengono detti scalari, e un insieme munito di dueoperazioni, una somma e un prodotto per scalari, con le seguenti proprieta:

+ : V × V → V di gruppo abeliano,

∗ : K × V → V tale che

(∗)1. 1v = v ∀v ∈ V ,

(∗)2. λ1(λ2v) = (λ1λ2)v ∀λ1, λ2 ∈ K, ∀v ∈ V ,

(∗)3. (λ1 + λ2)v = λ1v + λ2v ∀λ1, λ2 ∈ K, ∀v ∈ V ,

(∗)4. λ(v1 + v2) = λv1 + λv2 ∀λ ∈ K, ∀v1, v2 ∈ V .

I casi piu frequenti sono quelli di uno spazio vettoriale reale, K = R, o comp-lesso, K = C. Per analogia con i vettori cui siamo abituati, anche gli elementidi un generico spazio vettoriale V vengono chiamati vettori o anche punti.

Page 7: Lezioni Di Algebra Lineare (Cabib)

6 Capitolo 1. Spazi vettoriali

Il campo K stesso e uno spazio vettoriale su K, i suoi elementi possono es-sere interpretati sia come scalari che come vettori.

Esempi:

1.1 Rn = {x = (x1, x2, . . . , xn) | xi ∈ R ∀i = 1, . . . , n} e uno spazio vettorialereale con le operazioni di somma

(x1, x2, . . . , xn) + (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn)

e di prodotto per scalari

λ(x1, x2, . . . , xn) = (λx1, λx2, . . . , λxn) .

Analogamente Cn e uno spazio vettoriale complesso con le operazioni

(z1, z2, . . . , zn) + (w1, w2, . . . , wn) = (z1 + w1, z2 + w2, . . . , zn + wn)λ(z1, z2, . . . , zn) = (λz1, λz2, . . . , λzn)

per zi, wi, λ ∈ C. Se K e un campo Kn e uno spazio vettoriale su K.

Una matrice a m righe e n colonne sul campo K, di solito R o C, e una tabelladi elementi di K del tipo

A =

a11 a12 . . . a1n

a21 a22 . . . a2n

...... . . .

...am1 am2 . . . amn

,

brevemente A = (aij) con i = 1, . . . ,m e j = 1, . . . , n. Lungo ogni riga rimanecostante l’indice di riga, il primo, mentre varia solo l’indice di colonna, il secondo,viceversa lungo ogni colonna varia solo il primo e si mantiene costante il secondo.

1.2 L’insieme Mm×n delle matrici m× n a componenti aij ∈ K e uno spaziovettoriale su K con le operazioni

(aij) + (bij) = (aij + bij) e λ(aij) = (λaij)

essendo 0 la matrice con componenti tutte nulle e −A = (−aij) l’opposta di A.

1.3 Le funzioni f : X → K, essendo il dominio X un insieme qualunque,formano uno spazio vettoriale su K con le operazioni definite puntualmente

(f + g)(x) = f(x) + g(x) e (λf)(x) = λf(x) ∀x ∈ X .

Se X = N siamo di fronte al caso particolare dello spazio KN delle successionidi punti di K.

Page 8: Lezioni Di Algebra Lineare (Cabib)

1.2. Nozioni fondamentali ed esempi 7

1.4 L’insieme P[x] dei polinomi su K

P (x) = a0 + a1x + a2x2 + . . . + anxn , x ∈ K ,

e uno spazio vettoriale su K.

Definizione 1.1 Ogni insieme U ⊂ V che sia chiuso rispetto alle due op-erazioni di somma e prodotto per scalari si chiama sottospazio vettoriale diV . V stesso e il sottoinsieme {0} sono esempi di sottospazi che vengono dettibanali.

Esercizio 1.1 Dimostrare che se V1 e V2 sono sottospazi di V allora ancheV1 ∩ V2 (che non e mai vuoto perche contiene almeno 0), V1 × V2 e la lorosomma

V1 + V2 = {v1 + v2 | v1 ∈ V1 , v2 ∈ V2}sono sottospazi di V , ma non lo e in generale V1 ∪ V2, a meno che non siaV1 = V2.

Definizione 1.2 Se V1∩V2 = {0} la loro somma prende il nome di sommadiretta e si indica con V1 ⊕ V2.

Esercizio 1.2 Sia V = V1 + V2. Allora V = V1 ⊕ V2 se e solo se per ogniv ∈ V i vettori v1 ∈ V1 e v2 ∈ V2 tali che v1 + v2 = v sono unici.

1.5 Sono sottospazi vettoriali dell’insieme delle funzioni reali su un intervalloI gli insiemi C0(I), Ck(I), C∞(I), le funzioni limitate, quelle integrabili su I,le funzioni che si annullano tutte in uno stesso punto. E un sottospazio di P[x]l’insieme dei polinomi di grado assegnato.

Esercizio 1.3 Sia H un sottospazio di V . Dimostrare che la relazione u ∼ vse e solo se u−v ∈ H e una relazione di equivalenza. L’insieme quoziente (quelloche ha per elementi le classi di equivalenza) e dato da

V/ ∼= {v + H | v ∈ V } ,

e anch’esso uno spazio vettoriale su K con H come elemento neutro ed e chiam-ato spazio quoziente. Si indica anche con V/H (si confronti questo caso conquanto detto nel §1 a proposito delle classi laterali di un gruppo).

Esercizio 1.4 Se in R2 scegliamo H = {x ∈ R2 | x1 = x2} qual e ilquoziente R2/H?

Definizione 1.3 Si chiama combinazione lineare degli h elementi v1, . . . , vh ∈V ogni espressione del tipo

v = λ1v1 + λ2v2 + . . . + λhvh =h∑

i=1

λiui , λi ∈ K .

Page 9: Lezioni Di Algebra Lineare (Cabib)

8 Capitolo 1. Spazi vettoriali

Dato un insieme S ⊂ V , l’insieme delle combinazioni lineari di elementi di Se, per costruzione, un sottospazio di V , si tratta del piu piccolo tra (dell’inter-sezione di) tutti i sottospazi contenenti S e si indica con L(S). Nel caso di uninsieme finito S = {v1, . . . , vh} si usa anche la notazione [v1, . . . , vh].

Definizione 1.4 L(S) si chiama spazio generato da S e gli elementi diS si chiamano generatori di L(S).

Ovviamente inserendo in S un vettore in piu che gia appartiene a L(S) il nuovosistema genera lo stesso spazio L(S).

Definizione 1.5 Diciamo che u, v ∈ V sono paralleli se esiste λ ∈ K taleche u = λv oppure v = λu.

Si noti che non e superfluo considerare entrambe le possibilita perche se v = 0e u 6= 0 vale solo la seconda con λ = 0.

//1. lo 0 di V e parallelo ad ogni vettore di V ;

//2. u, v ∈ V sono paralleli se e solo se esistono λ, µ ∈ K non entrambi nullitali che

λu + µv = 0 ;

//3. u, v ∈ V sono paralleli se e solo se la rappresentazione di 0 come combi-nazione lineare di u e v non e unica.

La nozione di parallelismo puo essere generalizzata ad una famiglia di piu didue vettori nel seguente modo.

Definizione 1.6 I vettori u1, . . . , uh ∈ V vengono detti linearmente dipen-denti se uno di essi, ad esempio uh (cosa che possiamo supporre a meno di unaridenominazione), e combinazione lineare degli altri h−1. In altri termini, sonolinearmente dipendenti se esistono λ1, λ2, . . . , λh−1 ∈ K tali che

uh =h−1∑

i=1

λiui .

E evidente che se h = 2 la dipendenza lineare si riduce al parallelismo.

Teorema 1.7 I vettori u1, . . . , uh ∈ V sono linearmente dipendenti se esolo se esistono λ1, λ2, . . . , λh ∈ K non tutti nulli tali che

h∑

i=1

λiui = 0 .

Dimostrazione. Se uh =∑h−1

i=1 λiui si ha ovviamente

uh −h−1∑

i=1

λiui = 0

Page 10: Lezioni Di Algebra Lineare (Cabib)

1.2. Nozioni fondamentali ed esempi 9

dove il coefficiente di uh vale 1. Viceversa, supponiamo

h∑

i=1

λiui = 0

con i λi non tutti nulli. Allora, se ad esempio λh 6= 0, si ottiene

uh = − 1λh

h−1∑

i=1

λiui =h−1∑

i=1

(− λi

λh

)ui ,

dunque uh e combinazione lineare degli altri vettori.2

Se un certo insieme di vettori e linearmente dipendente (un altro modo perdire che i suoi elementi sono linearmente dipendenti) evidentemente non e unicala scelta dei coefficienti con i quali si puo ottenere una combinazione linearenulla, dato che gia cio accade con i coefficienti tutti nulli. Anzi, vi sono infinitimodi possibili.

Esercizio 1.5 Dimostrare che u1, . . . , uh sono linearmente dipendenti se esolo se la rappresentazione di ogni u ∈ V come combinazione lineare degli ui

non e unica.

Esercizio 1.6 Dimostrare che u1, . . . , uh sono linearmente dipendenti nelcaso che uno di essi sia nullo.

1.6 In R3, per stabilire se x = (1, 1, 2), y = (0, 3,−1) e z = (1,−5, 4) sonolinearmente dipendenti vediamo se e possibile trovare due scalari a e b tali che

(1,−5, 4) = a(1, 1, 2) + b(0, 3,−1) ,

condizione che si traduce nel sistema in a e b

1 = a−5 = a + 3b4 = 2a− b .

Sostituendo a = 1 nella seconda e nella terza, si vede che queste due equazionisono compatibili e soddisfatte da b = −2, quindi z = x− 2y e i tre vettori sonolinearmente dipendenti. In termini geometrici, hanno la stessa giacitura, ovveroi quattro punti 0, x, y e z sono complanari.

La negazione della proprieta di dipendenza lineare e la seguente.

Definizione 1.8 I vettori u1, . . . , uh ∈ V sono linearmente indipendentise

h∑

i=1

λiui = 0 ⇒ λ1 = λ2 = . . . = λh = 0 .

Page 11: Lezioni Di Algebra Lineare (Cabib)

10 Capitolo 1. Spazi vettoriali

In altre parole sono linearmente indipendenti se l’unica combinazione linearenulla e quella con i coefficienti tutti nulli.

1.7 In R3 x = (1, 1, 0), y = (1, 1, 1) e z = (0, 1, 0) sono vettori linearmente in-dipendenti. Vediamo per quali a, b, c ∈ R si ha ax+by+cz = 0. Esplicitamente,tale condizione si traduce nel sistema

a + b = 0a + b + c = 0b = 0

che ovviamente ha come unica soluzione a = b = c = 0. Considerati come punti,0, x, y e z non sono complanari.

1.8 Le funzioni sen x e cos x sono linearmente indipendenti (si dice anche fun-zionalmente indipendenti) su R, o su un intervallo, perche l’identita a sen x +b cos x = 0 per ogni x ∈ R implica, per derivazione, a cosx − b sen x = 0 perogni x ∈ R. Moltiplicando la prima per sen x, la seconda per cos x e sommandosi ottiene a = 0 e in modo analogo b = 0.

Veniamo adesso a definire i concetti di base e dimensione di uno spaziovettoriale. Cominciamo con l’osservare che se V ammette come generatoriu1, u2, . . . , uk, inserendo in questa lista un nuovo vettore u ∈ V qualsiasi i k + 1vettori u1, u2, . . . , uk, u sono linearmente dipendenti, e questo e ovvio dato cheu, come elemento di V , e una loro combinazione lineare. Nel seguente teoremasi afferma che cio rimane vero anche per un qualunque altro insieme di k + 1vettori.

Teorema 1.9 Se V = [u1, u2, . . . , uk] allora k+1 vettori qualsiasi v1, v2, . . . ,vk, vk+1 ∈ V sono linearmente dipendenti (a maggior ragione la tesi e vera perun numero di vettori ancora piu grande).

Dimostrazione. Si procede per induzione. Se V = {0} non c’e niente dadimostrare. Se V e generato da un solo vettore u 6= 0, scelti in V due vettoriv1 e v2 non nulli (altrimenti la tesi e banalmente vera), esistono due scalariλ1, λ2 6= 0 tali che

v1 = λ1u e v2 = λ2u ,

da cuiλ2v1 − λ1v2 = 0

e la tesi e verificata.Supponiamo vera la tesi per V = [u1, u2, . . . , uk−1]. Se adesso V = [u1, u2,

. . . , uk] e v1, v2, . . . , vk, vk+1 ∈ V sono k + 1 vettori, per ogni i = 1, . . . , k + 1esistono k scalari λij , j = 1, . . . , k, tali che

(1.1) vi =k∑

j=1

λijuj .

Page 12: Lezioni Di Algebra Lineare (Cabib)

1.2. Nozioni fondamentali ed esempi 11

Ora, se accade che per un certo r tutti i λir (che moltiplicano sempre lo stessovettore ur) sono nulli, allora i vi vengono ad essere combinazioni lineari deirestanti k − 1 vettori uj con j 6= r. Possiamo per esempio supporre che cioaccada per r = 1, per cui

vi =k∑

j=2

λijuj ∀i = 1, . . . , k + 1 .

In questo caso, per l’ipotesi induttiva, i vi sono linearmente dipendenti. Seinvece uno dei λi1 e non nullo, per esempio λ11 6= 0, consideriamo la primarelazione delle (1.1)

v1 = λ11u1 +k∑

j=2

λ1juj ,

moltiplichiamola a sinistra e a destra per il generico λi1/λ11 ottenendo

λi1

λ11v1 = λi1u1 +

k∑

j=2

λi1λ1j

λ11uj ,

e sottraiamo da questa ciascuna delle altre, quelle per i ≥ 2. Allora si ottengonole k relazioni

λi1

λ11v1 − vi = λi1u1 +

k∑

j=2

λi1λ1j

λ11uj −

k∑

j=1

λijuj =k∑

j=2

(λi1λ1j

λ11− λij

)uj

per ogni i = 2, . . . , k + 1. Risulta cosı che i k vettori che compaiono al primomembro appartengono allo spazio generato dai k − 1 vettori u2, . . . , uk, quindiper l’ipotesi induttiva esistono k scalari µi non tutti nulli tali che

k+1∑

i=2

µi

(λi1λ11

v1 − vi

)= 0

che e la condizione di annullamento di una combinazione lineare dei vi a coeffi-cienti non tutti nulli.

2

Il Teorema 1.9 dice che se un insieme di generatori di V ha k elementi alloranon possono esistere in V piu di k vettori indipendenti. In questo caso diciamoche V ha dimensione finita, dimV < ∞. Nel caso contrario, se per ogni n ∈ Nesistono in V n vettori linearmente indipendenti, diciamo che V ha dimensioneinfinita, dim V = ∞.

Definizione 1.10 Un insieme di generatori di V linearmente indipendentisi chiama base di V .

Dal teorema segue dunque che in dimensione finita esiste una limitazione su-periore al numero degli elementi che una base puo avere, esiste cioe un certo

Page 13: Lezioni Di Algebra Lineare (Cabib)

12 Capitolo 1. Spazi vettoriali

n ∈ N che non puo essere superato dal numero di elementi di nessuna base.D’altra parte, sempre in dimensione finita, una base si puo sempre costruire.Se non siamo nel caso banale V = {0}, anche partendo da un solo vettore bas-ta aggiugere passo passo ogni volta un nuovo vettore che sia indipendente daiprecedenti e fermarsi non appena si ottiene un sistema di generatori. Oppure siparte da un sistema di generatori e si tolgono via via vettori dipendenti daglialtri finche non si ottiene un sistema indipendente. In altre parole, una basedeve avere un numero sufficiente di elementi perche possa generare lo spazio, maquesti non devono essere troppi in modo da rimanere linearmente indipendenti,il loro numero e lo stesso per tutte le basi. Si dimostra infatti che se dimV < ∞tutte le basi sono equipotenti.

Proposizione 1.11 Siano A = {a1, . . . , am} e B = {b1, . . . , bn} due basi diV . Allora m = n.

Dimostrazione. Se fosse m < n, per il Teorema 1.9 gli elementi di B nonsarebbero indipendenti, quindi non potrebbero formare una base.

2

Definizione 1.12 Il numero di elementi comune ad ogni base di uno spazioV di dimensione finita si chiama dimensione di V e si indica con dim V . SeV = {0} poniamo dim V = 0.

In dimensione infinita la situazione e notevolmente piu complicata in quantol’esistenza di una base, sebbene ormai accettata da tutti, e legata a certe propo-sizioni di teoria degli insiemi, tra loro equivalenti ma non dimostrabili, che nonpossiamo affrontare in questa sede.

1.9 Il corpo K, come spazio vettoriale su se stesso, ha dimensione 1, mentredim Kn = n. Ad esempio dimRn = n come spazio vettoriale reale e dimCn = ncome spazio vettoriale complesso. In ognuno di questi casi si puo scegliere labase canonica

e1 = (1, 0, . . . , 0)e2 = (0, 1, . . . , 0)...en = (0, 0, . . . , 1) .

Ricordando che in C 1 = (1, 0) e i = (0, 1), possiamo identificare C con R2

e Cn con R2n, ma allora, come spazi vettoriali reali, avremo dimC = 2 edimCn = 2n. Per questo talvolta, in casi di possibile ambiguita, e opportunousare la notazione dimK V specificando il corpo degli scalari che intendiamousare.

Esercizi:

1. Dimostrare che eliminando vettori da un insieme indipendente si ottieneancora un insieme indipendente.

Page 14: Lezioni Di Algebra Lineare (Cabib)

1.3. Spazi unitari e spazi normati 13

2. Dimostrare che se dim V = n ogni insieme indipendente di n elementi euna base.

3. Dimostrare che un insieme indipendente S ⊂ V e contenuto in una base.

4. Dimostrare che(1) dim V1 × V2 = dim V1 + dim V2 ,(2) dim V1 ⊕ V2 = dim V1 + dim V2 ,(3) dim V/H = dim V − dim H .

5. Calcolare la dimensione dello spazio Mm×n delle matrici m× n e individ-uarne una base.

6. Trovare una base per lo spazio RN delle successioni reali.

7. Dimostrare che le n + 1 potenze {1, x, x2, . . . , xn} costituiscono una baseper lo spazio dei polinomi di grado n.

1.3 Spazi unitari e spazi normati

Uno spazio vettoriale complesso V viene detto normato se e definita su Vuna norma, cioe un’applicazione ‖ ‖ : V → R che soddisfa

‖ · ‖1. ‖u‖ ≥ 0 ∀u ∈ V e ‖u‖ = 0 ⇒ u = 0 ,

‖ · ‖2. ‖λu‖ = |λ|‖u‖ ∀λ ∈ R ∀u ∈ V ,

‖ · ‖3. ‖u + v‖ ≤ ‖u‖+ ‖v‖ ∀u, v ∈ V .

Una norma induce sullo spazio la metrica con la distanza

(1.2) d(u, v) = ‖u− v‖ ∀u, v ∈ V ,

quindi ogni spazio normato e anche metrico. Il lettore puo facilmente di-mostrare che la (1.2) definisce effettivamente una distanza su V trattandosidi un’applicazione d : V × V → R tale che

(d)1. d(u, v) ≥ 0 ∀u, v ∈ V e d(u, v) = 0 ⇔ u = v , positiva,

(d)2. d(u, v) = d(v, u) ∀u, v ∈ V , simmetrica,

(d)3. d(u, v) ≤ d(u,w)+d(w, v) ∀u, v ∈ V , disuguaglianza triangolare.

Uno spazio vettoriale complesso V viene detto unitario se e definito su V unprodotto scalare, cioe di un’applicazione 〈, 〉 : V × V → C che soddisfa

〈, 〉1. 〈u, v〉 ≥ 0 ∀u ∈ V e 〈u, u〉 = 0⇔u = 0 ,

〈, 〉2. 〈u, v〉 = 〈v, u〉 ∀u, v ∈ V ,

〈, 〉3. 〈λu, v〉 = λ〈u, v〉 ∀λ ∈ C , ∀u, v ∈ V ,

Page 15: Lezioni Di Algebra Lineare (Cabib)

14 Capitolo 1. Spazi vettoriali

〈, 〉4. 〈u + v, w〉 = 〈u,w〉+ 〈v, w〉 ∀u, v, w ∈ V .

Combinando 〈, 〉2. e 〈, 〉3. si ha

〈u, λv〉 = λ〈u, v〉 ∀λ ∈ C ∀u, v ∈ V .

Si osservi inoltre che se V e uno spazio vettoriale reale la 〈, 〉2. si riduce allaproprieta commutativa. La norma naturale di uno spazio unitario e quella chediscende dal prodotto scalare ponendo

(1.3) ‖u‖ =√〈u, u〉 ∀u ∈ V

che ha sempre senso per la 〈, 〉1. La (1.3) si chiama norma indotta dal prodottoscalare.

Teorema 1.13 Vale la disuguaglianza di Cauchy-Schwarz

|〈u, v〉| ≤ ‖u‖‖v‖ ∀u, v ∈ V .

Dimostrazione. Per λ ∈ C si ha

‖u + λv‖2 = 〈u + λv, u + λv〉 = ‖u‖2 + λ〈u, v〉+ λ〈v, u〉+ |λ|2‖v‖2 .

Scegliendo

λ =t〈u, v〉|〈u, v〉|

con t ∈ R, si ottiene

P (t) = ‖u‖2 + 2t|〈u, v〉|+ t2‖v‖2 ≥ 0 ∀t ∈ R ,

quindi deve essere |〈u, v〉|2 − ‖u‖2‖v‖2 ≤ 0.2

Esercizio 1.7 Dimostrare che la norma indotta dal prodotto scalare soddisfale proprieta ‖ · ‖1.− ‖ · ‖3. della norma.

Definizione 1.14 Uno spazio vettoriale V normato la cui distanza indottadefinisce una struttura di spazio metrico completo viene detto spazio di Ba-nach. In particolare viene detto spazio di Hilbert se la norma e quella indottada un prodotto scalare.

1.10 Rn e Cn sono spazi di Hilbert con i rispettivi prodotti scalari

x · y =n∑

i=1

xiyi e z · w =n∑

i=1

ziwi .

Page 16: Lezioni Di Algebra Lineare (Cabib)

1.3. Spazi unitari e spazi normati 15

Dunque uno spazio di Hilbert e anche di Banach, ma non viceversa. Vi sonoinfatti spazi normati la cui norma non discende da alcun prodotto scalare.Consideriamo ad esempio R2 con una norma tra le seguenti

‖x‖p = (|x1|p + |x2|p)1/p se p ≥ 1 e ‖x‖∞ = limp→+∞

‖x‖p = sup{|x1|, |x2|} .

Solo per p = 2 vale l’identita del parallelogrammo

(1.4) ‖x + y‖2 + ‖x− y‖2 = 2‖x‖2 + 2‖y‖2

che non solo e necessaria, ma anche sufficiente per l’esistenza di un prodottoscalare da cui tale norma e indotta (v. l’Osservazione alla fine paragrafo).

Esercizio 1.8 Dimostrare che per 0 < p < 1 la disuguaglianza triangolaredella norma e invertita.

1.11 Come prodotto scalare tra due funzioni integrabili u, v : I → C sull’inter-vallo I ⊂ R possiamo definire

(1.5) 〈u, v〉 =∫

I

u(t)v(t)dt .

Esercizio 1.9 Verificare che si tratta effettivamente di un prodotto scalare.

Esercizio 1.10 Sono date le tre funzioni a0(t) = 1, a1(t) = t, a2(t) = t2 su[−1, 1]. Calcolarne le norme. Quali di esse sono tra loro ortogonali?

Esercizio 1.11 Calcolare la minima distanza della funzione a3(t) = t3 dallospazio generato dalle a0, a1, a2.

Definizione 1.15 Due vettori u e v si dicono ortogonali, e scriviamo u ⊥ v,se 〈u, v〉 = 0.

Consideriamo adesso vettori di norma unitaria e a due a due ortogonali. Poni-amo

δij ={

1 se i = j0 se i 6= j .

Definizione 1.16 Un sistema di vettori {e1, . . . , ek} viene detto ortonor-male se

〈ei, ej〉 = δij ∀i, j = 1, . . . k .

Teorema 1.17 Un sistema ortonormale e sempre indipendente.

Dimostrazione. Supponiamo infatti che

k∑

i=1

λiei = 0

Page 17: Lezioni Di Algebra Lineare (Cabib)

16 Capitolo 1. Spazi vettoriali

per certi λi ∈ C. Moltiplicando per ej si ottiene

0 = 〈ej ,

k∑

i=1

λiei〉 =k∑

i=1

λi〈ej , ei〉 =k∑

i=1

λiδij = λj .

Dunque λj = 0 per ogni j = 1, . . . , k e i vettori ei sono indipendenti.2

Dunque un sistema ortonormale di n elementi in uno spazio V di dimensionen e una base di V che prende il nome di base ortonormale. Calcoliamo lecomponenti di un vettore rispetto ad una tale base.

Teorema 1.18 Le componenti di u ∈ V rispetto ad una base ortonormale{e1, . . . , en} sono i prodotti scalari ui = 〈u, ei〉.

Dimostrazione. Il vettore dato e combinazione lineare degli elementi dellabase, dunque

u =n∑

i=1

uiei .

Moltiplichiamo membro a membro scalarmente per ej

〈u, ej〉 = 〈n∑

i=1

uiei, ej〉 =n∑

i=1

ui〈ei, ej〉 =n∑

i=1

uiδij = uj .

Dunque

u =n∑

i=1

〈u, ei〉ei .

2

La rappresentazione ottenuta ci permette di calcolare facilmente il prodottoscalare tra due vettori, note le loro componenti su una base ortonormale

〈u, v〉 = 〈n∑

i=1

uiei,

n∑

j=1

vjej〉 =n∑

ij=1

uivjδij =n∑

i=1

uivi .

Ad esempio in Vn avevamo definito u · v = |u||v| cos α ed esprimendo i duevettori su una base ortonormale {ei} si ottiene il loro prodotto scalare scrittousando le componenti

u · v =n∑

i=1

ui ei ·n∑

j=1

vj ej =n∑

i=1

uivi .

1.12 La base canonica di Rn, che e la stessa di Cn, e ortonormale.

Page 18: Lezioni Di Algebra Lineare (Cabib)

1.3. Spazi unitari e spazi normati 17

1.13 In Mm×n possiamo definire il prodotto scalare

A ·B =∑

ij

aijbij

essendo A = (aij) e B = (bij). Un sistema ortonormale in Mm×n e

1 0 . . . 00 0 . . . 0...

... . . ....

0 0 . . . 0

,

0 1 . . . 00 0 . . . 0...

... . . ....

0 0 . . . 0

. . .

Una base ortonormale esiste sempre, puo essere costruita ad esempio a partireda una base qualsiasi {a1, . . . , an} mediante un procedimento di ortonormal-izzazione dovuto a Gram-Schmidt. Osserviamo dapprima che dati un vettoreu e un versore e, il vettore u − 〈u, e〉e e complanare ad u ed e, inoltre si hau− 〈u, e〉e ⊥ e, basta calcolare il loro prodotto scalare e constatare che e nullo.

Definiamo allora

e1 = vers a1 ,e2 = vers(a2 − 〈a2, e1〉e1) ,e3 = vers(a3 − (〈a3, e1〉e1 + 〈a3, e2〉e2)) ,...

en = vers(an −n−1∑

i=1

〈an, ei〉ei) .

Verifichiamo adesso che 〈eh, ek〉 = δhk. Se h = k e ovvio. Se h < k bastaverificare che

(ah −h−1∑

i=1

〈ah, ei〉ei) ⊥ (ak −k−1∑

j=1

〈ak, ej〉ej) .

Sviluppando il prodotto scalare tra i due si ottiene

〈ah, ak〉 − 〈ah,

k−1∑

j=1

〈ak, ej〉ej〉 − 〈h−1∑

i=1

〈ah, ei〉ei, ak〉+ 〈h−1∑

i=1

〈ah, ei〉ei,

k−1∑

j=1

〈ak, ej〉ej〉

= 〈ah, ak〉 − 2h−1∑

i=1

〈ah, ei〉〈ak, ei〉 −k−1∑

j=h

〈ak, ej〉〈ah, ej〉+h−1∑

i=1

〈ah, ei〉〈ak, ei〉

= 〈ah, ak〉 −k−1∑

i=1

ahiaki = 〈ah, ak〉 − 〈ah, ak〉 = 0 .

Esercizio 1.12 Ortonormalizzare la base dei polinomi di secondo grado {1, t, t2}su [−1, 1].

Page 19: Lezioni Di Algebra Lineare (Cabib)

18 Capitolo 1. Spazi vettoriali

Esercizio 1.13 Verificare che il sistema trigonometrico{

1√2π

,cosnt√

π,sen nt√

π| n,m ∈ N

}

e ortonormale su [−π, π] col prodotto scalare (1.5).

Una funzione del tipo

P (t) =a0

2+

n∑

h=1

(ah cosht + bh sen ht) ∀t ∈ R

si chiama polinomio trigonometrico. Ricordando le formule di Eulero

cos x =eix + e−ix

2, sen x =

eix − e−ix

2i,

si puo scrivere P anche nella forma

P (t) =n∑

h=−n

cheiht

dove anche l’insieme {eiht/√

2π} e ortonormale su [−π, π] nel senso del prodot-to scalare complesso dell’Esempio 1.11. Nella teoria delle serie di Fourier sidimostra che una funzione f : R → C, 2π-periodica e soggetta a determi-nate ipotesi di regolarita puo essere rappresentata come somma di una serietrigonometrica

f(t) =∑

n∈Z

cneint .

Come si calcolano i coefficienti cn di f? Moltiplichiamo scalarmente a sinistrae a destra per la generica eimt e scambiamo il segno di integrale col segno disomma (l’operazione e lecita, ma andrebbe giustificata). Si ottiene allora

∫ π

−π

f(t)e−imtdt =∑

n∈Z

cn

∫ π

−π

einte−imtdt = 2π∑

n∈Z

cmδmn = 2πcm ,

da cui

(1.6) cn =12π

∫ π

−π

f(t)e−intdt ∀n ∈ Z

che si chiamano coefficienti di Fourier e si indicano con f(n). La (1.6) esprimel’analogo del Teorema 1.18 in un caso di dimensione infinita. La rappresen-tazione in serie trigonometriche della f viene ad essere

f(t) =∑

n∈Z

f(n)eint .

Esercizi:

Page 20: Lezioni Di Algebra Lineare (Cabib)

1.3. Spazi unitari e spazi normati 19

1. Data una terna ortonormale {e1, e2, e3} in V3, verificare che gli insiemi{

1√2

e1 + 1√2

e2,1√2

e1− 1√2

e2, e3

},{

1√3

e1 + 1√3

e2 + 1√3

e3,1√6

e1 + 1√6

e2−√

23

e3,1√2

e1− 1√2

e2

},{

35

e1− 45

e3, 2√

213

e1 + 1√26

e2 + 1√26

e3,25

√213

e1− 5√26

e2 + 35√

26e3

}

sono terne ortonormali.

2. Determinare le componenti di un vettore u ∈ V3 su una base ortonormale{e1, e2, e3} conoscendo il suo modulo e gli angoli α1, α2, α3 che esso formacon i tre vettori della base. Discutere il caso in cui si conosce una delletre componenti invece del modulo.

3. Determinare gli angoli α1, α2, α3 che il vettore u = e1 +2 e2−3 e3 formacon le direzioni positive di {e1, e2, e3} e verificare che cos2 α1 + cos2 α2 +cos2 α3 = 1.

4. Determinare il valore dello scalare λ che rende ortogonali i vettori u =e1 + e2−3 e3 e v = e2 e2 +λ e3.

5. Dato il vettore u = 3 e1− e2−2 e3, decomporlo nella somma di un vettoreparallelo a e = 1√

2(e1− e2) con un vettore opportuno ad esso ortogonale.

6. Stabilire se sono complanari i tre vettori

u = 2 e1 +e2 +5 e3 , v = 3 e1− e2 +3 e3 , w = 2 e1− e2−4 e3 .

Quando una norma deriva da un prodotto scalare? - Nell’Esercizio 8 del §1abbiamo visto che la norma definita a partire da un prodotto scalare soddisfanecessariamente l’identita del parallelogramma. La questione e stata ripresapiu avanti, in questo paragrafo, nell’ambito di spazi vettoriali piu generali. Ladomanda che ci poniamo adesso e: ”Come si fa a stabilire se una norma derivada un prodotto scalare?” Dimostriamo adesso, per semplicita solo nel casoreale, che l’identita del parallelogramma e condizione anche sufficiente affinchela norma derivi dal prodotto scalare, in altre parole se una norma verifica questaproprieta allora esiste un prodotto scalare che la definisce.

Supponiamo dunque che V sia uno spazio normato la cui norma soddisfi la(1.4). Definiamo

(1.7) 〈u, v〉 =14

(‖u + v‖2 − ‖u− v‖2) ∀u, v ∈ V .

Ovviamente l’operazione definita nella (1.7) soddisfa le proprieta 〈, 〉1 e 〈, 〉2.Restano da verificare la 〈, 〉3 e la 〈, 〉4. Per la 〈, 〉4 si ha

(1.8) 〈u,w〉+ 〈v, w〉 =14

(‖u + w‖2 − ‖u− w‖2 + ‖v + w‖2 − ‖v − w‖2)

Page 21: Lezioni Di Algebra Lineare (Cabib)

20 Capitolo 1. Spazi vettoriali

e applicando la (1.7) al secondo membro della (1.8) si ottiene

‖u + w‖2 + ‖v + w‖2 =12‖u + v + 2w‖2 +

12‖u− v‖2 ,

‖u− w‖2 + ‖v − w‖2 =12‖u + v − 2w‖2 +

12‖u− v‖2 ,

da cui

〈u, w〉 + 〈v, w〉 =18

(‖u + v + 2w‖2 − ‖u + v − 2w‖2)

=18

(2‖u + v + w‖2 + 2‖w‖2 − ‖u + v‖2 − 2‖u + v − w‖2 − 2‖w‖2 + ‖u− v‖2)

=14

(‖u + v + w‖2 − ‖u + v − w‖2) = 〈u + v, w〉 .

Per la 〈, 〉3 fissiamo ad arbitrio u e v in V e poniamo

ϕ(λ) = 〈λu, v〉 e ψ(λ) = λ〈u, v〉 ∀λ ∈ R .

Dobbiamo dimostrare che ϕ = ψ su R. Dalla 〈, 〉4 segue

(1.9) ϕ(λ + µ) = ϕ(λ) + ϕ(µ) ,

inoltre ϕ e continua, infatti per la ‖ · ‖3 e la ‖ · ‖2 si ha

|‖µu± v‖ − ‖v‖| ≤ ‖µu‖ = |µ|‖u‖che, combinata con la (1.8) e la (1.9), implica

|ϕ(λ + µ)− ϕ(λ)| = |ϕ(µ)| = 14

∣∣‖µu + v‖2 − ‖µu− v‖2∣∣ → 0

per µ → 0.Dunque ϕ e uniformemente continua su ogni intervallo chiuso e limitato

contenuto in R. Poiche anche ψ lo e essendo lineare, per un noto teorema diunicita del prolungamento uniformemente continuo basta dimostrare che ϕ e ψcoincidono sull’insieme Q dei numeri razionali. Si osservi che per la (1.9)

(1.10) ϕ(n) = nϕ(1) = ψ(n)

per ogni n ∈ N, inoltre, poiche ϕ(−1) = −ϕ(1) per la (1.8), la (1.10) vale anchecon n ∈ Z. D’altra parte per la (1.9) si ha anche

m〈 1m

u, v〉 = 〈u, v〉

per ogni m 6= 0, cioe

(1.11) ϕ

(1m

)= ψ

(1m

).

Combinando la (1.10) con la (1.11) si ottiene il risultato.

Page 22: Lezioni Di Algebra Lineare (Cabib)

1.4. Spazio euclideo, traslazioni e vettori 21

1.4 Spazio euclideo, traslazioni e vettori

Il lettore avra sicuramente una buona familiarita con lo spazio euclideo bidi-mensionale, il piano euclideo, e con quello tridimensionale, lo spazio, che nellaMeccanica Classica viene scelto come modello per lo spazio fisico, l’ambientedove avvengono i fenomeni naturali. Con un piccolo sforzo di astrazione, per ilfatto di non avere alcuna relazione con la nostra esperienza quotidiana, possi-amo immaginare nuovi spazi, simili ai precedenti, ma in dimensione maggioree accettarne l’esistenza. Certo la nostra mente non e capace di figurarsi unipercubo o un’ipersfera in spazi di dimensione maggiore di 3, ma in fondo none sempre necessario ricorrere all’immaginazione se impariamo gradualmente alasciarci guidare dalla nostra capacita logica, aiutata dal confronto col piano elo spazio ordinari.

Come in geometria piana le rette costituiscono una famiglia di sottoinsiemi inqualche modo ”privilegiati”, essendo oggetto degli assiomi, cosı avviene in modosimile nello spazio con i piani, e quindi anche nello spazio n-dimensionale con ipiani di dimensione n−1. Naturalmente, oltre a questi, lo spazio n-dimensionalecontiene anche tutti i piani di dimensione minore, fino a 1, cioe fino alle rette.I piani di dimensione maggiore di 3 sono detti comunemente iperpiani, ma noinon useremo questo termine, perche di solito ne verra specificata la dimensione.

Non intendiamo in questa sede dare definizioni rigorose e affrontare in modoesauriente la teoria degli spazi euclidei, meno semplice di quanto possa sembrare,ci bastera invece mettere in evidenza qualche proprieta di struttura in previsionedi studiare gli spazi vettoriali e le applicazioni lineari.

Accettiamo dunque come spazio euclideo n-dimensionale un insieme En dipunti nel quale sono assegnate n − 1 famiglie infinite (formate cioe da infinitipunti) di sottoinsiemi, rette e piani di ogni dimensione fino a n− 1, soggette adun certo numero di assiomi analoghi a quelli della geometria elementare. Duerette di En si dicono parallele se non si intersecano e se sono contenute in unostesso piano (bidimensionale) di En. Quattro rette complanari e a due a dueparallele in En formano una regione limitata che si chiama parallelogramma.

Assumiamo che su En sia definita una distanza di spazio metrico comple-to che chiameremo distanza euclidea. Ricordiamo che per distanza si intendeun’applicazione d : En × En → R, che soddisfa le tre proprieta:

d1. d(P,Q) ≥ 0 ∀P,Q ∈ En e d(P, Q) = 0⇔P = Q, positivita;

d2. d(P,Q) = d(Q,P ) ∀P, Q ∈ En, simmetria;

d3. d(P,Q) ≤ d(P, R) + d(R, Q) ∀P,Q, R ∈ En, disuguaglianza triangolare.

In piu valgono le seguenti come proprieta caratteristiche della distanza euclidea:

d4. se P,Q, Q′, P ′ sono i vertici di un parallelogramma allora d(P, Q) = d(P ′, Q′);

d5. (En, d) e uno spazio metrico completo.

In realta va osservato che la distanza euclidea non e univocamente determinatadalle proprieta precedenti perche se d e euclidea lo e anche d′ = kd con k > 0.

Page 23: Lezioni Di Algebra Lineare (Cabib)

22 Capitolo 1. Spazi vettoriali

Basterebbe fissare un’unita di misura, comunque possiamo anche ritenere chesia unica a meno di una relazione di equivalenza.

La completezza dello spazio (l’analogo della completezza della retta reale,detta anche continuita) si esprime con la proprieta:

per ogni successione di Cauchy (Ph) ⊂ En esiste P ∈ En tale che limh→∞

d(Ph, P ) = 0 .

Alla distanza d e associato il gruppo (rispetto al prodotto di composizionetra funzioni) delle isometrie di En che chiameremo anche trasformazioni rigide eindicheremo con Hn. Ricordiamo che un’isometria e un’applicazione Φ : En →En tale che

d(Φ(P ),Φ(Q)) = d(P, Q) ∀P, Q ∈ En .

Una traslazione e un’applicazione τ : En → En tale che per ogni coppia P, Q ∈ En

i quattro punti P , Q, τ(Q), τ(P ) sono, nell’ordine, i vertici di un parallelogram-ma. La d4 ci assicura che le traslazioni sono particolari isometrie e costituisconoun sottogruppo commutativo Vn di Hn se si suppone ovviamente che tra essefiguri anche l’identita i, definita da i(P ) = P per ogni P ∈ En.

Il carattere commutativo del prodotto di due traslazioni ci induce ad at-tribuirgli un significato additivo. Questo aspetto viene reso piu evidente se siinterpreta il passaggio dal punto P al punto τ(P ) come la somma di P con unnuovo ente u che chiameremo vettore. La notazione

(1.12) τ(P ) = P + u ∀P ∈ En

ci permette di identificare ogni traslazione con un solo vettore e viceversa. Nonc’e quindi alcuna differenza concettuale tra i vettori e le traslazioni, altro che nel-la notazione, pertanto Vn sara nel seguito lo spazio dei vettori su En. Scrivendola (1.12) nella forma u = τ(P )−P , oppure u = P ′−P se P ′ = τ(P ), possiamointerpretare la nozione di vettore come differenza tra punti, intesa nel senso chele due differenze P ′ −P e Q′ −Q coincidono se esiste una traslazione che portaP in P ′ e Q in Q′. In questo caso diciamo che i due segmenti orientati, o frecce,PP ′ e QQ′ sono equipollenti e individuano lo stesso vettore u, che infatti vieneindicato anche con u = PP ′. Il vettore nullo, 0, e la traslazione identita, per laquale P ′ = τ(P ) = P e ogni freccia rappresentativa si riduce ad un punto.

Cosı, posto τ1(P ) = P + u1 e τ2(P ) = P + u2 per ogni P ∈ En, si ha

τ2 ◦ τ1(P ) = (P + u1) + u2 e τ1 ◦ τ2(P ) = (P + u2) + u1 ∀P ∈ En .

D’altra parte, essendo τ2◦τ1 = τ1◦τ2, non vi e nessuna ambiguita nella scrittura

(1.13) τ2 ◦ τ1(P ) = P + u1 + u2 ∀P ∈ En

in cui si fa corrispondere al prodotto di due traslazioni la somma (commutativa),o risultante, dei due vettori u1 e u2 ad esse associati, secondo la ben nota regoladel parallelogramma. Naturalmente per ricorrenza si puo generalizzare la (1.13)alla somma u di k vettori u1,u2, . . . ,uk ponendo

P + u = τk ◦ τk−1 ◦ . . . ◦ τ1(P ) .

Page 24: Lezioni Di Algebra Lineare (Cabib)

1.4. Spazio euclideo, traslazioni e vettori 23

Una somma di piu vettori si rappresenta dunque disponendo una di seguito all’al-tra le frecce relative ai singoli addendi e unendo poi il primo punto della spezzatacon l’ultimo, oppure applicando ripetutamente la regola del parallelogramma.

u1

u2

u3

u4

u5

u6

u

£££££££££±©©©©©©*B

BBBBBBBBNHHHHHHj

6@

@@@I

´´

´´

´´

´´

´´

´´

´3

Figura 1.1: Somma di vettori u = u1 + u2 + u3 + u4 + u5 + u6

Se τ(P ) = P+u indicheremo con−u, l’opposto di u, il vettore corrispondentealla traslazione inversa τ−1, ossia quel vettore che sommato ad u da 0. Possiamoquindi definire la differenza tra u e v come caso particolare della somma ponendou− v = u + (−v) .

v

u− vu

¢¢¢¢¢¢¢

³³³³³³³³1@@

@@@I

Figura 1.2: Il vettore differenza u− v

Si definisce il prodotto tra un numero reale λ, che nel contesto dell’algebravettoriale viene detto scalare, e una traslazione τ nel seguente modo:

• se τ = i o se λ = 0 allora λτ e l’identita;

• se τ 6= i e λ > 0 allora λτ e la traslazione che porta ogni punto P nelpunto (λτ)(P ) della semiretta uscente da P e passante per τ(P ) tale cheil rapporto tra i segmenti [P, (λτ)(P )] e [P, τ(P )] vale λ;

• se τ 6= i e λ < 0 ci si riconduce al caso precedente ponendo λτ = (−λ)τ−1.

Il prodotto λu si rappresenta allungando del fattore λ una freccia associata adu, con lo stesso verso se λ > 0 e con verso opposto se λ < 0; se λ = 0 la

Page 25: Lezioni Di Algebra Lineare (Cabib)

24 Capitolo 1. Spazi vettoriali

freccia si riduce ad un punto e il risultato dell’operazione e il vettore nullo 0,corrispondente all’identita.

Esercizio 1.14 Dimostrare che Vn e uno spazio vettoriale reale.

La distanza euclidea su En induce su Vn una norma, che in questo contestochiameremo modulo, cosı definita:

|u| = d(P, Q) se u = PQ .

Per la norma e in uso anche la notazione ‖u‖ che noi riserveremo agli spazi indimensione infinita.

Esercizio 1.15 Dimostrare che il modulo e una norma, cioe soddisfa leproprieta ‖ · ‖1.− ‖ · ‖3. del §precedente.

A sua volta il modulo induce su Vn la struttura di spazio metrico completo conla distanza

d(u,v) = |u− v| ∀u,v ∈ Vn ,

in particolare |u| = d(u,0). La distanza in Vn e legata a quella di En in quanto

u = OP e v = OQ ⇒ d(u,v) = d(P,Q) .

Si chiama versore, o vettore unitario, un vettore di modulo 1. Si puo normal-izzare un vettore u 6= 0 considerando il versore versu = u/|u| che ha lo stessoorientamento di u.

Siano u un vettore ed e un versore. Se α e l’angolo tra due semirette orientatecome u ed e, brevemente l’angolo tra u ed e, lo scalare |u| cosα e la proiezioneortogonale di u lungo e, quantita che si annulla se u ed e sono ortogonali o seu = 0. Piu in generale, dati due vettori u e v che formano l’angolo α, |u||v| cos α

eαu · e

u

¢¢¢¢¢¢¢¢¢

³³³1³³³³³³³

BBBB

BBBB

BB

Figura 1.3: Proiezione di un vettore lungo un versore u · e

e la proiezione di u [v] lungo versv [versu] moltiplicata per il modulo di v [u].Questo numero viene detto prodotto scalare tra u e v e indicato con u · v.Mentre dunque u · e rappresenta la proiezione scalare di u lungo e, la proiezionevettoriale e data da u · e e. Si osservi che u · u = |u|2. Il prodotto scalareviene indicato anche con la notazione 〈u,v〉, ma noi la riserviamo al caso delladimensione infinita.

Page 26: Lezioni Di Algebra Lineare (Cabib)

1.4. Spazio euclideo, traslazioni e vettori 25

Esercizio 1.16 Dalle proprieta del modulo dedurre le seguenti per il prodot-to scalare:

〈, 〉1. u · u ≥ 0 ∀u ∈ Vn e u · u = 0⇔u = 0 ;

〈, 〉2. u · v = v · u ∀u,v ∈ Vn ;

〈, 〉3. (λu) · v = λu · v ∀λ ∈ R ∀u,v ∈ Vn ;

〈, 〉4. (u + v) ·w = u ·w + v ·w ∀u,v,w ∈ Vn .

Con la proprieta commutativa si vede subito che il fattore λ nella 〈, 〉3 escedal prodotto scalare anche quando moltiplica il secondo vettore, inoltre la 〈, 〉4continua a valere come proprieta distributiva anche a destra quando una sommae presente al secondo posto.

Tenendo conto delle varie strutture che abbiamo introdotto in questo para-grafo, possiamo riassumere le proprieta di En con le seguenti proposizioni checaratterizzano uno spazio euclideo affine n-dimensionale:

E 1. l’insieme Hn delle isometrie di En e un gruppo rispetto alla composizione;

E 2. Hn ammette un sottogruppo commutativo Vn i cui elementi prendono ilnome di traslazioni;

E 3. Vn e uno spazio vettoriale reale nel quale l’operazione di somma e lacomposizione;

E 4. Vn e munito di un prodotto scalare che soddisfa

u · u = d(P, Q)2 per ogni coppia di punti P,Q ∈ En tali che u = P −Q .

Esercizio 1.17 Risolvere l’equazione

(1.14) α · u = b

dove α ∈ Vn e b ∈ R sono assegnati.

Se α = 0 e b = 0 tutti i vettori u ∈ Vn sono soluzioni, nessun vettore se α = 0e b 6= 0. Supponiamo α 6= 0 e decomponiamo u nella somma

u = u⊥ + k versα

dove u⊥ = u− u · versα versα. Sostituendo nell’equazione si ottiene

α · u = α · u⊥ + kα · versα = k|α| = b ,

da cui k = b/|α|. Ne segue che soddisfano l’equazione tutti e soli i vettori

(1.15) u = v +bα

|α|2

Page 27: Lezioni Di Algebra Lineare (Cabib)

26 Capitolo 1. Spazi vettoriali

al variare di v nello spazio ortogonale ad α. In termini di punti dello spazioeuclideo En, posto u = P − O e bα/|α|2 = C − O, si ottengono i punti Pdell’iperpiano ortogonale a C−O e passante per C. Qual e l’elemento di minimanorma di questo iperpiano? Poiche dalla (1.15) si ha

|u|2 = |v|2 +|b|2|α|2 ≥

|b|2|α|2

per tutti i v ortogonali ad |α|, l’elemento di norma minima e bα/|α|2, quelloortogonale all’iperpiano stesso, il cui modulo, |b|/|α|, non e altro che la distanzada 0. Il punto O + bα/|α|2 e la proiezione di O sull’iperpiano.

Esercizi:

1. Dimostrare che la funzione u → |u| e lipschitziana e quindi continua, diconseguenza sono continue anche le funzioni u → u · v e v → u · v.

2. Dimostrare che ogni isometria Φ : En → En e iniettiva e continua (vedremopiu avanti che e anche surgettiva) e siccome anche l’inversa e un’isometria,ne segue che e un omeomorfismo.

3. Dimostrare che se u · v = 0 per ogni v ∈ Vn allora u = 0.

4. Dimostrare le disuguaglianze

|u · v| ≤ |u||v| (Schwarz) e ||u| − |v|| ≤ |u− v|

e dedurne le stesse conclusioni dell’Esercizio 1.

5. Dimostrare il Teorema di Carnot

|u− v|2 = |u|2 + |v|2 − 2|u||v| cosα ,

dove α e l’angolo tra u e v.

6. Dimostrare che (u − v) · (u + v) = 0 se e solo se |u| = |v|. Darneun’interpretazione geometrica.

7. Dimostrare l’equivalenza delle seguenti condizioni:

(a) u · v = 0;

(b) |u + tv| = |u− tv| ∀t ∈ R;

(c) |u + tv| ≥ |u| ∀t ∈ R.

8. Dimostrare l’identita del parallelogramma

|u + v|2 + |u− v|2 = 2|u|2 + 2|v|2 .

Page 28: Lezioni Di Algebra Lineare (Cabib)

1.4. Spazio euclideo, traslazioni e vettori 27

9. Dimostrare la disuguaglianza di Young

2|u · v| ≤ |u|2 + |v|2

e la sua versione piu generale

|u · v| ≤ 1p|u|p +

1q|v|q

dove p e q sono due numeri reali tali che p, q ≥ 1 e 1/p + 1/q = 1.

Suggerimento: basta dimostrare che ab ≤ 1pap + 1

q bq con a, b ≥ 0. Porreeξ = ap e eη = bq e usare la convessita dell’esponenziale.

10. Dimostrare che

supu 6=0

α · u|u| = sup

|u|=1

α · u = sup|u|≤1

α · u = |α| .

Osservazioni

Sulla natura di En, sistemi di riferimento - Mettiamo in evidenza alcuniaspetti aspetti dello spazio En che lo rendono particolarmente adatto ad esserescelto come modello dello spazio fisico nella Meccanica Classica.

En e omogeneo: cio significa che la distanza e invariante per traslazioni,quindi le proprieta metriche di En sono le stesse ovunque. Tutti i punti sonouguali e non vi sono punti privilegiati.

En e isotropo: in ogni punto le proprieta di En sono le stesse in tutte ledirezioni, non vi sono direzioni privilegiate. Precisamente, la distanza e an-che invariante per rotazioni. Piu avanti, caratterizzando le isometrie di En,tratteremo anche le rotazioni.

Grazie all’omogeneita e possibile fissare in modo del tutto arbitrario un’origineO ∈ En rispetto alla quale ogni punto P , ad esempio una particella materiale,viene individuato dal vettore posizione r = P −O. Rispetto ad un’altra origineO′ la stessa particella si trova nella posizione r′ = P −O′ legata alla precedentedalla relazione r′ = r + O−O′. I punti Pi ∈ En, aventi le posizioni ri = Pi − 0,relativi alle varie particelle di un sistema materiale formano un sottoinsime diEn che si chiama configurazione del sistema. Con la proprieta di completezzapossiamo immaginare che tutti gli aggregati di particelle distribuite in maniera”sufficientemente fitta” formino dei corpi continui che ammettono come config-urazioni regioni aperte o varieta di En. Con questo schema la materia vienestudiata secondo una scala macroscopica per la quale i punti di En diventanoporzioni ”ragionevolmente piccole” di un corpo.

Page 29: Lezioni Di Algebra Lineare (Cabib)

28 Capitolo 1. Spazi vettoriali

&%

'$

sss ss

ssss sss

¾ - w

E un punto di vista, questo, applicabile a tutti gli stati della materia, solido,fluido ecc., purche il contesto del problema in esame lo permetta, e non e incontraddizione con quello discreto particellare, si tratta semplicemente di unmodello diverso, quello del continuo. Il comportamento delle singole particelle,i loro spostamenti, le reciproche interazioni ecc., viene sostituito da quello delframmento di materia che esse formano, ritenuto abbastanza piccolo da occupareun punto dello spazio.

Grazie all’isotropia, non essendovi direzioni privilegiate, e lecito scegliereuna base qualsiasi di Vn, per semplicita ortonormale, per individuare un vet-tore posizione mediante le sue componenti. Un’origine O ∈ Vn e una base{e1, e2 . . . , en} definiscono su En un sistema di riferimento

S = {O; e1, e2 . . . , en}che ci permette di individuare il punto P rispetto ad O mediante il vettoreposizione

r = P −O =n∑

i=1

xi ei

dove xi = r · ei. Una volta assegnato il sistema di riferimento S si puo anchescrivere senza ambiguita P = (x1, x2, . . . , xn).

1.5 Prodotto vettoriale

Vogliamo adesso descrivere le proprieta di una nuova operazione tra i vettoridello spazio V3 associato allo spazio euclideo E3. Assegnati due vettori u ev, che formano gli angoli α e 2π − α, sia α quello convesso (sen α > 0). Ilprodotto vettoriale, detto anche prodotto esterno, u × v e il vettore di modulouv sen α, ortogonale a u e v e avente il verso indicato dalla vite che avanza, conla capocchia in un piano parallelo a u e v, quando si faccia ruotare u verso vdalla parte di α.

Per definizione, il modulo del prodotto vettoriale l’area del parallelogrammacostruito sui due vettori, inoltre u× v = −v × u e si riduce al vettore nullo see solo se u e v sono paralleli oppure uno di essi e nullo. Una terna ordinata u,v, w si dice destra (o levogira o positivamente orientata) se u × v ha prodottoscalare positivo con w e sinistra nel caso sia negativo; in particolare u, v, u×v

Page 30: Lezioni Di Algebra Lineare (Cabib)

1.5. Prodotto vettoriale 29

e una terna destra. L’espressione u× v ·w, in cui ovviamente si deve calcolareil prodotto vettoriale prima del prodotto scalare, si chiama prodotto misto; essoe nullo se e solo se i tre vettori sono linearmente dipendenti. Il prodotto mistoe il volume con segno del parallelepipedo che ha per lati u, v e w. Osserviamoche una permutazione pari (cio il prodotto di un numero pari di sostituzioni)dei tre vettori lascia inalterato il valore del loro prodotto misto, mentre unapermutazione dispari ne cambia il segno.

Siano e1 ed e2 due versori ortogonali. Se e3 = e1× e2 la terna destra A ={e1, e2, e3} e una base ortonormale (destra) per V e

e1× e2 = e3 e2× e1 = − e3 e1× e1 = 0e2× e3 = e1 e3× e2 = − e1 e2× e2 = 0e3× e1 = e2 e1× e3 = − e2 e3× e3 = 0 .

Introdotto il simbolo di Ricci

εijk =

1 se i valori di i, j, k sono, nell’ordine, una permutazione pari di 1,2,3−1 se i valori di i, j, k sono, nell’ordine, una permutazione dispari di 1,2,30 altrimenti,

le 9 uguaglianze precedenti si possono riassumere tutte insieme nella formacompatta

ei× ej =3∑

k=1

εijk ek ∀i, j = 1, 2, 3 .

Queste relazioni tra i versori di A ci permettono di calcolare le componenti delprodotto vettoriale

(1.16) u× v = ui ei×vj ej = uivj ei× ej = uivjεijk ek

(dove la somma rispetto agli indici ripetuti e sottintesa) da cui, moltiplicandoscalarmente per eh, si ottiene la componente h-esima

(1.17) [u× v]h = εhijuivj .

Inoltre

(1.18) u× v ·w = uivjεijk ek ·w = εijkuivjwk .

Dunque le (1.17) e (1.18) coincidono rispettivamente con i determinanti formali

u×v =

∣∣∣∣∣∣

e1 e2 e3

u1 u2 u3

v1 v2 v3

∣∣∣∣∣∣= (u2v3−u3v2) e1−(u1v3−u3v1) e2 +(u1v2−u2v1) e3 ,

u×v·w =

∣∣∣∣∣∣

u1 u2 u3

v1 v2 v3

w1 w2 w3

∣∣∣∣∣∣= (u2v3−u3v2)w1−(u1v3−u3v1)w2+(u1v2−u2v1)w3 .

Page 31: Lezioni Di Algebra Lineare (Cabib)

30 Capitolo 1. Spazi vettoriali

Per il doppio prodotto vettoriale valgono le seguenti relazioni

(1.19) u× (v ×w) = vu ·w −wu · v e (u× v)×w = vu ·w − uv ·w .

Dimostriamo ad esempio la prima di esse, da cui poi discende subito anchel’altra. Se v×w = 0 e banalmente vera. Nel caso contrario, posto v×w = k e,i vettori e, e×v ed e×w sono indipendenti, per cui esistono scalari α, β e γ taliche

(1.20) u = α e +β e×v + γ e×w .

Poiche per definizione di prodotto vettoriale si ha

(e×v)× e = v e (e×w)× e = w ,

usando la (1.20) al primo membro della (1.19) si ottiene

u× (v ×w) = u× k e = (α e +β e×v + γ e×w)× k e = βkv + γkw ,

mentre al secondo, essendo u · v = γ e×w · v = −γk e u ·w = βk, si ottiene

vu ·w −wu · v = βkv + γkw .

Il prodotto vettoriale non e in generale associativo. Infatti ponendo ugualile due relazioni della (1.19), si vede subito che

u× (v ×w) = (u× v)×w) ⇔ uv ·w −wu · v = 0 ⇔ v × (u×w) = 0

che e verificata quando u e w sono paralleli o quando v e ad essi ortogonale(compreso nel caso banale in cui uno dei tre vettori e nullo).

Vediamo adesso un metodo per esprimere un vettore u come combinazionelineare degli elementi di una base generica A = {α1, α2, α3}. Per calcolare icoefficienti λi nella rappresentazione di u

u = λ1α1 + λ2α2 + λ3α3 ,

moltiplichiamo scalarmente a sinistra e a destra per α2 × α3. In questo modosi trova

u · α2 × α3 = λ1α1 · α2 × α3

dove possiamo dividere a sinistra e a destra per α1 · α2 × α3 per l’indipendenzadegli αi. In definitiva si ottiene

(1.21) λ1 =u · α2 × α3

α1 · α2 × α3, λ2 =

u · α3 × α1

α1 · α2 × α3, λ3 =

u · α1 × α2

α1 · α2 × α3.

In altre parole le componenti di u rispetto alla base A coincidono con i prodottiscalari di u per gli elementi del sistema di vettori

A∗ ={

α1 =α2 × α3

α1 · α2 × α3, α2 =

α3 × α1

α1 · α2 × α3, α3 =

α1 × α2

α1 · α2 × α3,

}

che e linearmente indipendente e si chiama base duale di A. Ovviamente valgonole relazioni αi · αj = δj

i e A = A∗ se e solo se A e ortonormale.

Page 32: Lezioni Di Algebra Lineare (Cabib)

1.5. Prodotto vettoriale 31

Esercizio 1.18 Risolvere l’equazione

(1.22) α× u = β

dove α e β sono assegnati.

Se α = β = 0 la (1.22) e soddisfatta per ogni u ∈ V3 e non ha soluzioni se α = 0e β 6= 0 oppure se α · β 6= 0. Non rimane che studiare il caso α 6= 0 e α · β = 0.Posto c = α×β, α, β e c sono indipendenti, infatti sono a due a due ortogonali,quindi

u = αα + ββ + γc

per certi α, β, γ ∈ R. Sostituendo questa espressione nella (1.22) si ottiene

α× (αα + ββ + γc) = βα× β + γα× c = βc + γα× (α× β) = βc− γ|α|2β = β

che e verificata per qualsiasi α ∈ R, β = 0 e γ = −1/|α|2. Le soluzioni della(1.22) sono dunque tutti e soli i vettori

u = αα− c|α|2 = αα +

β × α

|α|2 , α ∈ R .

In termini di punti dello spazio euclideo E3, posto β×α/|α|2 = C−O e u = P−O,si ottengono tutti i punti P della retta parallela al vettore α e passante per C.

Esercizi:

1. Dimostrare le uguaglianze:

(1) δijδjk = δik , (6) εijhεijk = 2δhk ,(2) δijδjhδhk = δik , (7) εijhεijh = 6 ,(3) δijδjhδhkδki = 3 , (8) εijhεkjhεkrs = 2εirs ,(4) δijεijk = 0k , (9) εijhεjhkεhki = 0 ,(5) εijkεrsk = δirδjs − δisδjr , (10) εijhuiuj = 0h ,

dove e sottintesa la somma rispetto agli indici ripetuti.

2. Dimostrare che il prodotto vettoriale e distributivo in ciascuno dei fattori.

3. Usando la (1.16), dimostrare che

|u× v| = |u||v| sen α

dove α e l’angolo (convesso) tra i due vettori.

4. Dimostrare cheei =

12εijk ej × ek

per i vettori ei di una terna ortonormale.

Page 33: Lezioni Di Algebra Lineare (Cabib)

32 Capitolo 1. Spazi vettoriali

5. Dimostrare le identita in V3:

(1) u× v · u = 0 ,(2) u× v ·w × z = u · vw · z− u · zv ·w ,(3) |u× v|2 + (u · v)2 = |u|2|v|2 ,(4) u× (v ×w) + v × (w × u) + w × (u× v) = 0 ,(5) u× [(α× v)× (β ×w)] + v × [(α×w)× (β × u)] + w × [(α× u)× (β × v)] = 0 ,(6) u× v · (v ×w)× (w × u) = |u · v ×w|2 .

6. Dimostrare che l’area (vettoriale) della superficie di un tetraedro e nulla,cioe

α× β + β × c + c× α + (c− β)× (β − α) = 0 .

Una versione piu generale e la seguente∫

S

n(σ)dσ = 0

dove S e una superficie chiusa e n(σ) il campo dei versori normali.

7. Usando il prodotto vettoriale rifare gli esercizi 4 e 6 del §3.

8. Esprimere il vettore u = e1 +2 e2 +3 e3 come combinazione lineare deivettori

α1 = e1 , α2 = e1 + e2 , α3 = e1 + e2 + e3 .

9. Determinare un versore ortogonale alla giacitura determinata dai vettori

u = e1 + e2 e v = e1 +e2 +e3 .

10. Verificare che la componente ortogonale di un vettore u rispetto alladirezione di un versore e e data da

u⊥ = e×(u× e) .

11. Dimostrare la (1.19) in componenti usando la (5) dell’Esercizio 1.

Page 34: Lezioni Di Algebra Lineare (Cabib)

Capitolo 2

Matrici

2.1 Operazioni

Una matrice a m righe e n colonne su un campo K, di solito R o C, e unatabella di elementi di K del tipo

A =

a11 a12 . . . a1n

a21 a22 . . . a2n

...... . . .

...am1 am2 . . . amn

,

brevemente A = (aij) con i = 1, . . . , m e j = 1, . . . , n. L’insieme Mm×n(K)delle matrici m × n, cioe a m righe e n colonne sul campo K, e uno spaziovettoriale con le operazioni

(aij) + (bij) = (aij + bij) e λ(aij) = (λaij)

essendo 0 la matrice con componenti tutte nulle e −A = (−aij) l’opposta di A.Il prodotto e definito tra due matrici A ∈ Mm×k(K) e B ∈ Mk×n(K) in

cui il numero di colonne della prima coincide col numero di righe della seconda.Precisamente, C = AB ∈ Mm×n(K) ha per componenti

cij =k∑

h=1

aihbhj

che viene detto prodotto righe per colonne. Nello spazio Mn×n(K), che in-dicheremo con Mn(K), delle matrici quadrate sono ben definite sia le operazionivettoriali che quella di prodotto come operazione interna. Si dice allora cheMn(K) e un’algebra. Il prodotto tra matrici non e ricco di proprieta come neicampi numerici piu comuni. Riguardo ad esempio se e commutativo, nel casonon quadrato non ha neanche senso chiederselo, ma anche nel caso quadrato in

33

Page 35: Lezioni Di Algebra Lineare (Cabib)

34 Capitolo 2. Matrici

generale non lo e. Per esempio(

1 11 0

)(1 10 1

)=

(1 21 1

)e

(1 10 1

)(1 11 0

)=

(2 11 0

).

In ogni caso e comunque associativo, (AB)C = A(BC), purche A ∈ Mm×k(K),B ∈ Mk×n(K) e C ∈ Mn×p(K), ma l’identita I = (δij) esiste solo nello spaziodelle matrici quadrate. Inoltre non tutte le matrici quadrate hanno inversa.Cercando ad esempio a, b, c, d tali che

(1 00 0

)(a bc d

)=

(1 00 1

),

si perviene all’assurdo (a b0 0

)=

(1 00 1

).

Infine, mentre 0A = A0 = 0 per ogni A, non vale la legge di annullamento delprodotto, ad esempio

(1 00 0

)(0 00 1

)=

(0 00 0

).

L’insieme Mm×n(K), in quanto gruppo abeliano rispetto alla somma e dota-to di un prodotto associativo e distributivo rispetto alla somma, viene dettoanello. Esistono in Mm×n(K) l’identita destra In e l’identita a sinistra Im cheovviamente coincidono se m = n, caso in cui l’anello viene detto unitario o conidentita.

Per una matrice quadrata A e possibile definire le potenze per induzione

se A 6= 0 A0 = I e An = AAn−1 ∀A ∈ Mn(K) , ∀n ≥ 1 .

Una matrice A viene detta nilpotente se per un certo k ∈ N si ha Ak = 0.Esempi di matrici nilpotenti sono

(0 a0 0

)

0 a b0 0 c0 0 0

.

Si chiama trasposta di A ∈ Mm×n(K) la matrice AT ∈ Mn×m(K) che si ottieneda A scambiando le righe con le colonne, in componenti AT = (aji) se A = (aij).

Esercizio 2.1 Verificare che

T1. (AT )T = A,

T2. (λA + µB)T = λAT + µBT ,

T3. (AB)T = BT AT .

Page 36: Lezioni Di Algebra Lineare (Cabib)

2.2. Determinante 35

Una matrice A, necessariamente quadrata, viene detta simmetrica se A = AT eantisimmetrica se A = −AT .

Esercizio 2.2 Verificare che se A ∈ Mn(K) allora AT A e simmetrica.

Le matrici

(2.1) AS =A + AT

2e AW =

A−AT

2

vengono dette rispettivamente parte simmetrica e parte antisimmetrica di A.La prima di esse e simmetrica, la seconda e antisimmetrica e A = AS + AW .La decomposizione di una matrice in somma della sua parte simmetrica conquella antisimmetrica e unica, infatti se A = S + W , con S simmetrica e Wantisimmetrica, considerando accanto a questa anche la relazione AT = S −W ,per somma e differenza membro a membro si ottiene la (2.1). Poiche l’unicamatrice simmetrica e antisimmetrica allo stesso tempo e 0, si ha Mn(K) =MS

n(K) ⊕MWn (K), essendo MS e MW i sottospazi delle matrici simmetriche e

delle antisimmetriche rispettivamente.La base canonica di Mm×n(K) e quella formata dalle matrici che hanno una

sola componente che vale 1 e tutte le altre nulle. Allora dim Mm×n(K) = mn,pari al numero di queste matrici. Nel caso delle matrici quadrate, il sottospaziodi quelle simmetriche ha come base canonica le matrici che hanno come com-ponenti non nulle una sola componente pari a 1 sulla diagonale o due sole com-ponenti pari a 1, o 1/

√2 per normalizzazione, al di fuori dalla diagonale nei

posti ij e ji. Analoga la base canonica del sottospazio di quelle antisimmet-riche, formata dalle matrici che hanno ad esempio 1, o 1/

√2, nel posto ij e il

valore opposto nel posto ji e naturalmente sempre 0 altrove e sulla diagonaleprincipale. Le rispettive dimensioni sono n(n + 1)/2 e n(n− 1)/2.

2.2 Determinante

Vogliamo costruire una funzione, il determinante, che ad ogni matriceA ∈ Mn(K) associa uno scalare det A ∈ K con certe proprieta. Allo scopo con-viene introdurla come una funzione degli n vettori riga Ai = (ai1, ai2, . . . , ain)o, in modo come vedremo del tutto equivalente, degli n vettori colonna Ai =(a1i, a2i, . . . , ani), i = 1, 2, . . . , n. Scritta la matrice estesamente nelle sue com-ponenti (aij), il determinante si indica anche sostituendo le parentesi tonde conle barre verticali. Tanto per fissare le idee, vediamo il determinante per righe

det(A1, A2, . . . , An)

come una funzione soggetta alle seguenti proprieta:

(det)1. il determinante e lineare in ogni vettore, diciamo per questo multilineare

det(A1, A2, . . . , λA′i + µA′′i , . . . , An)= λ det(A1, A2, . . . , A

′i, . . . , An) + µ det(A1, A2, . . . , A

′′i , . . . , An) ;

Page 37: Lezioni Di Algebra Lineare (Cabib)

36 Capitolo 2. Matrici

(det)2. il determinante e nullo se due righe sono uguali;

(det)3. det I = 1.

Conseguenze:

(a) il determinante e alternante, scambiando due righe il determinante cambiasegno, infatti se all’i-esimo e al j-esimo posto compare la somma Ai + Aj

si hadet(A1, . . . , Ai + Aj︸ ︷︷ ︸

posto i

, . . . , Ai + Aj︸ ︷︷ ︸posto j

, . . . , An) = 0 ,

d’altra parte per linearita

det(A1, . . . , Ai + Aj , . . . , Ai + Aj , . . . , An)= det(A1, . . . , Ai, . . . , Aj , . . . , An) + det(A1, . . . , Aj , . . . , Ai, . . . , An) ,

da cui la tesi;

(b) se una riga e combinazione lineare delle altre il determinante e nullo, bastaosservare che

det(A1, . . . ,

posto i︷ ︸︸ ︷n∑

j=1j 6=i

λjAj , . . . , An) =n∑

j=1j 6=i

λj det(A1, . . . ,

posto j︷︸︸︷Aj , . . . , An) = 0

perche in ogni termine di questa somma la riga Aj compare sempre ancheall’i-esimo posto;

(c) se ad una riga si somma una combinazione lineare delle altre il deter-minante non cambia, basta tener presente che al posto i-esimo comparel’espressione

Ai +n∑

j=1j 6=i

λjAj

e poi applicare la (b).

Ora, ogni vettore riga e combinazione lineare dei vettori eh della base canonicadi Kn

(2.2) Ai =n∑

h=1

aiheh

e se indichiamo con h1 l’indice della somma (2.2) per la A1, con h2 l’indice perla A2 e cosı via, si perviene all’espressione

det(A1, . . . , An) = det

(n∑

h1=1

a1h1eh1 , . . . ,

n∑

hn=1

anhnehn

)

=n∑

h1,h2,...,hn=1

a1h1a2h2 · · · anhn det(eh1 , eh2 , . . . , ehn) .

(2.3)

Page 38: Lezioni Di Algebra Lineare (Cabib)

2.2. Determinante 37

Che relazione c’e tra det(eh1 , eh2 , . . . , ehn) e det(e1, e2, . . . , en) che vale 1 per la

(det)3.? Le righe sono le stesse ma ordinate in maniera diversa, a seconda deivalori degli hi. Se escludiamo che due indici hi e hj possano assumere lo stessovalore se i 6= j, dato che in questo caso il contributo dato nell’ultima sommadella (2.3) sarebbe nullo, siamo di fronte ad una permutazione degli indici, cioead una applicazione iniettiva σ : {1, 2, . . . , n} → {1, 2, . . . , n} che associa adogni valore dell’indice i = 1, . . . , n il valore σ(i) = hi, anch’esso variabile tra 1e n. Poiche dalle (det)1.− (det)3. segue che

det(eh1 , eh2 , . . . , ehn) =

{det(e1, e2, . . . , en) = 1− det(e1, e2, . . . , en) = −1

a seconda che la permutazione i → hi preveda un numero pari o un numerodispari di sostituzioni, cioe di semplici scambi tra due righe, in termini dellacorrispondente segnatura ε(σ), che vale 1 nel caso pari e −1 nel caso dispari, la(2.3) diventa

(2.4) det(A1, . . . , An) =∑

σ

ε(σ)a1σ(1)a2σ(2) · · · anσ(n)

dove la somma e estesa a tutte le n! permutazioni dei numeri 1, . . . , n.Per n = 2 vi sono 2! = 2 permutazioni

{σ(1) = 1σ(2) = 2

e

{σ′(1) = 2σ′(2) = 1

delle quali la prima e l’identita e la seconda e uno scambio, quindi∣∣∣∣a11 a12

a21 a22

∣∣∣∣ = ε(σ)a1σ(1)a2σ(2) + ε(σ′)a1σ′(1)a2σ′(2) = a11a22 − a12a21 .

Una permutazione si indica di solito in questo modo(

1 2 . . . nσ(1) σ(2) . . . σ(n)

).

Per n = 3 vi sono 3! = 6 permutazioni, le 3 pari(

1 2 31 2 3

),

(1 2 32 3 1

),

(1 2 33 1 2

)

e le 3 dispari(

1 2 32 1 3

),

(1 2 33 2 1

),

(1 2 31 3 2

)

da cui∣∣∣∣∣∣

a11 a12 a13

a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣=

∑σ

ε(σ)a1σ(1)a2σ(2)a3σ(3) = a11a22a33 + a12a23a31

+ a13a21a32 − a12a21a33 − a13a22a31 − a11a23a32 .

Page 39: Lezioni Di Algebra Lineare (Cabib)

38 Capitolo 2. Matrici

Particolarmente comoda, ma solo in questo caso con n = 3, e la regola di Sarrusche consiste nel riportare a destra le prime due colonne

a11 a12 a13

a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣

a11 a12

a21 a22

a31 a32

e sommare i prodotti dei termini sulle 3 diagonali NO-SE con gli opposti diquelli lungo le 3 diagonali NE-SO.

Osserviamo che il gruppo delle permutazioni e anche il gruppo delle loro in-verse. Allora, se nella (2.4) riordiniamo i singoli fattori del prodotto a1σ(1)a2σ(2) · · · anσ(n)

in modo che come secondi indici compaiano i numeri 1, 2, . . . , n, posto τ = σ−1,si ottiene

detA =∑

σ

ε(σ)a1σ(1)a2σ(2) · · · anσ(n) =∑

τ

ε(τ)aτ(1)1aτ(2)2 · · · aτ(n)n

= det AT .

Dunque il determinante per colonne coincide col determinante per righe e det A =detAT .

Nella pratica calcolare il determinante applicando la (2.4) non e molto sem-plice, ma non si tratta dell’unico metodo, ne esistono altri piu convenienti cheora vediamo. Sfruttando la linearita possiamo intanto ridurre la (2.4) ad unacombinazione lineare di n somme di quel tipo, ma con permutazioni su n − 1elementi invece che su n. Con riferimento alla prima riga, ma tenendo presenteche cio che diciamo vale allo stesso modo per qualunque riga o qualunque colon-na, esprimiamo intanto A1 come combinazione lineare dei vettori eh della basecanonica e applichiamo la (det)1. ottenendo

(2.5) detA = det

(n∑

h=1

a1heh, A2, . . . , An

)=

n∑

h=1

a1h det(eh, A2, . . . , An) .

Se adesso applichiamo la (2.4) ad ogni determinante che compare in questasomma, osservando che l’unica componente non nulla della prima riga eh e 1all’h-esimo posto, possiamo supporre σ(1) = h volendo tralasciare i termininulli. Si ottiene cosı

(2.6) det(eh, A2, . . . , An) =∑

σ(1)=h

ε(σ)a2σ(2) · · · anσ(n) .

Inoltre nessun σ(i) puo valere h se i > 1 per l’iniettivita delle permutazioni,quindi nella h-esima colonna possiamo sostituire 0 agli aih per i > 1, cioe dallaseconda riga in giu, senza alterare il valore del determinante. Ad esempio∣∣∣∣∣∣

a11 a12 a13

a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣= a11

∣∣∣∣∣∣

1 0 0a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣+ a12

∣∣∣∣∣∣

0 1 0a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣+ a13

∣∣∣∣∣∣

0 0 1a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣

= a11

∣∣∣∣∣∣

1 0 00 a22 a23

0 a32 a33

∣∣∣∣∣∣+ a12

∣∣∣∣∣∣

0 1 0a21 0 a23

a31 0 a33

∣∣∣∣∣∣+ a13

∣∣∣∣∣∣

0 0 1a21 a22 0a31 a32 0

∣∣∣∣∣∣.

Page 40: Lezioni Di Algebra Lineare (Cabib)

2.2. Determinante 39

Il determinante della matrice A′ij , che si ottiene sostituendo 1 all’elemento aij e0 agli altri elementi della i-esima riga e della j-esima colonna, si chiama cofattoredi aij . Si ottiene cosı dalle (2.5) e (2.6) lo sviluppo per cofattori del determinante

(2.7) det A =n∑

j=1

akjA′kj

rispetto alla k-esima riga. Naturalmente possiamo usare anche una colonna e ilsuo valore e indipendente dalla riga o dalla colonna scelta.

Si chiama minore Aij la matrice quadrata di ordine n − 1 che si ottienecancellando la i-esima riga e la j-esima colonna. E evidente dalla (2.6) perh = 1 che

det(e1, A2, . . . , An) = det A11

perche ogni permutazione σ di {1, 2, . . . , n} tale che σ(1) = 1 e anche una per-mutazione di {2, . . . , n} con la stessa segnatura e, viceversa, ogni permutazionedi quest’ultimo insieme puo essere prolungata a 1 senza alterarne la segnaturaponendo σ(1) = 1. Ad esempio

∣∣∣∣∣∣

1 0 00 a22 a23

0 a32 a33

∣∣∣∣∣∣=

∣∣∣∣a22 a23

a32 a33

∣∣∣∣ .

Se invece si considera un generico cofattore del tipo A′ij possiamo portare lai-esima riga e la j-esima colonna in prima posizione, attraverso successive sosti-tuzioni, in modo da ridurre A′ij alla forma A′11, ma ad ogni passo avviene un cam-biamento di segno per un totale di i+j sostituzioni. Allora A′ij = (−1)i+j det Aij

e dalla (2.7) si ottiene lo sviluppo di Laplace del determinante

(2.8) det A =n∑

j=1

(−1)k+jakj det Akj

usando i minori relativi alla k-esima riga.Il vantaggio di questo metodo consiste nel fatto che, a partire dalle matrici di

ordine 2, si puo facilmente arrivare a calcolare il determinante di ogni matrice.Per iterazione della (2.8), o degli sviluppi precedenti, si ricava facilmente ildeterminante di una matrice a blocchi diagonali

det(

A 00 Im

)= det A

dove A ∈ Mn(K), Im e l’identita di Mm(K) e 0 e una matrice di zeri.Torniamo un momento alla (2.4) per dimostrare il seguente importante

risultato.

Teorema 2.1 di Binet - Se A,B ∈ Mn(K) allora

det(AB) = det A detB .

Page 41: Lezioni Di Algebra Lineare (Cabib)

40 Capitolo 2. Matrici

Dimostrazione. Indichiamo con Bj la j-esima riga della matrice B = (bij)

Bj =n∑

h=1

bjheh

per la (2.2). La matrice prodotto scritta per righe e

AB =

n∑

j1=1

a1j1Bj1 , . . . ,

n∑

jn=1

anjnBjn

e passando al determinante, posto jh = σ(h) e portati fuori i simboli di somma,si ottiene

det(AB) =∑

σ

a1σ(1) · · · anσ(n) det(Bσ(1), . . . , Bσ(n))

=∑

σ

a1σ(1) · · · anσ(n)ε(σ) det(B1, . . . , Bn) = det A detB .

2

Adesso possiamo calcolare il determinante di ogni matrice diagonale a blocchi.Se A ∈ Mn(K) e B ∈ Mm(K) allora

det(

A 00 B

)= det

[(A 00 Im

)(In 00 B

)]

= det(

A 00 Im

)det

(In 00 B

)= det A detB

Una matrice A = (aij) ∈ Mn(K) viene detta triangolare superiore se aij = 0per i > j e triangolare inferiore se aij = 0 per i < j. Il metodo di Gauss-Jordan consiste nel sommare ripetutamente, ad opportune righe o a colonne diuna matrice, combinazioni lineari delle altre fino a ridurla alla forma triango-lare inferiore o superiore. Come abbiamo visto queste operazioni non alteranoil valore del determinante, col vantaggio che di fronte alla forma triangolare ilcalcolo del determinante e immediato, non e altro che il prodotto degli elementidella diagonale principale. Per vederlo riprendiamo la (2.4) nel caso triangolareinferiore, l’altro e analogo. Volendo tralasciare i termini nulli, possiamo con-siderare nella sommatoria soltanto le permutazioni σ tali che σ(i) ≤ i. Quindiσ(1) = 1,

σ(2) ≤ 2 e σ(2) 6= 1 ⇒ σ(2) = 2σ(3) ≤ 3 e σ(3) 6= 1, 2 ⇒ σ(3) = 3

e cosı via ottenendo σ(i) = i per ogni i = 1, . . . , n. Lo stesso vale, in particolare,per una matrice diagonale, cioe con gli elementi tutti nulli fuori dalla diagonaleprincipale.

Page 42: Lezioni Di Algebra Lineare (Cabib)

2.3. Sistemi lineari, matrice inversa 41

2.3 Sistemi lineari, matrice inversa

Consideriamo per il momento un sistema lineare a n equazioni e n incognitedel tipo

(2.9)

a11x1 + a12x2 + . . . + a1nxn = b1

a21x1 + a22x2 + . . . + a2nxn = b2

... =...

an1x1 + an2x2 + . . . + annxn = bn .

In termini di A = (aij) ∈ Mn(K), detta matrice dei coefficienti, il vettore delleincognite x = (x1, . . . , xn) ∈ Kn e il vettore dei dati b = (b1, . . . , bn) ∈ Kn,possiamo scrivere il sistema (2.9) nella forma piu sintetica

(2.10) Ax = b .

Considerando invece un’altra forma ancora equivalente

(2.11)

a11

a21

...an1

x1 +

a12

a22

...an2

x2 + · · ·+

a1n

a2n

...ann

xn =

b1

b2

...bn

,

e evidente che esistono soluzioni x del sistema se e solo se b e combinazionelineare delle colonne Aj di A. In particolare la soluzione esiste ed e unicaper ogni b ∈ Kn se e solo se tali colonne sono linearmente indipendenti, cheessendo in tutto n, e condizione necessaria e sufficiente affinche formino unabase di Kn. Supponiamo allora det A 6= 0, sufficiente per l’indipendenza linearedelle colonne, e sia x ∈ Kn l’unica soluzione del sistema. Se adesso inseriamoil vettore b, espresso dalla combinazione lineare (2.11), al posto della j-esimacolonna della matrice A e ne calcoliamo il determinante, si ottiene

det(A1, . . . , Aj−1, b, Aj+1 . . . , An)

= det(A1, . . . , Aj−1,

n∑

h=1

Ahxh, Aj+1 . . . , An) =n∑

h=1

xh det(A1, . . . , Ah, . . . An)

= xj det(A1, . . . , Aj , . . . An) = xj det A

da cui si ricava la Regola di Cramer

(2.12) xj =det(A1, . . . , Aj−1, b, Aj+1, . . . An)

detAj = 1, 2, . . . , n

che fornisce i valori delle incognite.Vi sono due casi degeneri quando le n colonne di A, non formando una

base, generano un sottospazio proprio di Kn. Se b non appartiene a questosottospazio non esistono soluzioni e il sistema si dice incompatibile. Altrimenti,

Page 43: Lezioni Di Algebra Lineare (Cabib)

42 Capitolo 2. Matrici

nel caso compatibile, ve ne sono infinite perche in infiniti modi si puo scrivereun vettore come combinazione lineare di vettori dipendenti.

Come applicazione della Regola di Cramer, vogliamo costruire la matriceinversa, che denoteremo con A−1, di una matrice A ∈ Mn(K). Siccome ilprodotto non e commutativo dobbiamo prevedere l’eventuale esistenza di un’in-versa destra B tale che AB = I e di un’inversa sinistra C tale che CA = I, inseguito facciamo vedere che in realta coincidono. Dal Teorema di Binet seguecomunque che l’inversa di A, destra o sinistra che sia, puo esistere a condizioneche sia det A 6= 0, dato che AB = I implica

det A detB = det(AB) = det I = 1

e nessuno dei due fattori a I membro puo essere nullo. Occupiamoci alloradell’inversa destra B con l’ipotesi det A 6= 0. L’identita I e formata dai vettoricolonna e1, . . . , en, scegliamo tra questi il generico eh e risolviamo il sistemalineare

ABh = eh .

La (2.12) ci fornisce la j-esima componente bjh di Bh

(2.13) bjh =det(A1, . . . , Aj−1, eh, Aj+1, . . . An)

detA= (−1)j+h detAhj

detA

dato che il vettore eh figura nella j-esima colonna.Vediamo adesso che l’inversa sinistra coincide con l’inversa destra. Poiche,

sempre per Binet, si ha det B = (det A)−1 6= 0, anche B ammette un’inversadestra, indichiamola con C. Si ha

C = IC = (AB)C = A(BC) = AI = A ,

ma se l’inversa destra di B coincide con A significa che BA = I, quindi B eanche l’inversa sinistra di A e a questo punto puo essere indicata con A−1 senzaambiguita.

Concludiamo osservando che il prodotto di due matrici invertibili A,B ∈Mn(K) e invertibile, ma questo discende da Binet, e che (AB)−1 = B−1A−1,infatti

(B−1A−1)(AB) = B−1(A−1A)B = B−1B = I .

Infine, osservando la (2.13) si capisce facilmente che il passaggio alla traspostae all’inversa commutano, ma si puo verifiare anche direttamente

(A−1)T AT = (AA−1)T = I ,

da cui

(AT )−1 = (A−1)T .

Page 44: Lezioni Di Algebra Lineare (Cabib)

2.4. Sistemi lineari, rango 43

2.4 Sistemi lineari, rango

Ci occupiamo adesso di sistemi lineari piu generali del (2.11), a m equazionie n incognite, del tipo

(2.14)

a11x1 + a12x2 + . . . + a1nxn = b1

a21x1 + a22x2 + . . . + a2nxn = b2

... =...

am1x1 + am2x2 + . . . + amnxn = bm

che naturalmente possiamo ancora scrivere come in (2.10), ma con A ∈ Mm×n(K),b ∈ Km e, come sopra, x ∈ Kn. Anche questa volta conviene considerarel’analogo della (2.11)

a11

a21

...am1

x1 +

a12

a22

...am2

x2 + · · ·+

a1n

a2n

...amn

xn =

b1

b2

...bm

,

o in forma piu compatta

(2.15)n∑

j=1

Ajxj = b ,

ma dobbiamo tener presente che le colonne Aj dei coefficienti a I membro sonon vettori in Km. Nella (2.15) si chiede di esprimere un dato vettore b ∈ Km

come combinazione lineare degli n vettori Aj , da questo dipende l’esistenza disoluzioni x ∈ Kn, che e cio che veramente ci interessa di un sistema. Dunque

condizione necessaria e sufficiente affinche il sistema sia compatibilee che b appartenga allo spazio generato dai vettori Aj.

Ma il piu grande sottoinsieme indipendente di {A1, A2, . . . , An} genera lo stessosottospazio, e ne e quindi una base, perche gli altri elementi dipendono linear-mente da essi. Si tratta a questo punto di controllare se inserendo anche b inquesta lista piu ristretta si ottiene un sistema dipendente o indipendente. Nelprimo caso b e combinazione lineare dei vettori della base e il sistema lineareammette soluzioni, nel secondo b e indipendente da essi e il sistema non hasoluzioni.

Definizione 2.2 - Si chiama rango, o caratteristica, per colonne, dellamatrice A il massimo numero di colonne di A linearmente indipendenti.

Analoga definizione vale per il rango per righe, ma nel prossimo paragrafo sidimostra che il rango per righe coincide col rango per colonne. Lo possiamoquindi fin da ora chiamarlo rango e indicarlo con rank senza causare ambiguita.

Page 45: Lezioni Di Algebra Lineare (Cabib)

44 Capitolo 2. Matrici

Definizione 2.3 - La matrice ottenuta da A aggiungendo a destra il vettorecolonna b si chiama matrice completa del sistema lineare e si indica con (A|b).Per analogia, in questo contesto, la A prende il nome di matrice incompleta.

Quanto detto sopra si puo riassumere col seguente teorema.

Teorema 2.4 di Rouche-Capelli - Il sistema lineare (2.14) e compatibile see solo se

rank(A|b) = rank A .

Facilmente si prova il seguente risultato.

Proposizione 2.5 Il rango di una matrice qualsiasi e l’ordine della piugrande sottomatrice quadrata che ha determinante non nullo.

Esempi:

2.1 Risolvere il sistema lineare{

x1 − x2 + 2x3 = 0x1 + 2x2 − x3 = 3 .

Dovendo lavorare esclusivamente sui coefficienti, e sempre conveniente passarealla forma matriciale

(1 −1 21 2 −1

)

x1

x2

x3

=

(03

).

Si nota che

rank(

1 −1 21 2 −1

)= rank

(1 −1 21 2 −1

∣∣∣∣03

)= 2 ,

in questo caso infatti tutte i minori 2 × 2 sono non singolari. Ne segue che ilsistema ammette soluzioni. Per trovarle non c’e che esprimere due delle incognitein funzione della terza che, considerata come un parametro, va a far parte deldato a II membro. Ponendo ad esempio x3 = t, ci si trova di fronte al sistemanon singolare di tipo 2× 2

{x1 − x2 = −2t

x1 + 2x2 = t + 3

che per ogni t ∈ K ammette soluzione unica da quanto visto nel § precedentea proposito del metodo di Cramer. Naturalmente le soluzioni del sistema datosono infinite perche dipendono da t

x = (1− t, t + 1, t) t ∈ K ,

diciamo in questo caso ∞1 perche dipendono da un solo parametro.

Page 46: Lezioni Di Algebra Lineare (Cabib)

2.4. Sistemi lineari, rango 45

Dal punto di vista geometrico e interessante osservare che il sistema datodescrive l’intersezione di due piani, non paralleli perche rankA = 2, e le soluzioniformano la retta lungo cui si intersecano. L’intersezione dei due piani e un doppiovincolo per il punto x, il cui grado di liberta e infatti 1 = 3− 2, pari al numerodi parametri indipendenti da cui dipende.

2.2 Risolvere il sistema lineare{

3x1 + 6x2 − 3x3 = 9x1 + 2x2 − x3 = 3 .

Anche in questo caso vi sono soluzioni in quanto

rank(

3 6 −31 2 −1

)= rank

(3 6 −31 2 −1

∣∣∣∣93

)= 1 ,

Ma il rango, comune alla matrice completa e incompleta, non e il massimo possi-bile, una equazione e superflua e i due piani coincidono. Il sistema e equivalentealla sola equazione

x1 + 2x2 − x3 = 3

con ∞2 soluzioni, i punti del piano, che si possono descrivere scegliendo questavolta due delle incognite come parametri

x = (3− 2t + s, t, s) (t, s) ∈ K2 .

Siamo di fronte ad un solo vincolo, un vincolo semplice, e quindi 2 gradi diliberta.

2.3 Risolvere il sistema lineare{

x1 + 2x2 − x3 = 2x1 + 2x2 − x3 = 3 .

Questo sistema non ha soluzioni perche

rank(

1 2 −11 2 −1

)= 1 e rank

(1 2 −11 2 −1

∣∣∣∣23

)= 2 .

I due piani sono paralleli e distinti ed hanno quindi intersezione vuota.Negli esempi precedenti m = 2 < n = 3, vediamo adesso i casi con m = 3 >

n = 2. Non vi sono poi difficolta concettuali nel passaggio a m e n piu grandi.

2.4 Risolvere il sistema

x1 − x2 = 3x1 + x2 = 5x1 + 2x2 = 6 .

Page 47: Lezioni Di Algebra Lineare (Cabib)

46 Capitolo 2. Matrici

Le due matrici, completa e incompleta

A =

1 −11 11 2

e (A|b) =

1 −11 11 2

∣∣∣∣∣∣

356

hanno rango 2, quindi il sistema ha soluzione. Risolto il sistema formato dalleprime due, che ammette l’unica soluzione x = (4, 1), la terza e compatibile conesse, non aggiunge nuove informazioni e puo essere eliminata. Si tratta di trerette nel piano che si incontrano nello stesso punto. L’analogo in dimensionemaggiore potrebbe essere quello di tre piani che hanno in comune una retta.

2.5 Risolvere il sistema

x1 − x2 = 3x1 + x2 = 5x1 + 2x2 = 0 .

In questo caso la terza e incompatibile con le altre due e il sistema non am-mette soluzioni. Del resto, la matrice incompleta ha ancora rango 2, il massimopossibile, ma quella completa ha rango 3 (essendo quadrata significa che hadeterminante non nullo). Rimangono i casi di tre equazioni equivalenti, geo-metricamente tre rette coincidenti, le due matrici hanno rango 1, e i casi dinon esistenza della matrice incompleta con rango 1, tre rette parallele, e quellacompleta con rango 2, due di esse coincidenti, o con rango 3, tutte distinte.

2.5 Il rango di una matrice

Sia data una matrice A ∈ Mm×n(K). Gli m vettori riga A1, . . . , Am gen-erano uno spazio vettoriale di dimensione h ≤ min{m,n} (h ≤ m perche mvettori non possono generare uno spazio di dimensione maggiore a m, h ≤ nperche i vettori riga hanno n componenti e come tali possono essere scritti comecombinazione lineare di una base canonica di n versori e1, . . . , en).

Analogamente Gli n vettori colonna A1, . . . , An generano uno spazio vetto-riale di dimensione k ≤ min{m, n}.

A priori le dimensioni di questi due spazi vettoriali, quello generato dallerighe e quello generato dalle colonne, potrebbero essere diverse. Scopo di questoparagrafo e dare una dimostrazione del fatto che queste dimensioni coincidono.

Ricordiamo che le operazioni elementari sulle righe consistono nel sommaread una riga una combinazione lineare di altre righe, nel moltiplicare una riga peruno scalare e nello scambio di due righe e che queste operazioni non cambianoil sottospazio di Km generato dalle righe. La sua dimensione h viene chiamatarango per righe della matrice A.

Le stesse considerazioni possono essere fatte per le colonne, la dimensione kdel sottospazio di Kn da esse generato viene chiamata rango per colonne dellamatrice A.

Dimostriamo quindi il seguente teorema.

Page 48: Lezioni Di Algebra Lineare (Cabib)

2.5. Il rango di una matrice 47

Teorema 2.6 - Il rango per righe e il rango per colonne di una matriceA ∈ Mm×n(K) coincidono.

Dimostrazione. Ragioniamo dapprima sulle righe. Con operazioni elemen-tari sulle righe possiamo ridurre la matrice A a scala, cioe tale che il primoelemento non nullo di ogni riga (che chiamiamo lo scalino, noto anche comepivot) sia situato piu a destra di tutti gli scalini delle righe che lo precedono. Inquesto modo la matrice A e stata trasformata in una matrice a scala R che hale prime h righe con almeno un elemento non nullo e le ultime m− h righe chesono completamente nulle.Possiamo a questo punto estrarre da R una sottomatrice quadrata R′ di ordine h,formata con le prime h righe di R e con le colonne di R che contengono gli scalini.R′ e una matrice triangolare superiore che ha tutti gli elementi diagonali nonnulli. Il suo determinante, che e il prodotto degli elementi diagonali, e quindidiverso da zero. D’altronde qualunque sottomatrice quadrata di R di ordineh + 1 ha certamente almeno una riga nulla e quindi ha determinante nullo.Questi risultati valgono ovviamente anche per la matrice A: esiste un minore diA di ordine h con determinante non nullo mentre tutti i minori di A di ordineh + 1 hanno determinante nullo. (Si puo facilmente risalire alla sottomatricenon singolare di A tenendo conto degli scambi di righe che hanno portato A inR).

Analogo procedimento puo essere applicato alle colonne: mediante oper-azioni elementari si trasforma A in una matrice a scala C che ha le prime kcolonne con almeno un elemento non nullo e le ultime n− k colonne nulle. (Senon si ha molta pratica con le operazioni elementari sulle colonne si puo in al-ternativa trasformare AT in una matrice a scala con operazioni elementari sullerighe e poi definire C come la trasposta della matrice cosı ottenuta).Possiamo a questo punto estrarre da C una sottomatrice quadrata C ′ di ordinek, formata con le prime k colonne di C e le righe di C che contengono gli scali-ni. C ′ e una matrice triangolare con tutti gli elementi diagonali non nulli e ilsuo determinante e diverso da zero. D’altronde qualunque sottomatrice di C diordine k + 1 ha certamente almeno una colonna nulla e quindi ha determinantenullo.Questi risultati valgono ovviamente anche per la matrice A: esiste un minoredi A di ordine k non nullo con tutti i minori di ordine k + 1 nulli. (Si puo facil-mente risalire alla sottomatrice non singolare di A tenendo conto degli scambidi colonne che hanno portato A in C).

Si capisce allora che deve essere h = k altrimenti c’e una contraddizione,infatti le affermazioni: “tutti i minori di A di ordine h + 1 sono nulli” e “tutti iminori di A di ordine k+1 sono nulli” non sono in contraddizione solo se h = k.

2

Per il teorema precedente non ha piu senso distinguere il rango per righe dalrango per colonne. Il valore comune dei ranghi per righe e per colonne di unamatrice A viene chiamato semplicemente rango della matrice A. Esso coincidecon la dimensione dello spazio vettoriale generato dalle righe di A o, indiffer-

Page 49: Lezioni Di Algebra Lineare (Cabib)

48 Capitolo 2. Matrici

entemente, dalle colonne di A.

Immediata conseguenza del Teorema 2.6 e il seguente risultato.

Teorema 2.7 di Kronecker - Se una matrice A ha rango h allora esiste unminore di A di ordine h con determinante non nullo e tutti i minori di ordinemaggiore di h hanno determinante nullo. In altre parole il rango di A coincidecon il massimo ordine di un minore non degenere di A.

Talvolta il rango di una matrice A viene definito come il massimo ordine di unminore non degenere di A.

Page 50: Lezioni Di Algebra Lineare (Cabib)

Capitolo 3

Applicazioni lineari

3.1 Definizioni ed esempi

Spesso in Matematica ci si imbatte nello studio di determinate classi difunzioni che conservano le strutture degli insiemi tra cui operano, si tratta di unargomento di notevole interesse, sia a livello teorico che applicativo. Abbiamogia parlato per esempio alle isometrie come quelle applicazioni che conservanola distanza, che quindi ”trasferiscono” in qualche modo le proprieta metricheda uno spazio all’altro. Una classe molto piu generale di trasformazioni, di cuile isometrie fanno parte, e quella degli omeomorfismi tra spazi topologici, cioedelle applicazioni continue e invertibili con inversa continua. Queste conservanogli intorni, gli aperti, i chiusi, i compatti e tutte le proprieta topologiche deglispazi, su cui si basano tra l’altro anche le nozioni di limite e di convergenza.

Passando da questioni di natura geometrica all’ambito delle strutture alge-briche, incontriamo le applicazioni che conservano le operazioni. Un esempiogia ben noto e quello dell’esponenziale, che sia reale o complesso, come appli-cazione che trasforma un gruppo additivo in un gruppo moltiplicativo in quantoex+y = ex ·ey (viceversa, dal prodotto nella somma, agisce in modo simile il log-aritmo). La radice quadrata conserva il prodotto come funzione √ : R+ → R+,nel senso che

√xy =

√x√

y.

Definizione 3.1 Siano (X, ∗) e (Y, ?) due strutture algbriche con le oper-azioni indicate e ϕ : X → Y . Diciamo che ϕ e un omomorfismo se

ϕ(x1 ∗ x2) = ϕ(x1) ? ϕ(x2) ∀x1, x2 ∈ X .

Negli esempi precedenti, in cui si fa riferimento ad una sola operazione, ab-biamo considerato degli omomorfismi di gruppi, ma si continua a parlare diomomorfismi anche quando si ha a che fare con piu operazioni, come accadecon gli anelli, i corpi, gli spazi vettoriali e altri ancora. Ogni omomorfismo esoggetto alla Definizione 3.1 per ciascuna operazione. In generale viene usato iltermine isomorfismo per un omomorfismo bigettivo, endomorfismo se X = Y ,

49

Page 51: Lezioni Di Algebra Lineare (Cabib)

50 Capitolo 3. Applicazioni lineari

automorfismo per un endomorfismo bigettivo. Un nome speciale e riservato agliomomorfismi tra spazi vettoriali.

Definizione 3.2 Siano U e V due spazi vettoriali sul corpo K. Chiameremoapplicazione lineare un omomorfismo T : U → V . Precisamente, T devesoddisfare le proprieta

T (u1 + u2) = T (u1) + T (u2) ∀u1, u2 ∈ UT (λu) = λT (u) ∀u ∈ U e ∀λ ∈ K

che si possono riassumere nell’unica proprieta (equivalente alle precedenti)

(3.1) T (λ1u1 + λ2u2) = λ1T (u1) + λ2T (u2) ∀u1, u2 ∈ U e ∀λ, µ ∈ K .

Alla T rimangono associati due insiemi notevoli, il nucleo e l’immagine, rispet-tivamente

N(T ) = {u ∈ U | T (u) = 0} e T (U) = {v ∈ V | ∃u ∈ U : v = T (u)} .

Verifichiamo che questi due insiemi sono sottospazi vettoriali rispettivamente diU e di V . Se u1, u2 ∈ N(T ) e λ1, λ2 ∈ K allora per la (3.1) si ha

T (λ1u1 + λ2u2) = λ1T (u1) + λ2T (u2) = 0

e quindi λ1u1 + λ2u2 ∈ N(T ).Se v1, v2 ∈ T (U), scelti u1, u2 tali che vi = T (ui), si ha

λ1v1 + λ2v2 = λ1T (u1) + λ2T (u2) = T (λ1u1 + λ2u2) ∈ V .

Il nucleo non e mai vuoto perche qualunque sia la T lineare si ha sempreT (0) = 0; quando N(T ) contiene solo l’elemento 0 diciamo che N(T ) e ba-nale.

Esempi

3.1 L’applicazione T : U → V identicamente nulla

T (u) = 0 ∀u ∈ U

e lineare, N(T ) = U e T (U) = {0}.

3.2 L’identita I : U → U cosı definita

I(u) = u ∀u ∈ U

e la simmetria centrale −I sono endomorfismi, il loro nucleo e banale e ovvia-mente I(U) = U . Se U ⊂ V e l’identita e vista come applicazione I : U → Vallora viene talvolta chiamata inclusione o anche immersione.

Page 52: Lezioni Di Algebra Lineare (Cabib)

3.1. Definizioni ed esempi 51

3.3 Piu in generale, dato k ∈ K, e lineare anche la funzione kI, cioe la T :U → U definita da

T (u) = ku ∀u ∈ U

ed e un’omotetia di centro 0 per k > 0 (una dilatazione se k > 1, unacontrazione se k < 1 e l’identita se k = 1); T e un’omotetia composta con lasimmetria centrale per k < 0. In questi casi il nucleo e banale, a meno chenon sia k = 0 che e il caso dell’applicazione nulla.

La forza lineare elastica F(r) = −kr e di questo tipo.

3.4 Visto K come uno spazio vettoriale su se stesso, consideriamo le appli-cazioni lineari T : K → K. Esse sono tutte e sole le funzioni del tipo

T (u) = au ∀u ∈ K ,

infatti quelle di questo tipo sono ovviamente lineari e, viceversa, se T e lineareallora

T (u) = T (1u) = T (1)u = au ∀u ∈ K

dove a = T (1). Lo stesso ragionamento puo essere applicato per caratterizzaretutte le applicazioni R-lineari T : R → R o C-lineari T : C → C ottenendo neidue casi

T (x) = ax ∀x ∈ R o T (z) = cz ∀z ∈ C

dove a = T (1) o c = T (1).

3.5 Ogni spazio vettoriale U di dimensione n sul corpo K e isomorfo a Kn.L’isomorfismo dipende dalla base scelta in U . Per costruirlo basta associare adogni elemento u ∈ U l’n-upla delle sue componenti. Verificare per esercizio chesi tratta effettivamente di un isomorfismo.

Caratterizziamo adesso le applicazioni lineari T : Kn → Km. Esprimiamo nelsolito modo i vettori u e v nei due spazi come combinazioni lineari degli elementidelle rispettive basi canoniche {ej} in Kn e {fi} in Km

u =n∑

j=1

ujej e v =m∑

i=1

vifi .

Posto v = T (u) si ottiene

vi = T (u) · fi = fi · T

n∑

j=1

ujej

=

n∑

j=1

fi · T (ej)uj .

Introduciamo allora la matrice ad m righe e n colonne di componenti

aij = fi · T (ej) , i = 1, . . . , m , j = 1, . . . , n ,

Page 53: Lezioni Di Algebra Lineare (Cabib)

52 Capitolo 3. Applicazioni lineari

che si ottiene disponendo in colonna, ordinatamente, le immagini T (ej) deglielementi della base canonica. In componenti, la relazione funzionale v = T (u)diventa

(3.2) vi =n∑

j=1

aijuj ∀i = 1, . . . , m .

Definizione 3.3 Un’applicazione lineare T : U → K si chiama forma lin-eare o funzionale lineare su U . L’insieme dei funzionali lineari su U sichiama duale di U e si indica con U∗.

Per m = 1 la (3.2) fornisce in particolare la rappresentazione

(3.3) T (u) =n∑

i=1

aiui = a · u

di una forma lineare su Kn in termini del prodotto scalare con un opportunoelemento di Kn e, viceversa, le forme lineari sono tutte di questo tipo. La cor-rispondenza biunivoca stabilita dalla (3.3), tra un elemento di U e un elementodel suo duale, e un isomorfismo e ci permette di identificare U con U∗.

Considerando Cn come spazio vettoriale sul corpo C, nello stesso modosi costruiscono le applicazioni lineari T : Cn → Cm in termini di matrici acoefficienti complessi.

Come influisce sulla natura delle applicazioni lineari considerare Cn comespazio vettoriale complesso di dimensione n o come spazio reale di dimensione2n? Le applicazioni C-lineari sono quelle a coefficienti cij ∈ C, del tipo T (z) =∑

j cijzj con z ∈ Cn, mentre le R-lineari sono quelle definite su Cn ma pensatocome R2n. Vediamo il caso semplice con n = 1. Separando la parte reale dallaparte immaginaria nella relazione

w = cz = (a + ib)(x + iy) = ax− by + i(bx + ay) ,

posto w = u + iv, si ottiene

(3.4)(

uv

)=

(a −bb a

)(xy

)

da cui risulta evidente che non tutte le applicazioni R-lineari su R2 sono ancheC-lineari, ma solo quelle del tipo (3.4) che sono le omotetie composte con lerotazioni. Infatti, posto

cos α =a√

a2 + b2e sen α =

b√a2 + b2

,

possiamo scrivere la (3.4) nella forma

(3.5)(

uv

)=

√a2 + b2

(cos α − sen αsen α cos α

) (xy

),

Page 54: Lezioni Di Algebra Lineare (Cabib)

3.1. Definizioni ed esempi 53

dove il fattore di dilatazione, o di contrazione, non e altro che |c|, mentre lamatrice puo essere identificata con cosα + i senα = eiα. In forma polare, postoz = ρ(cosϑ + i sen ϑ) = ρeiϑ, si ottiene l’analogo in C

w = cz = |c|(cos α+i sen α)ρ(cos ϑ+i sen ϑ) = |c|ρ(cos(α+ϑ)+i sen(α+ϑ)) = |c|ρei(α+ϑ) .

Esercizio 3.1 Verificare che

i =(

0 −11 0

)

e calcolare i2.

Gli esempi che seguono riguardano operatori lineari su spazi di funzioni.

3.6 Sullo spazio vettoriale delle funzioni f : R → R ogni applicazione T deltipo

T (f)(x) = f(x + τ) ∀x ∈ R

viene detta traslazione. Le traslazioni sono lineari e il loro nucleo e banale.

3.7 Sia I ⊂ R un intervallo, x0 ∈ I e C0(I) lo spazio vettoriale delle funzionicontinue su I. La funzione δ : C0(I) → R definita da

δ(f) = f(x0) ,

detta delta di Dirac, e un funzionale lineare. Il suo nucleo e l’insieme dellef ∈ C0(I) tali che f(x0) = 0.

Esercizio 3.2 Le funzioni

f →∫

I

f(x)dx e f →∫

I

f(x)ψ(x)dx

sono funzionali lineari sullo spazio delle funzioni integrabili, quali sono i rispet-tivi nuclei?

Esercizio 3.3 La derivazione D(f) = f ′, che associa ad ogni funzionederivabile la sua derivata, e un’applicazione lineare. Qual e il suo nucleo seil dominio e un intervallo? E se il dominio e un’unione di intervalli?

Esercizio 3.4 Trovare il nucleo dell’applicazione lineare L : C2(R) → C0(R)definita da

L(u) = u′′ + au′ + bu

al variare di a, b ∈ R.

Page 55: Lezioni Di Algebra Lineare (Cabib)

54 Capitolo 3. Applicazioni lineari

3.8 L’applicazione f → f = F (f) definita da

f(ω) =1√2π

∫ +∞

−∞f(t)e−iωtdt ,

sullo spazio delle funzioni assolutamente integrabili su R, e lineare e si chiamatrasformata di Fourier. Similmente si definisce la trasformata di Laplace

L (f)(s) =∫ +∞

0

f(x)e−sxdx .

3.9 Data una funzione limitata k(x, y) sul quadrato I × I tale che y → k(x, y)sia integrabile per ogni x ∈ I, l’applicazione u → T (u) definita da

T (u)(x) =∫

I

k(x, y)u(y)dy ∀x ∈ I

e un operatore integrale lineare sull’insieme delle funzioni integrabili (anche insenso improprio) su I.

3.2 Lo spazio delle applicazioni lineari

Dati due spazi vettoriali U e V sul corpo K, indichiamo con L (U, V )l’insieme delle applicazioni lineari da U in V (con L (U) l’insieme degli endo-morfismi di U). Si verifica facilmente che la somma tra applicazioni lineari e ilprodotto per scalari

(T1 + T2)(u) = T1(u) + T2(u) e (λT )(u) = λT (u) ∀u ∈ U

fanno di L (U, V ) uno spazio vettoriale su K. Si tratta nient’altro che delleben note operazioni, definite puntualmente, tra funzioni. Un’altra operazione,in generale solo associativa, e l’usuale prodotto di composizione: scelte T1 ∈L (U, V ) e T2 ∈ L (V,W ), T2 ◦ T1 e definita da

(T2 ◦ T1)(u) = T2(T1(u)) ∀u ∈ U .

Un’applicazione lineare T : U → V rimane invariata se viene composta con leidentita IU ∈ L (U) a destra o IV ∈ L (V ) a sinistra

T ◦ IU = T e IV ◦ T = T ∀T ∈ L (U, V ) .

Esercizio 3.5 Verificare che se T1 ∈ L (U, V ) e T2 ∈ L (V, W ) allora T2 ◦T1 ∈ L (U,W ).

Esercizio 3.6 Dimostrare che, fissato T0 ∈ L (U, V ), la funzione che asso-cia ad ogni T ∈ L (V, W ) la T ◦ T0 e lineare.

Page 56: Lezioni Di Algebra Lineare (Cabib)

3.2. Lo spazio delle applicazioni lineari 55

In L (U) si possono definire le potenze

T 0 = I , Tn = T ◦ Tn−1 ∀n ≥ 1 .

Esercizio 3.7 Dimostrare, con la proprieta associativa, che

Tm ◦ Tn = Tm+n

per ogni m,n ∈ N.

Definizione 3.4 Si dicono nilpotenti le applicazioni lineari T per cui esisteun esponente k ∈ N tale che T k = 0.

Come per le matrici, esistono applicazioni non nulle nilpotenti e non vale lalegge di annullamento del prodotto.

Teorema 3.5 (nullita + rango) - Per un’applicazione lineare T : U → Vvale la seguente relazione

dim N(T ) + dimT (V ) = dim V

che rimane vera anche se U ha dimensione infinita, in tal caso deve essereinfinita la dimensione di N(T ) oppure di T (V ).

Dimostrazione. Supponiamo dapprima dimU = n < +∞. Se k = dim N(T ) =n la tesi e verificata perche N(T ) = U e T (U) = {0}, per cui k = n e dim T (U) =0. Se k = dimN(T ) < n, scegliamo una base AU = {a1, . . . , ak, ak+1, . . . , an}di U in modo che AN(T ) = {a1, . . . , ak} sia una base di N(T ) e dimostriamoche AT (U) = {T (ak+1), . . . , T (an)} e una base di T (U).

AT (U) e linearmente indipendente. Supponiamo che per certi λi ∈ K, i =k + 1, . . . , n, si abbia

n∑

i=k+1

λiT (ai) = 0

e dimostriamo che λi = 0 per ogni i = k + 1, . . . , n. Per la linearita di T

T

(n∑

i=k+1

λiai

)= 0

e quindin∑

i=k+1

λiai ∈ N(T ) .

Allora esistono altri λi, i = 1, . . . , k, tali che

n∑

i=k+1

λiai =k∑

i=1

−λiai ,

Page 57: Lezioni Di Algebra Lineare (Cabib)

56 Capitolo 3. Applicazioni lineari

cioen∑

i=1

λiai = 0 .

La tesi discende allora dall’indipendenza lineare degli ai.AT (U) e un insieme di generatori. Dimostriamo che per ogni v ∈ T (U)

esistono λi ∈ K, i = k + 1, . . . , n, tali che

v =n∑

i=k+1

λiT (ai) .

Se v ∈ T (U) allora v = T (u) per qualche u ∈ U che quindi puo essere espressocome combinazione lineare degli ai, pertanto

v = T (u) = T

(n∑

i=1

λiai

)=

n∑

i=1

λiT (ai) =n∑

i=k+1

λiT (ai)

perche T (ai) = 0 per i = 1, . . . , k.Nel caso dim U = +∞, se N(T ) e T (U) avessero entrambi dimensione finita

k e r rispettivamente, esisterebbe, come prima, una base finita a1, . . . , ak diN(T ), ma anche altri vettori ak+1 . . . , an indipendenti con n > k + r. Daquanto gia dimostrato i T (ai), i = k + 1, . . . , n, sarebbero indipendenti, ma innumero maggiore di r = dim T (V ), assurdo, quindi almeno uno, N(T ) o T (U)deve avere dimensione infinita.

2

Vediamo adesso alcune proprieta delle applicazioni lineari iniettive.

Teorema 3.6 - Per un’applicazione lineare T : U → V le seguenti proprietasono equivalenti

(a) T e iniettiva;(b) N(T ) e banale;(c) T conserva la dimensione, cioe dim T (U) = dim U ;(d) T trasforma sistemi indipendenti in sistemi indipendenti;(e) Se dim U = dim V < +∞ allora T trasforma ogni base di U in una base

di V .

Dimostrazione. (a)⇒(b) Se T e iniettiva e T (u) = 0 allora u = 0, dunqueN(T ) = {0}.(b)⇒(a) Se N(T ) = {0} e T (u1) = T (u2) allora T (u1−u2) = 0, quindi u1−u2 =0.(b)⇔(c) e ovvio, basta ricordare che dim N(T ) + dim T (U) = dim U .(b)⇒(d) Siano a1, . . . , ah linearmente indipendenti e λ1, . . . , λh tali che

λ1T (a1) + . . . + λhT (ah) = 0 .

AlloraT (λ1a1 + . . . + λhah) = 0

Page 58: Lezioni Di Algebra Lineare (Cabib)

3.3. Applicazioni lineari e matrici 57

e siccome il nucleo e banale, si ha

λ1a1 + . . . + λhah = 0 ,

ne segue, per l’indipendenza degli ai, che λi = 0 per ogni i = 1, . . . , h.(d)⇒(b) Scelto u ∈ N(T ), siano a1, . . . , ah linearmente indipendenti tali cheu = λ1a1 + . . .+λhah. Poiche i T (a1), . . . , T (ah) sono lineramente indipendenti,si ha

0 = T (u) = T (λ1a1+. . .+λhah) = λ1T (a1)+. . .+λhT (ah) ⇒ λi = 0 ∀i = 1, . . . , h ,

quindi u = 0, cioe il nucleo e banale.L’equivalenza con (e) e a questo punto ovvia.

2

Il seguente corollario e conseguenza immediata del Teorema 3.6.

Corollario 3.7 Se dim U = dim V < +∞ allora T : U → V e iniettivase e solo se e surgettiva. In particolare gli endomorfismi iniettivi sono anchesurgettivi e viceversa.

Un’applicazione lineare iniettiva T : U → V ammette dunque inversa T−1 :V → U se si suppone che i due spazi abbiano la stessa dimensione (finita), casoin cui V = T (U). Altrimenti, senza preoccuparci della dimensione, possiamosempre intenderla come applicazione da T (U) in U . E evidente che se T e linearelo e anche T−1 : V → U , infatti, scelti v1, v2 ∈ V esistono u1, u2 ∈ U tali chevi = T (ui) e per ogni λ1, λ2 ∈ K si ha

T−1(λ1v1 + λ2v2) = T−1(λ1T (u1) + λ2T (u2)) = T−1(T (λ1u1 + λ2u2))= λ1u1 + λ2u2 = λ1T

−1(v1) + λ2T−1(v2) .

3.3 Applicazioni lineari e matrici

Scelta una base in ognuno degli spazi vettoriali di dimensione finita U eV , ad ogni applicazione lineare T : U → V rimane associata una matrice acomponenti scalari, vediamo in che modo. Siano A = {ai}1≤i≤n una base di Ue B = {bi}1≤i≤m una base di V . La componente lungo bi dell’immagine T (u)di un vettore u ∈ U e data da

(3.6) T (u)i = T

n∑

j=1

ujaj

i

=n∑

j=1

T (aj)iuj ∀i = 1, . . . , m .

La (3.6) mostra che le m componenti T (u)i del vettore T (u) si ottengono molti-plicando righe per colonne la matrice di componenti tij = T (aj)i per le n com-ponenti uj del vettore u. La matrice rappresentativa m(T ) di un’applicazionelineare T viene dunque ottenuta mettendo in colonna le immagini dei vettoridella base di U in componenti sulla base di V , la conoscenza delle due basi

Page 59: Lezioni Di Algebra Lineare (Cabib)

58 Capitolo 3. Applicazioni lineari

e della matrice permette di ricostruire per linearita tutta l’applicazione medi-ante la (3.6). Naturalmente, qualora V sia munito di prodotto scalare, se B eortonormale le componenti di T sono tij = bi · T (aj).

Ritroviamo come caso particolare quello della rappresentazione di una formalineare, o funzionale lineare, cioe di un’applicazione lineare su U a valori inK considerato come spazio vettoriale unidimensionale. Allora le immagini deivettori della base sono gli n scalari T (aj) = tj (matrice a una riga e n colonne)che, interpretati come le componenti di un vettore t ∈ Kn, permettono dirappresentare T mediante il prodotto scalare in Kn

T (u) = t · u ∀u ∈ U

con u scritto in componenti rispetto alla base. In generale, ad eccezione delleapplicazioni isotrope, cioe del tipo T (u) = ku che ammettono sempre kI comematrice rappresentativa qualunque sia la base, cambiando base cambia la ma-trice rappresentativa e vedremo in che modo, ma una volta fissata la base, la(3.6) stabilisce un isomorfismo tra L (U, V ) e lo spazio delle matrici m× n chesono le applicazioni lineari da Kn in Km. E evidente infatti che si tratta di unacorrispondenza biunivoca che conserva le operazioni

- se T1, T2 ∈ L (U, V ) e λ1, λ2 ∈ K allora

m(λ1T1 + λ2T2) = λ1m(T1) + λ2m(T2) ;

- se T1 ∈ L (U, V ) e T2 ∈ L (V, W ) allora

(3.7) m(T2 ◦ T1) = m(T2)m(T1) .

Dimostriamo ad esempio la (3.7). Siano {ah}1≤h≤k, {bj}1≤j≤n e {ci}1≤i≤m

delle basi in U , V e W rispettivamente. La matrice associata alla composizioneT2 ◦ T1 ha componenti

m(T2 ◦ T1)ih = T2(T1(ah))i = T2

n∑

j=1

T1(ah)jbj

i

=n∑

j=1

T2(bj)iT1(ah)j =n∑

j=1

m(T2)ijm(T1)jh .

Dalla (3.7) discende che se T−1 esiste allora

m(T )m(T−1) = m(T ◦ T−1) = I ,

quindi m(T ) e una matrice invertibile e m(T−1) = m(T )−1 e, viceversa, se m(T )e invertibile

m(T )m(T )−1 = I

e l’applicazione lineare che ha come rappresentazione la matrice m(T )−1 nonpuo che essere l’inversa di T , quindi T e invertibile.

Page 60: Lezioni Di Algebra Lineare (Cabib)

3.3. Applicazioni lineari e matrici 59

Come varia la matrice rappresentativa di un operatore lineare al variare dellabase? C’e una legge generale che ci permette di passare da una rappresentazioneall’altra? Utile in molte applicazioni e il caso U = V degli endomorfismi, quindicon T ∈ L (U), con la stessa base nel dominio e nel codominio. Noi ci limiteremoper semplicita a questo caso, ma con semplici varianti si puo adattare la formuladel cambiamento di base al caso piu generale di spazi U e V distinti con le relativebasi indipendenti l’una dall’altra.Consideriamo dapprima il passaggio tra basi ortonormali. Se T ha componen-ti {tij} rispetto alla base iniziale {ei}i=1,...,n e {t′hk} rispetto alla nuova base{fh}h=1,...,n, si ha

t′hk = fh · T (fk) =n∑

i=1

fh · eiei · T

n∑

j=1

fk · ejej

(3.8)

=n∑

ij=1

fh · eifk · ejei · T (ej) =n∑

ij=1

QhiQkjtij =n∑

ij=1

QhitijQTjk

dove, ricordiamo, i Qhi = fh ·ei sono i coseni direttori, le componenti, dei versoridella nuova base rispetto a quella iniziale e formano le componenti della matriceortogonale Q che ha per righe gli fh. Scritta come relazione tra matrici, la (3.8)assume la forma

A′ = QAQT

dove A′ = {t′hk} e A = {tij} sono le matrici che rappresentano T nelle duebasi. Ovviamente se si costruisce la matrice Q con gli fh in colonna la relazioneprecedente diventa

(3.9) A′ = QT AQ .

Vediamo adesso il caso generale del passaggio tra basi qualsiasi {ai} e {bh}. SiaPih = (bh)i la matrice che ha per colonne i vettori bh in componenti rispettoagli ai. Con le stesse notazioni di prima per le componenti di T si ha

T (bk) =n∑

h=1

T (bk)hbh =n∑

h=1

t′hkbh ,

d’altra parte

T (bk) =n∑

i=1

T

n∑

j=1

Pjkaj

i

ai =n∑

ij=1

PjkT (aj)iai =n∑

ijh=1

PjkT (aj)iP−1hi bh .

Si ricava quindi, per confronto con la precedente e per l’indipendenza linearedei bh, la relazione tra le componenti di T

(3.10) t′hk =n∑

ij=1

P−1hi tijPjk

Page 61: Lezioni Di Algebra Lineare (Cabib)

60 Capitolo 3. Applicazioni lineari

che si traduce nella relazione tra matrici

(3.11) A′ = P−1AP .

La (3.10) e l’analogo della (3.8) o, in forma matriciale, la (3.11) e l’analogodella (3.9) (alla quale si riduce come caso particolare se P e un cambio tra basiortonormali) e viene chiamata trasformazione per similitudine, mentre le matriciA e A′, che rappresentano la stessa applicazione lineare su due basi differenti,si dicono simili.

La possibilita di rappresentare le applicazioni lineari con le matrici ci per-mette di ottenere sulle prime nuove informazioni. Per esempio, qual e la di-mensione di L (V,W )? Il fatto che una matrice si possa sempre scrivere comecombinazione lineare delle ”matrici base” che hanno tutte le componenti nulle,eccetto una che possiamo assumere di valore 1, ci fa capire che la dimensionee pari a dim V dim W . La verifica della loro lineare indipendenza e banale. Inpiu possiamo anche dire che formano un sistema ortonormale se definiamo ilprodotto scalare tra due matrici A e B a m righe e n colonne nel seguente modo

(3.12) A ·B =m∑

i=1

n∑

j=1

AijBij .

Esercizio 3.8 Verificare che la (3.12) definisce un prodotto scalare.

Le matrici formano dunque uno spazio normato con la norma

‖A‖ =√

A ·A .

E naturale definire allora il prodotto scalare tra due applicazioni lineari ri-correndo a quello tra le relative matrici rappresentative, a condizione che taledefinizione sia invariante per cambiamenti di base. Riguardo al prodotto scalarel’invarianza vale solo rispetto a cambiamenti di base ortogonali, verifichiamoquesto usando la trasformazione per similitudine che abbiamo costruito nel casodi matrici quadrate, cioe in L (V ). Se A′ = QT AQ e B′ = QT BQ, si ha

A′·B′ =n∑

ijhkrs=1

QTihAhkQkjQ

TirBrsQsj =

n∑

hkrs=1

δhrδksAhkBrs =n∑

hk=1

AhkBhk = A·B .

Il prodotto scalare con l’identita, la traccia, definita da

tr(A) = A · I =n∑

ij=1

Aijδij =n∑

i=1

Aii ,

e invece invariante rispetto a qualunque cambiamento di base, infatti

A′ · I =n∑

ijhk=1

P−1ih AhkPkjδij =

n∑

hk=1

PkjP−1jh Ahk =

n∑

hk=1

δhkAhk = A · I ,

Page 62: Lezioni Di Algebra Lineare (Cabib)

3.4. Diadi e proiezioni 61

quindi puo essere vista come una grandezza associata ad un’applicazione lineare.La stessa considerazione vale per il determinante, la cui invarianza discende dallaregola del prodotto

detA′ = det(P−1AP ) = det P detA det P−1 = det P detA1

detP= det A .

Gli altri invarianti sono le somme dei minori che si ottengono eliminando ognivolta un uguale numero di righe e di colonne con lo stesso indice. Ad esempioe invariante di una matrice A di tipo 3× 3 anche l’espressione

(A11A22 −A12A21) + (A11A33 −A13A31) + (A22A33 −A23A32)

=12

3∑

ij=1

(AiiAjj −AijAji) =12[(A · I)2 −A ·AT ] .

I tre invarianti di una matrice di questo tipo, la traccia, quello che abbiamoappena scritto e il determinante, si chiamano rispettivamente primo, secondo eterzo invariante e si indicano con IA, IIA e IIIA. Una matrice di tipo n× n haesattamente n invarianti, di cui il primo e la traccia e l’n-esimo il determinante.

In Meccanica le applicazioni lineari sui vettori geometrici vengono chiamatetensori. Esprimendo grandezze fisiche sono definiti in modo intrinseco ed espres-si in componenti rispetto a basi che generalmente sono ortonormali. Vedremoqualche esempio.

3.4 Diadi e proiezioni

Sia V uno spazio vettoriale di dimensione n con prodotto scalare. Assegnatia, b ∈ V , la diade, o prodotto tensoriale, o anche omografia tensoriale, a ⊗ b el’applicazione lineare in L (V ) che trasforma ogni vettore x ∈ V nel vettore

(a⊗ b)(x) = a(b · x)

(le parentesi possono essere eliminate senza pericolo di ambiguita). Rispetto aduna base ortonormale {ei} le componenti di a⊗ b sono

[a⊗ b]ij = ei · a⊗ bej = ei · ab · ej = aibj ,

dove ai e bj sono le componenti di a e b sulla base scelta. Si ottiene cosı lamatrice rappresentativa

a⊗ b =

a1b1 a1b2 . . . a1bn

a2b1 a2b2 . . . a2bn

...... . . .

...anb1 anb2 . . . anbn

.

Trasformando tutto V nel sottospazio parallelo ad a, a⊗b e degenere di rango 1e il suo nucleo, lo spazio ortogonale a b, ha dimensione n−1. Viceversa possiamo

Page 63: Lezioni Di Algebra Lineare (Cabib)

62 Capitolo 3. Applicazioni lineari

verificare che ogni tensore di rango 1 e una diade, infatti se T (x) e parallelo adun certo a ∈ V per ogni x ∈ V esiste una funzione F : V → R tale che

T (x) = F (x)a ∀x ∈ V .

Allora F e lineare e se f ∈ V e il vettore che rappresenta F nella relazioneF (x) = f · x si ottiene

T (x) = f · xa = a⊗ fx ∀x ∈ V .

Scegliendo basi opportune possiamo fare in modo che al piu due componenti diuna diade siano non nulle. Se ad esempio e1 = vers a, per cui a1 = |a|, ed e2

combinazione lineare di a e b, si ha

a⊗ b =

|a|b1 |a|b2 0 . . . 00 0 0 . . . 0...

...... . . .

...0 0 0 . . . 0

.

In particolare puo accadere che a e b siano paralleli oppure ortogonali, allorale matrici rappresentative possono semplificarsi ulteriormente nelle rispettiveforme

a⊗b =

a1b1 0 0 . . . 00 0 0 . . . 0...

...... . . .

...0 0 0 . . . 0

e a⊗b =

0 a1b2 0 . . . 00 0 0 . . . 0...

...... . . .

...0 0 0 . . . 0

.

La diade si riduce alla semplice proiezione ortogonale lungo la direzione deter-minata dal versore e se a = b = e essendo e⊗ex = x ·ee per ogni x ∈ V . Sommedi diadi elementari del tipo ei ⊗ ei, costruite usando gli elementi di un sistemaortonormale, sono proiezioni su sottospazi, tra le quali figura anche l’identita

n∑

i=1

ei ⊗ ei = I

in quanto

x =n∑

i=1

x · eiei =n∑

i=1

ei ⊗ eix .

Il sistema di diadi {eh⊗ ek | h, k = 1, . . . , n} e ortonormale rispetto al prodottoscalare in L (V ) dato che

ei ⊗ ej · eh ⊗ ek = δihδjk

e ne costituisce una base. Ogni elemento T ∈ L (V ) ammette dunque ladecomposizione diadica

T =n∑

hk=1

T · eh ⊗ ekeh ⊗ ek

Page 64: Lezioni Di Algebra Lineare (Cabib)

3.5. Forme bilineari e forme quadratiche 63

dove i coefficienti T · eh ⊗ ek coincidono con le componenti Ahk = eh · T (ek) diT . In termini delle matrici associate, tale decomposizione coincide con quella incui vengono usate le matrici elementari di cui abbiamo gia parlato nel paragrafoprecedente.

Proiezione ortogonale su un sottospazio - Siano V uno spazio vettorialedi dimensione finita con prodotto scalare e U un sottospazio di V . L’applicazioneche associa ad ogni x ∈ V la sua proiezione ortogonale PU (x) su U , il punto diU di minima distanza da x, e lineare ed ha come immagine U e come nucleoU⊥. La decomposizione x = PU (x) + PU⊥(x), in virtu della quale diciamoche V = U ⊕ U⊥, implica dimV = dim U + dim U⊥ in accordo col teoremaprecedente.

Esercizio 3.9 Costruire la simmetria ortogonale rispetto ad un sottospazioU ⊂ V e constatare che si tratta di un’applicazione lineare.

3.5 Forme bilineari e forme quadratiche

Una forma bilineare su V , spazio vettoriale complesso con prodotto scalare,e un’applicazione a : V × V → C lineare in ciascuno dei due argomenti, cioeu → a(u, v) e lineare per ogni v ∈ V e v → a(u, v) e lineare per ogni u ∈ V . Adogni applicazione lineare A : V → V corrisponde la forma bilineare

(3.13) a(u, v) = u ·Av ∀u, v ∈ V .

Da quanto visto nel § precedente, le componenti di A rispetto ad una baseortonormale {ei} sono proprio i valori della forma bilineare associata

aij = ei ·Aej = a(ei, ej) ,

dalla quale si ottiene tra l’altro l’espressione

a(u, v) =n∑

ij=1

aijuivj

che, scritta in termini delle componenti, appare piu esplicita. Viceversa, siverifica facilmente che ad ogni forma bilineare a : V × V → C corrispondeun’unica applicazione lineare A : V → V tale che vale la (3.13). Fissato v ∈ V ,u → a(u, v) e un funzionale lineare su V , quindi esiste un unico w ∈ V tale che

a(u, v) = u · w ∀u, v ∈ V .

Ma w dipende linearmente da v, cioe w = Av per un certo, unico, A. Infatti, sea(u, v) = u ·w, a(u, v1) = u ·w1, a(u, v2) = u ·w2 e se v = λ1v1 + λ2v2 per certiλ1, λ2 ∈ C, si ha

u · w = a(u, v) = a(u, λ1v1 + λ2v2) = λ1a(u, v1) + λ2a(u, v2)= λ1u · w1 + λ2u · w2 = u · (λ1w1 + λ2w2)

Page 65: Lezioni Di Algebra Lineare (Cabib)

64 Capitolo 3. Applicazioni lineari

per ogni ∀u ∈ V , quindi w = λ1w1 + λ2w2. Ragionando nello stesso modo siricava che esiste un’altra applicazione lineare A∗ su V tale che

a(u, v) = A∗u · v ∀u, v ∈ V .

Le due, A e A∗, sono dunque legate dalla relazione u ·Av = A∗u · v e si diconociascuna l’aggiunta dell’altra. Le corrispondenti matrici rappresentative, {aij}e {a∗ij}, stanno nella relazione

a∗ij = ei ·A∗ej = A∗ej · ei = ej ·Aei = aji ,

ognuna e la trasposta coniugata dell’altra. Se V e reale indichiamo A∗ con AT ,detta applicazione lineare trasposta per analogia con la sua matrice rappresen-tativa.

Un’applicazione lineare A : V → V viene detta autoaggiunta, o anchehermitiana, se A = A∗ e antihermitiana se A = −A∗. Nel caso reale talicondizioni diventano rispettivamente A = AT , A simmetrica, e A = −AT , Aantisimmetrica o emisimmetrica.

Di un certo interesse in Meccanica (quindi con dim V = 3 che qua nonci interessa) e la decomposizione di un tensore A nella somma di un tensoresimmetrico e di un tensore emisimmetrico. Definiti

AS =A + AT

2e AW =

A−AT

2,

che sono ovviamente uno simmetrico e l’altro emisimmetrico, si ha

A = AS + AW .

La decomposizione in parte simmetrica e parte emisimmetrica e unica perchese esistono due tensori S simmetrico e W emisimmetrico tali che A = S + Wallora AT = S −W e combinando queste due relazioni per somma e differenzasi ottiene S = AS e W = AW . Inoltre, essendo L S(V ) e L W (V ) sottospazi diL S(V ) uno ortogonale all’altro, dato che

S ·W = SijWij = −SjiWji = −S ·W ,

AS e la proiezione ortogonale di A su L S(V ) e AW e la proiezione ortogonaledi A su L W (V ). Osserviamo infine che se dim V = n allora dim L (V ) = n2,dim L S(V ) = (n2+n)/2 e dim L W (V ) = dim L (V )−dim L S(V ) = (n2−n)/2essendo L (V ) = L S(V )⊕L W (V ).

A partire da una forma bilineare a(u, v) definiamo forma quadratica la suarestrizione al sottospazio di V × V delle coppie di vettori (u, v) tali che u = v.La forma quadratica e quindi la funzione ϕ : V → C definita da

ϕ(u) = a(u, u) = u ·Au ∀u ∈ V .

In termini delle componenti una forma quadratica puo essere scritta nella forma

ϕ(u) =n∑

ij=1

aijuiuj .

Page 66: Lezioni Di Algebra Lineare (Cabib)

3.6. Relazione tra un vettore e un tensore emisimmetrico 65

Si puo osservare che essa e sempre una funzione omogenea di grado 2, cioe

ϕ(tu) = |t|2ϕ(u) ∀t ∈ C ,

e che quindi e univocamente determinata su tutto V a partire dai suoi valorisulla sfera dei versori, detta sfera unitaria, basta porre

ϕ(u) = |u|2ϕ(versu) .

Inoltre la forma quadratica associata ad un’applicazione antihermitiana W , an-tisimmetrica nel caso reale, e sempre identicamente immaginaria, quindi nullanel caso reale, infatti

u ·Wu = −Wu · u = −u ·Wu .

Ne segue che la forma quadratica associata ad un tensore coincide con quellarelativa alla sua sola parte simmetrica.

3.6 Relazione tra un vettore e un tensore emisim-metrico

Dato un vettore w ∈ V3, l’applicazione

(3.14) u → Wu = w × u

e lineare e si chiama omografia assiale. Si tratta di un tensore emisimmetricoin quanto

u ·Wv = u ·w × v = −w × u · v .

Rispetto ad una base ortonormale {ei}, le componenti si calcolano subito usandola ben nota formula per la matrice associata, combinata con l’espressione delprodotto misto

(3.15) Wij = ei ·w × ej = εhkrδihwkδjr = εikjwk

e quindi la matrice

W =

0 −w3 w2

w3 0 −w1

−w2 w1 0

che e evidentemente emisimmetrica. Scegliendo basi opportune e possibile au-mentare il numero di componenti nulle; se ad esempio e3 = versw, per cuiw = |w| e3, la matrice diventa

W =

0 −w3 0w3 0 00 0 0

.

Page 67: Lezioni Di Algebra Lineare (Cabib)

66 Capitolo 3. Applicazioni lineari

Moltiplicando a sinistra e a destra per εihj , si ottiene

εihjWij = 2εihjεikjwk = 2δhkwk = 2wh

da cui segue la relazione inversa

wh =12εihjWij .

Ad esempio, w1 = 1/2(W32 −W23). Possiamo infatti dimostrare facilmente chead ogni tensore emisimmetrico W corrisponde un unico vettore w, il suo vettoreassociato, che soddisfa la (3.14). In dimensione dispari, 3 nel nostro caso, untesnore W emisimmetrico ha determinante nullo

detW = detWT = det(−W) = −detW ,

quindi il suo nucleo, N(W), e non banale. Se W = 0 allora N(W) = V ew = 0. Se invece W 6= 0 dimostriamo che dim N(W) = 1. Scelto un vettoreh ∈ N(W)⊥, Wh e ortogonale ad h perche Wh · h = 0 e non sta nel nucleoperche e ortogonale ad ogni suo elemento

Wh · n = −h ·Wn = 0 ∀n ∈ N(W) .

Quindi dimN(W)⊥ = 2 e n genera tutto N(W). Inoltre Wh deve essereparallelo al prodotto vettoriale n× h, quindi esiste un vettore del tipo w(h) =w(h)n tale che

W(h) = w(h)n× h .

Dimostriamo che lo scalare w(h) non dipende dalla scelta di h ∈ N(W)⊥. Sceltih e h′ non paralleli in N(W)⊥ e in modo che h× h′ sia concorde con n, si ha

Wh · h′ = w(h)n× h · h′ = w(h)n · h× h′ = w(h)|h× h′|Wh · h′ = −h ·Wh′ = −h · w(h′)n× h′ = w(h′)|h× h′|

e per differenza membro a membro

[w(h)− w(h′)]|h× h′| = 0

da cui w(h) = w(h′). Se invece sono paralleli, h′ = th, si ha

Wh′ = Wth = w(th)n× th = tw(th)n× hWh′ = Wth = tWh = tw(h)n× h

da cui, essendo n×h 6= 0, w(h) = w(th) = w(h′). Abbiamo dunque dimostratoche esiste un vettore w ∈ N(W) tale che

(3.16) Wh = w × h ∀h ∈ N(W)⊥ .

Rimane da dimostrare che la relazione (3.16) e vera, con lo stesso w, per tuttii vettori u ∈ V . Siano un = u · nn e h le proiezioni ortogonali di u su N(W) esu N(W)⊥ rispettivamente. Allora

Wu = W(h + un) = Wh = w × h = w × (h + un) = w × u .

L’unicita viene lasciata per esercizio.

Page 68: Lezioni Di Algebra Lineare (Cabib)

3.7. Le isometrie di En, tensori ortogonali e cinematica rigida 67

3.7 Le isometrie di En, tensori ortogonali e cin-ematica rigida

L’esigenza di descrivere i possibili movimenti rigidi nello spazio fisico portain modo naturale a studiare le isometrie dello spazio euclideo tridimensionale.Infatti, conservando le distanze tra i punti materiali, il moto rigido puo esserevisto come una famiglia ad un parametro, il tempo t ∈ I, di isometrie Φt :E3 → E3. Ognuna di esse trasforma la configurazione iniziale in quella attuale,all’istante t generico, del sistema rigido. In particolare la Φ0 e l’identita. Dopoaverle caratterizzate le riconosceremo come traslazioni composte con rotazioni.

Osservato che le isometrie su En sono le applicazioni Φ : E → E tali che|Φ(P )− Φ(Q)| = |P −Q| per ogni P,Q ∈ E , definiamo F : V → V nel seguentemodo:

F (u) = Φ(P )− Φ(O) se u = P −O .

Risulta allora che Φ e un’isometria se e solo se F conserva il modulo, |F (u)| =|u|, che in altre parole significa che anche F e un’isometria su V. Infatti, postov = Q−O, si ha

|F (u)− F (v)| = |Φ(P )− Φ(O)− (Φ(Q)− Φ(O))| = |Φ(P )− Φ(Q)|= |P −Q| = |P −O − (Q−O)| = |u− v| ∀u,v ∈ V .

La seguente proposizione mostra che F e un’isometria se e solo se conserva ilprodotto scalare e in tal caso deve essere anche lineare.

Teorema 3.8 Per una funzione F : V → V le seguenti proprieta sonoequivalenti

(a) |F (u)| = |u| ∀u ∈ V,(b) F (u) · F (v) = u · v ∀u,v ∈ V

e ciascuna delle due implica che F e lineare.

Dimostrazione. L’implicazione (b)⇒(a) e banale, basta porre u = v. Veri-fichiamo l’implicazione contraria sostituendo la (a) con la versione equivalente

|F (u)− F (v)| = |u− v| ∀u,v ∈ V

o meglio|F (u)− F (v)|2 = |u− v|2 = |u|2 − 2u · v + |v|2 .

D’altra parte

|F (u)−F (v)|2 = |F (u)|2 − 2F (u) ·F (v) + |F (v)|2 = |u|2 − 2F (u) ·F (v) + |v|2

e per confrontoF (u) · F (v) = u · v .

Veniamo alla seconda parte. Per ogni u,v ∈ V e per ogni λ, µ ∈ R si ha

|F (λu + µv)− λF (u)− µF (v)|2 = |F (λu + µv)|2 + λ2|F (u)|2 + µ2|F (v)|2− 2λF (λu + µv) · F (u)− 2µF (λu + µv) · F (v) + 2λµF (u) · F (v)= |λu + µv|2 + λ2|u|2 + µ2|v|2 − 2λ(λu + µv) · u− 2µ(λu + µv) · v + 2λµu · v = 0 .

Page 69: Lezioni Di Algebra Lineare (Cabib)

68 Capitolo 3. Applicazioni lineari

2

Allora esiste un tensore R ∈ L (V) tale che F (u) = Ru che per la (??)soddisfa

RT Ru · v = u · v ∀u,v ∈ V .

Per l’arbitrarieta di vRT Ru = u ∀u ∈ V ,

dunque RT R = I, da cui si deduce che R e invertibile, con detR = ±1, eR−1 = RT . I tensori di questo tipo trasformano sistemi ortonormali in sistemiortonormali, infatti

R ei ·R ej = ei · ej = δij ,

per questo sono detti ortogonali. Allora, rispetto ad una base ortonormale, lecolonne della matrice di un tensore ortogonale formano un sistema ortonormalee cosı anche le righe che sono le colonne dell’inversa.

Come ogni applicazione lineare, ogni tensore ortogonale lascia fisso lo 0, main dimensione dispari lascia fissi tutti i vettori di un sottospazio o li cambia disegno. Per semplicita proviamo quest’affermazione nel caso di V3 cercando queivettori u 6= 0 tali che

Ru = λu

per qualche λ ∈ R. Le soluzioni di questa equazione sono i vettori del nucleo diR− λI che dovendo essere non banale richiede di imporre la condizione

det(R− λI) = 0 .

Questa e un’equazione algebrica in λ di terzo grado che puo assumere una delledue forme seguenti

λ3 − aλ2 + aλ− 1 = 0 oppure λ3 − aλ2 − aλ + 1 = 0 .

Nel primo caso, detR = 1, una soluzione e λ = 1 e i vettori del nucleo diR− I sono quelli che R lascia in se stessi, si tratta di una rotazione. Nell’altro,detR = −1, e soluzione λ = −1 e i vettori del nucleo vengono cambiati di segnodal tensore R, si tratta di una rotazione composta con una riflessione. A menoche non sia R = ±I, il nucleo e l’asse di rotazione.

Le isometrie di En sono sono tutte e sole le funzioni Φ : En → En del tipo

(3.17) Φ(P ) = Φ(Q) + R(P −Q) ∀P, Q ∈ En

con R tensore ortogonale. In particolare, se R = I si ottiene una traslazione,espressa dal vettore Φ(P )−P , se Φ ha un punto fisso O si riduce alla rotazioneΦ(P ) = R(P −O), il caso piu generale e quello di una traslazione composta conuna riflessione.

Vogliamo adesso rappresentare un tensore ortogonale su V3 che esprima unarotazione propria. Scegliendo la base {ei} con e3 diretto secondo l’asse di ro-tazione, che comporta R e3 = e3, e mettendo in colonna le componenti di R e1

Page 70: Lezioni Di Algebra Lineare (Cabib)

3.7. Le isometrie di En, tensori ortogonali e cinematica rigida 69

e di R e2, si ottiene una matrice del tipo

R =

cosϑ − sen ϑ 0sen ϑ cos ϑ 0

0 0 1

e basta moltiplicarla per un vettore qualsiasi u ∈ V3 per rendersi conto che lacomponente u3 rimane invariata mentre la sua proiezione sul piano ortogonalead e3, il vettore u1 e1 +u2 e2, ruota dell’angolo ϑ. E interessante osservare chese ϑ e funzione derivabile di un parametro, ad esempio il tempo t durante unmoto rigido, si ha

RRT =

0 −ϑ 0ϑ 0 00 0 0

che e emisimmetrico ed ha come vettore associato la velocita angolare ω(t) =ϑ(t) e3. Si puo dedurre la legge fondamentale della cinematica rigida dalla (3.17)scritta per una famiglia di isometrie a un parametro

P (t) = Q(t) + R(t)(P0 −Q0)

dove P (t) e Q(t) sono le posizioni all’istante t di due punti solidali che per t = 0si trovano nelle posizioni P0 e Q0. Osserviamo inoltre che essendo R(0) = I,per continuita detR(t) = 1 per ogni t ≥ 0. Derivando rispetto a t si ottiene larelazione tra le loro velocita

v(P ) = v(Q) + R(P0 −Q0) = v(Q) + RRT (P −Q) = v(Q) + ω × (P −Q)

dove ω(t) e la velocita angolare. Il fatto che RRT sia sempre emisimmetrico edi verifica immediata

(RRT )T = RRT =d

dt(RRT )− RRT = −RRT

essendo RRT = I.

Page 71: Lezioni Di Algebra Lineare (Cabib)

Capitolo 4

Autovalori e autovettori

4.1 Formulazione del problema ed esempi

Di notevole interesse e la ricerca delle direzioni unite di un’applicazionelineare A, cioe di quei vettori u ∈ V di cui A conserva la direzione.

Problema 4.1 - Sia V uno spazio vettoriale sul corpo K e A : V → V unendomorfismo. Trovare λ ∈ K e u ∈ V , u 6= 0, tali che

(4.1) Au = λu .

Se λ e u soddisfano la (4.1), λ si chiama autovalore di A e u autovettore di Arelativo a λ. L’insieme degli autovalori di un operatore lineare si chiama spettro.

Ovviamente l’insieme degli autovettori relativi ad un certo autovalore λ, cos-tituisce, unito con {0}, un sottospazio vettoriale di V che si chiama autospazio.La verifica e immediata

Au = λu e Av = λv ⇒ A(αu+βv) = αAu+βAv = αλu+βλv = λ(αu+βv) ,

d’altra parte l’autospazio di λ e anche il nucleo di A− λI).Esempi:

4.1 L’endomorfismo A = cI su V , con c scalare e I l’identita, ammette c comeunico autovalore e ogni vettore di V , escluso 0 naturalmente, e autovettore.

Infatti A associa ad ogni vettore u ∈ V il vettore cu.

4.2 La derivazione D : C1(R) → C0(R) e lineare. Gli autovettori di D sonole funzioni u : R → R, dette anche autofunzioni, tali che

(4.2) u′(x) = λu(x) ∀x ∈ R

per qualche autovalore λ ∈ R.

70

Page 72: Lezioni Di Algebra Lineare (Cabib)

4.1. Formulazione del problema ed esempi 71

Si vede facilmente che ogni numero reale λ e autovalore, mentre le corrispondentiautofunzioni, in quanto soluzioni dell’equazione differenziale (4.2), sono tutte esole quelle del tipo

u(x) = ceλx ∀x ∈ R .

Infatti dividendo per u si ottiene

u′

u= λ ⇒ log |u| = λx + c ⇒ u(x) = ceλx .

4.3 Nello studio dei classici fenomeni lineari di vibrazione della corda conestremi fissi ci si imbatte nel problema spettrale

(4.3){ −u′′ = λu su (0, π)

u(0) = u(π) = 0 .

L’esempio precedente suggerisce la ricerca di soluzioni di tipo esponenzialeu(x) = eax che, sostituite nella (4.3), portano alla condizione

a2 + λ = 0 .

Ma se λ ≤ 0, tenuto conto dei dati agli estremi, si ottiene solo la soluzioneidenticamente nulla, altrimenti poniamo λ = ω2 con ω > 0. Allora

a = ±iω e u(x) = c1eiωx + c2e

−iωx = a cosωx + b sen ωx .

Dalle condizioni assegnate agli estremi ricaviamo facilmente gli autovalori, inquesto contesto detti autofrequenze, e i corrispondenti modi normali di vibrazioneo autostati

ωn = n e un(x) = sen nx .

Un suono deriva da un particolare movimento della corda che puo essere rapp-resentato come sovrapposizione, combinazione lineare, di certi modi normali.

In V3, abbiamo visto, un tensore ortogonale R ammette λ = 1 (o λ = −1)come autovalore e un sottospazio unidimensionale come relativo autospazio. Ilcomplemento ortogonale di questo e il piano in cui avviene la rotazione e noncontiene autovettori a meno che, detto ϑ l’angolo, non sia ϑ = kπ. Si trattacomunque di un piano invariante, nel senso che se un certo u vi appartiene, lostesso vale per Ru. Se pero tale piano viene considerato non come spazio vet-toriale reale bidimensionale, ma come spazio complesso unidimensionale, alloravi e un altro autovalore e tutti i vettori di questo piano, o ”retta complessa”,sono autovettori. Basta infatti ricordare l’identificazione(

cosϑ − senϑsen ϑ cosϑ

)∼ eiϑ

per la quale, posto (u1, u2) = x + iy = z, l’operazione Ru puo identificarsi coneiϑz.

Diversa e la situazione in cui, agendo sempre sul piano tanto per fare unesempio semplice, l’operatore ammette due autovalori reali. Vediamo che cosasuccede con le applicazioni lineari su R2 che sono le matrici 2× 2.

Page 73: Lezioni Di Algebra Lineare (Cabib)

72 Capitolo 4. Autovalori e autovettori

4.4 La matrice

A =(

1 12 2

)

ha come autovalori λ1 = 0 e λ2 = 2 e come corrispondenti autospazi V (λ1) =V1 = {t(1,−1) | t ∈ R} e V (λ2) = V2 = {t(1, 2) | t ∈ R}.Essendo (

1 12 2

)(xy

)=

(x + y

2x + 2y

),

per quali λ ∈ R e per quali (x, y) ∈ R2 si ha

(4.4) (x + y, 2x + 2y) = λ(x, y)?

Basta risolvere il sistema{

(1− λ)x + y = 02x + (2− λ)y = 0

imponendo che non vi sia soltanto la soluzione nulla, cioe che valga la condizione∣∣∣∣

1− λ 12 2− λ

∣∣∣∣ = λ2 − 3λ = 0 ,

soddisfatta da λ1 = 0 e λ2 = 3. In un caso la (4.4) diventa

x + y = 0

e nell’altro2x− y = 0 .

4.5 La matrice

A =(

1 10 1

)

ha come unico autovalore λ = 1 e come corrispondente autospazio V1 = {t(1, 0) | t ∈R}.I conti, simili al caso precedente, si lasciano per esercizio.

Nel primo esempio possiamo scegliere un autovettore da ogni autospazio performare una base, nel secondo non e possibile. Vediamo allora come si trasformala matrice A su una base di autovettori nel primo esempio.

A′ = P−1AP =13

(2 −11 1

)(1 12 2

)(1 1−1 2

)=

(0 00 3

).

La matrice e stata ridotta a forma diagonale: sulla diagonale principale com-paiono gli autovalori e al di fuori solo zeri. Nel secondo esempio invece la matrice

Page 74: Lezioni Di Algebra Lineare (Cabib)

4.1. Formulazione del problema ed esempi 73

data non e diagonalizzabile. Vedremo in dimensione n che l’esistenza di n au-tovalori semplici e condizione sufficiente per la diagonalizzabilita, ne vedremoanche un’altra che riguarda le applicazioni lineari simmetriche.

Riprendiamo il procedimento generale. La (4.1) e equivalente all’equazioneomogenea

(A− λI)u = 0

che, in dimensione finita, diciamo n (come supponiamo da ora in poi), ammettesoluzioni u non banali se e solo se

(4.5) det(A− λI) = 0 .

Questa condizione non dipende dalla matrice rappresentativa di A, ma da Astesso come operatore, in modo intrinseco, in quanto

det(P−1AP−λI) = det[P−1(A−λI)P ] = det P−1 det(A−λI) det P = det(A−λI) .

La (4.5) e un’equazione algebrica di grado n, si chiama equazione secolare oequazione caratteristica, ed ha una struttura a segni alternati del tipo

(4.6) λn − trAλn−1 + . . .− (−1)n det A = 0 ,

dove tr, la traccia, insieme a tutti gli altri coefficienti fino al determinante sonogli invarianti di A. Ad esempio per n = 3

λ3 − IAλ2 + IIAλ− IIIA = 0

dove

IA = trA = A · I = a11 + a22 + a33

IIA = A11 + A22 + A33 = 12

[(A · I)2 −A ·AT

]= 1

2 (aiiajj − aijaji)IIIA = det A .

Per il noto Teorema Fondamentale dell’Algebra la (4.6) ammette n soluzioni inC contate ciascuna con la propria molteplicita. Tali soluzioni possono esserereali o complesse, ma se A e reale le soluzioni non reali sono sicuramente innumero pari: una e la sua coniugata, quindi nel caso A reale con n disparivi e sempre una soluzione reale. Da note proprieta che legano le radici di unpolinomio ai suoi coefficienti segue che la somma degli autovalori e la traccia diA, mentre il loro prodotto ne e il determinante.

Infine per trovare gli autovettori relativi all’autovalore λk basta risolvere ilsistema lineare omogeneo

(A− λkI)u = 0

che e degenere per costruzione. Se e possibile costruire in V , con dim V = n,un sistema di n autovettori u1, u2, . . . , un linearmente indipendenti, scelti questicome base, si ottengono le componenti

a′ij = (Auj)i = (λjuj)i = λjδij ,

Page 75: Lezioni Di Algebra Lineare (Cabib)

74 Capitolo 4. Autovalori e autovettori

e la matrice associata assume la forma diagonale

A′ =

λ1 0 . . . 00 λ2 . . . 0...

... . . ....

0 0 . . . λn

= diag[λ1, . . . , λn] .

Naturalmente si ritrova la forma diagonale della matrice associata calcolando ilprodotto A′ = P−1AP , dove P , la matrice del cambio di base, ha per colonne,nello stesso ordine degli autovalori, le componenti dei corrispondenti autovettori.Su una base di autovettori ui l’applicazione lineare A puo essere scritta anchemediante la sua decomposizione spettrale

A =n∑

i=1

λiui ⊗ ui ,

basta ricordare la definizione di diade.

4.2 Autovalori semplici

Dal seguente teorema deriva immediatamente che se un endomorfismo A :V → V , con dim V = n, ammette n autovalori a due a due distinti λ1, . . . , λn,quindi semplici, allora esiste una base di autovettori e A e diagonalizzabile.

Teorema 4.2 - Siano λ1, . . . , λk k autovalori distinti di A. Se per ogni λi

si sceglie un corrispondente autovettore ui, i vettori u1, . . . , uk sono linearmenteindipendenti.

Dimostrazione. Procediamo per induzione. Per k = 1 l’affermazione e banal-mente vera. Potremmo dimostrarla direttamente anche per k = 2 nel seguentemodo. Se λ1 6= λ2, Au1 = λ1u1 e Au2 = λ2u2, imponiamo

(4.7) c1u1 + c2u2 = 0

e dimostriamo che c1 = c2 = 0. Applicando la A ai due membri della (4.7), siottiene

c1λ1u1 + c2λ2u2 = 0 .

Se adesso moltiplichiamo l’altra per λ2 e sottraiamo da essa questa, si ottiene

c1(λ2 − λ1)u1 = 0 ,

ma in quanto autovettore u1 6= 0 e λ1 6= λ2 per ipotesi, quindi c1 = 0 e dalla(4.7) anche c2 = 0.

Per dimostrare che la proposizione e induttiva si ragiona in modo simile.Poniamo nulla una combinazione lineare dei k autovettori u1, . . . , uk

(4.8) c1u1 + c2u2 + . . . + ckuk = 0

Page 76: Lezioni Di Algebra Lineare (Cabib)

4.3. Proprieta spettrali delle forme hermitiane e anti-hermitiane 75

corrispondenti ai k autovalori distinti λ1, . . . , λk. Applicando la A si ottienec1λ1u1 + c2λ2u2 + . . . + ckλkuk = 0 e per sottrazione membro a membro diquesta dalla precedente moltiplicata per λk, si ottiene

c1(λk − λ1)u1 + c2(λk − λ2)u2 + . . . + ck−1(λk − λk−1)uk−1 = 0 .

Per l’ipotesi induttiva u1, . . . , uk−1 sono linearmente indipendenti e λk−λi 6= 0per ogni i = 1, . . . , k − 1, quindi ci = 0 per i = 1, . . . , k − 1 e dalla (4.8) ancheck = 0.

2

Di conseguenza, se tutti gli autovalori λ1, . . . , λn sono distinti, scelto perognuno di essi, diciamo l’i-esimo, un corrispondente autovettore ui, l’insiemeu1, . . . , un, in quanto indipendente e formato da n elementi, e anche una basedi V . Gli autospazi hanno tutti dimensione pari a 1, ciascuno di essi, l’i-esimo,e il sottospazio generato da ui.

4.3 Proprieta spettrali delle forme hermitiane eanti-hermitiane

Cominciamo con un esempio di applicazione lineare simmetrica su R3. Gliautovalori della matrice

A =

8 −2 2−2 5 42 4 5

si trovano risolvendo l’equazione algebrica

λ3 − 18λ2 + 81λ = 0

e sono λ1 = 0, λ2 = λ3 = 9. Gli autovettori relativi all’autovalore nullo, λ1,sono le terne (x, y, z) che soddisfano

8 −2 2−2 5 42 4 5

xyz

=

000

.

Poiche la prima riga e combinazione lineare delle altre, un sistema equivalentee {

2x− 5y − 4z = 02x + 4y + 5z = 0 .

Per differenza membro a membro si ottiene y + z = 0, da cui x = y/2. Dunqueun generatore dell’autospazio di λ1 e il vettore u1 = (1, 2,−2).

Veniamo all’altro autospazio, formato da vettori indipendenti dai precedentiper il Teorema 4.2. Dobbiamo trovare le soluzioni del sistema

−1 −2 2−2 −4 42 4 −4

xyz

=

000

.

Page 77: Lezioni Di Algebra Lineare (Cabib)

76 Capitolo 4. Autovalori e autovettori

Ma questo si riduce alla sola equazione

x + 2y − 2z = 0 .

Basta scegliere come generatori del nuovo autospazio due soluzioni indipendentidi questa equazione, ad esempio u2 = (0, 1, 1) e u3 = (2,−1, 0).

Osserviamo che u2 e u3 sono entrambi ortogonali a u1. Non e casuale, comenon e casuale il fatto che gli autospazi siano ortogonali, ma dipende dal fattoche l’applicazione data e simmetrica come vedremo tra poco. Sapendo questosi poteva evitare il calcolo degli autovettori del secondo autovalore scegliendodirettamente due vettori u2 e u3 tali che

u2 · u1 = 0 e u3 · u1 = 0 .

Si presenta dunque, nel caso di simmetria, il vantaggio di poter disporre diuna base diagonalizzante che sia anche ortonormale. In questo esempio si puoscegliere la terna

e1 =u1

|u1| =13(1, 2,−2) , e2 =

u2

|u2| =1√2(0, 1, 1) , e3 = e1×e2 =

13√

2(4,−1, 1) .

Questa peculiarita, legata alla simmetria dell’operatore, puo essere spiegatanell’ambito dei seguenti risultati generali.

Teorema 4.3 - Sia V uno spazio vettoriale complesso e A ∈ L (V ). Gliautovalori di A sono reali se A e hermitiano e immaginari puri se A e anti-hermitiano. In ogni caso a due autovalori distinti corrispondono autovettoriortogonali.

Dimostrazione. Se A e hermitiano, sia u un autovettore dell’autovalore λ.Si ha

u ·Au = u · λu = λu · u = λ|u|2 ,

d’altra parteu ·Au = Au · u = λu · u = λ|u|2

e per confronto delle due λ = λ.Se A e anti-hermitiano la dimostrazione e simile

u ·Au = u · λu = λ|u|2 ,

d’altra parteu ·Au = −Au · u = −λ|u|2

e per confronto delle due λ = −λ.Scelti due autovalori λ 6= µ e relativi autovettori u e v, nel caso hermitiano

λ, µ ∈ R, quindiu ·Av = u · µv = µu · v ,

d’altra parteu ·Av = Au · v = λu · v

Page 78: Lezioni Di Algebra Lineare (Cabib)

4.4. Proprieta estremali degli autovalori di una forma quadratica 77

e per confronto(λ− µ)u · v = 0 .

Essendo λ − µ 6= 0 si ottiene u · v = 0. La dimostrazione dell’ortogonalita nelcaso anti-hermitiano, del tutto simile, si lascia per esercizio.

2

Veniamo all’esistenza di basi ortonormali di autovettori.

Teorema 4.4 - Un operatore A hermitiano o anti-hermitiano ammette unabase di autovettori.

Dimostrazione. Si procede per induzione. Se dim V = 1 il teorema e ba-nalmente vero. Supponiamolo vero se dim V = n − 1 e dimostriamolo sedim V = n. Scelto un autovettore di λn, il complemento ortogonale V ⊥ del-l’autospazio Vn generato da un ha dimensione n − 1. Se adesso dimostriamoche A : V ⊥ → V ⊥, bastera scegliere una base ortonormale di autovettori di Au1, u2, . . . , un−1 in V ⊥ e abbiamo subito che u1, u2, . . . , un−1, un e una base diautovettori in V . Per ogni u ∈ V ⊥ si ha (doppio segno a seconda di A se ehermitiano o anti-hermitiano)

Au · un = ±u ·Aun = ±u · λnun = 0 ,

quindi Au ∈ V ⊥.2

4.4 Proprieta estremali degli autovalori di unaforma quadratica

Vediamo qual e il ruolo degli autovalori e degli autovettori nella teoria delleforme quadratiche. Intanto osserviamo che se la forma bilineare a(u, v) = u·Av ehermitiana [anti-hermitiana] la corrispondente forma quadratica assume semprevalori reali [immaginari] perche

u ·Au = Au · u = u ·Au [u ·Au = −Au · u = −u ·Au] ∀u ∈ V .

Ci interessa qui il caso di una forma hermitiana, che potremmo anche pen-sare reale e dunque simmetrica, ma non vi sarebbe nessun vantaggio rilevante.Gli autovalori, come sappiamo, sono comunque reali e li possiamo denominaresecondo il loro ordine, λ1 ≤ λ2 ≤ . . . ≤ λn, dal piu piccolo al piu grande.

Teorema 4.5 - Vale la doppia stima

(4.9) λ1|u|2 ≤ u ·Au ≤ λn|u|2 ∀u ∈ V .

Inoltre, scelta una base ortonormale {ei}, i = 1, . . . , n, di autovettori, Aui =λiei, si ha

λ1 = min|e|=1

e ·Ae = e1 ·Ae1 e λn = max|e|=1

e ·Ae = en ·Aen .

Page 79: Lezioni Di Algebra Lineare (Cabib)

78 Capitolo 4. Autovalori e autovettori

Dimostrazione. Esprimiamo ogni vettore u ∈ V come combinazione lineareu =

∑h uheh degli autovettori unitari scelti. Si ottiene in questo modo

u·Au =n∑

hk=1

uheh ·A(ukek) =n∑

hk=1

uheh ·ukλkek =n∑

hk=1

λkuhukδhk =n∑

h=1

λhu2h .

D’altra parte l’espressione ottenuta soddisfa ovviamente le disuguaglianze

λ1

n∑

h=1

u2h ≤

n∑

h=1

λhu2h ≤ λn

n∑

h=1

u2h

dove∑

u2h = |u|2. Pertanto la prima affermazione e dimostrata. Per la seconda

parte del teorema basta porre nella (4.9) u = e1 e u = en.2

Il Teorema 4.5 mostra che il minimo [massimo] autovalore e anche il minimo[massimo] della forma quadratica sulla sfera unitaria e tali valori estremi ven-gono raggiunti proprio in corrispondenza dei relativi autovettori. Osserviamo inpiu che anche gli autovalori intermedi vengono comunque raggiunti, come valoridella forma, sui relativi autovettori unitari, i quali sono, come e1 ed en, i puntistazionari vincolati della forma sulla sfera unitaria. In questo contesto intendi-amo per stazionari (vincolati ad una superficie) quei punti della sfera unitaria incui Aei, essendo parallelo ad ei, e radiale, cioe ortogonale alla superficie stessa,alla sfera in questo caso.

Ogni forma quadratica ϕ(u) = u ·Au si annulla ovviamente per u = 0.

Definizione 4.6 - Diciamo che ϕ e

(> 0) definita positiva se ϕ(u) > 0 per ogni u ∈ V − {0},(≥ 0) semidefinita positiva se ϕ(u) ≥ 0 per ogni u ∈ V ed esiste u 6= 0 tale

che ϕ(u) = 0,

(< 0 <) non definita se esistono u, v 6= 0 tali che ϕ(u) < 0 e ϕ(v) > 0.

Analogamente si definiscono le forme negative. Dal Teorema 4.5 discende imme-diatamente la seguente caratterizzazione dei tre casi trattati nella Definizione 4.6

(> 0) λ1 > 0,

(≥ 0) λ1 = 0,

(< 0 <) λ1 < 0 < λn,

con gli autovalori ordinati come prima. Per motivi che si possono ricondurre allageometria analitica delle coniche, diciamo che la forma quadratica ϕ e ellitticase λ1 > 0 o λn < 0, parabolica se λ1 = 0 o λn = 0 e iperbolica se λ1 < 0 < λn.

Page 80: Lezioni Di Algebra Lineare (Cabib)

Bibliografia

[1] T. Apostol, Geometria, vol.2, Bollati Boringhieri, Torino, 1985.

[2] D. Freni, J. K. Canci, Algebra lineare e geometria, esercizi e complementi,Pearson, 2008.

79