Complementi Di Algebra Lineare

download Complementi Di Algebra Lineare

of 25

Transcript of Complementi Di Algebra Lineare

  • 7/23/2019 Complementi Di Algebra Lineare

    1/25

    Complementi di algebra lineare

    Maurizio Cornalba

    1. Polinomi e matrici

    Sia V uno spazio vettoriale sul campo K, e sia f un suo endomorfismo. Sia poiP(X) =

    i aiX

    i un polinomio a coefficienti in K. Poniamo

    P(f) =i

    aifi ,

    dove fi sta per la composizione di f con se stesso i volte. Allo stesso modo, se A e unamatrice n na coefficienti in K, porremo

    P(A) =i

    aiAi .

    Se Vha dimensione finita e A e la matrice di f rispetto a una sua base, allora P(A) e lamatrice di P(f) rispetto a questa stessa base. Cio segue dal fatto che la composizione diapplicazioni lineari corrisponde al prodotto di matrici. Sia ora Q(X) un altro polinomio.Valgono le seguenti proprieta

    P(f) + Q(f) = (P+ Q)(f) ,

    P(f)Q(f) =P Q(f) .

    Solo la seconda merita un cenno di dimostrazione. Scriviamo Q(X) =

    i biXi, cosicche

    P Q(X) =i

    h+k=i

    ahbk

    Xi .

    Daltra parte

    P(f)Q(f) = (

    hahf

    h)(

    kbkf

    k)

    =i

    h+k=i

    ahfhbkf

    k

    =i

    h+k=i

    ahbk

    fi ,

    come si voleva. Naturalmente proprieta analoghe a quelle appena dimostrate valgonoquando al posto di fvi sia una matrice quadrata.

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 1

  • 7/23/2019 Complementi Di Algebra Lineare

    2/25

    Teorema (1.1) (Cayley-Hamilton). SiaV uno spazio vettoriale di dimensione finitasul campo K, sia f : V V una applicazione lineare, e sia P(X) il suo polinomiocaratteristico. AlloraP(f) = 0.

    Scegliamo una base di V, e sia A la matrice di f rispetto a questa base. Dunque

    P(X) = det(XI A), e dobbiamo dimostrare che P(A) = 0. Siamo naturalmente liberidi cambiare la base o, che e lo stesso, di rimpiazzare la matrice A con una sua coniugata,se necessario. La dimostrazione e per induzione su n. Il teorema e sicuramente vero pern= 1, in quanto in questo casoA e uno scalarea e P(X) =X a. Pern >1 ci baseremosul seguente semplice risultato algebrico, che enunciamo senza dimostrazione.

    Lemma (1.2). Esiste un campoFdi cuiK e sottocampo (esiste cioe una estensioneF diK) tale chePabbia una radice in F.

    Possiamo considerare la matrice A come matrice a coefficienti in F, senza che questocambi il suo polinomio caratteristico. Lannullarsi o meno di P(A) e inoltre indipendentedal fatto che si lavori sul campoKo sul campoF. Possiamo dunque supporre chePabbia

    una radice gia in K. Scegliamo la base di V in modo che il suo primo elemento sia unautovettore per . Allora

    A=

    C0 B

    ,

    dove B e un blocco (n 1) (n 1) e Cun blocco 1 (n 1). Applicando la regola diLaplace e sviluppando il determinante rispetto alla prima colonna si ottiene

    P(X) = det(XI A) = (X )det(XI B) .

    In altre parole, il polinomio caratteristico di A e il prodotto di X e del polinomio

    caratteristico diB , che indichiamo conQ(X). Per ipotesi induttiva sappiamo che Q(B) =0. E immediato mostrare che

    C0 B

    k=

    k D0 Bk

    ,

    dove D e una matrice 1 (n 1). Ne segue che

    A I=

    0 E0 G

    , Q(A) =

    Q() M

    0 Q(B)

    =

    Q() M

    0 0

    ,

    dove G e una matrice (n 1) (n 1) e E, Msono matrici 1 (n 1). Dunque

    P(A) = (A I)Q(A) =

    0 E0 G

    Q() M

    0 0

    = 0 ,

    come si doveva dimostrare.

    Nel resto di questa sezione supporremo sempre che V abbia dimensione finita. Ilteorema di Cayley-Hamilton asserisce tra laltro lesistenza di un polinomio non nullo a

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 2

  • 7/23/2019 Complementi Di Algebra Lineare

    3/25

    coefficienti in Kche si annulla se valutato su f. Tra tutti i polinomi non nulli con questaproprieta consideriamo quelli di grado minimo. Questi polinomi sono tutti proporzionali fraloro, poiche in caso contrario si potrebbe costruire per combinazione lineare un polinomionon nullo di grado piu basso che si annulla se valutato su f; vi e dunque tra loro un solopolinomio monico, che si chiama polinomio minimo di f. Allo stesso modo si definisce il

    polinomio minimo di una matrice quadrata. E chiaro che, se A e la matrice di f rispettoa una qualche base, i polinomi minimi di f e di A coincidono.

    Sia ora Q il polinomio minimo di f, e sia G un polinomio a coefficienti in Ktale cheG(f) = 0. Vogliamo mostrare che esiste un altro polinomio Ha coefficienti in Ktale cheG= H Q. Infatti se dividiamo G per Q possiamo scrivere

    G= H Q + R ,

    dove R e nullo o ha grado piu basso di quello di Q. E chiaro che R(f) = 0; quindi, se Rnon fosse nullo, Qnon potrebbe essere il polinomio minimo di f.

    Proposizione (1.3). SiaVuno spazio vettoriale di dimensione finita su K, siafun suoendomorfismo, e indichiamo con Q il polinomio minimo dif. Allora:

    i) ogni autovalore dif e radice diQ;ii) f e diagonalizzabile (su K) se e solo seQ hadeg(Q) radici distinte in K.

    Sia un autovalore di f; dunque ce un vettore non nullov V tale che f(v) =v .Ne segue che fi(v) = iv per ogni i, e quindi che H(f)(v) = H()v per ogni polinomioH. In particolare 0 = Q(f)(v) =Q()v, e come conseguenza Q() = 0. Supponiamo orachefsia diagonalizzabile, cioe che V abbia una base v1, . . . , vn costituita da autovettori.Riordinando questa base possiamo supporre che

    f(vi) =

    1vi se 0 =n0 < i n12vi se n1 < i n23vi se n2 < i n3. . .

    hvi se nh1 < i nh = n

    dove 1, . . . , h sono distinti. Dico che Q(X) =

    i(X i). Dato che, come si e visto,ognuno dei i e radice di Q, basta mostrare che H(f) = 0, dove H(X) =

    i(X i). In

    effetti, se j e un intero compreso tra 1 e n, e i e scelto in modo che ni1 < j ni, allora

    f(vj) =ivj e quindi

    H(f)(vj) =k=i

    (f k1)(f(vj) ivj) = 0 .

    Poiche vj e un elemento arbitrario della base scelta per V, H(f) deve essere nullo.Per completare la dimostrazione di (1.3) resta da mostrare che, seQ(X) =

    i(Xi),

    dove i i sono distinti, allora f e diagonalizzabile. Ragioneremo per induzione sul gradodiQ. Se questo e 1, f e una omotetia, e quindi diagonalizzabile. Descriviamo ora il passo

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 3

  • 7/23/2019 Complementi Di Algebra Lineare

    4/25

    induttivo. ScriviamoQ(X) = (X 1)R(X), dove R(X) =

    k>1(X k). Osserviamoche, poiche 1 non e una radice di R, dividendo R per (X 1) si puo scrivere

    R(X) =C(X)(X 1) + c ,

    dove c e una costante non nulla. Dividendo per c se ne ricava che ci sono polinomi A e Btali che

    (1.4) (X 1)A(X) + R(X)B(X) = 1 .

    Sia ora v un elemento di V. Da (1.4) si deduce che

    v= (f 11)A(f)(v) + R(f)B(f)(v) .

    Si noti che (f11)R(f)B(f)(v) = Q(f)B(f)(v) = 0 e che R(f)(f11)A(f)(v) =Q(f)A(f)(v) = 0. Cio mostra che v e somma di un elemento di V1 = ker(R(f)) e di uno

    di V2 = ker(f 11); in altre parole, V e somma di V1 e V2. Questa somma e diretta. Ineffetti, se v V1 V2, allora da (1.4) si ricava che

    v=A(f)(f(v) 1v) + B(f)R(f)(v) = 0 .

    Osserviamo ora che f R(f)(w) = R(f)(f(w)) per ogni w V, e quindi in particolaref(w) ker R(f) ogni volta che wker R(f). In altri termini, se conveniamo di chiamareinvarianteper fun sottospazio W di V nel caso in cui f(W) W, il sottospazio V1 =ker R(f) e invariante. Ne segue che f induce per restrizione un endomorfismo g di V1.Il polinomio minimo di g e R(X). Per ipotesi induttiva g e diagonalizzabile, cioe vi euna base di V1 costituita da autovettori di g, e quindi di f. Una base di V costituita daautovettori si ottiene aggiungendo a questa una base di V2, che e lautospazio difrelativoa 1. La dimostrazione di (1.3) e completa.

    Ricordiamo che due polinomi si dicono primi fra loro se non vi sono polinomi, oltrealle costanti, che li dividano entrambi.

    Proposizione (1.5). SiaVuno spazio vettoriale di dimensione finita suKe siafun suoendomorfismo. SianoP1, . . . , P h polinomi a due a due primi fra loro tali che

    Pi(f) = 0.

    AlloraV e somma diretta dei sottospaziVi = ker(Pi(f)), i= 1, . . . , h.

    Questa proposizione e la sua dimostrazione generalizzano la parte finale della dimo-

    strazione di (1.3). Iniziamo dal caso h = 2. Faremo uso del seguente semplice lemmaalgebrico.

    Lemma (1.6). SianoP1 eP2 polinomi a coefficienti in K. SeP1 eP2 sono primi fra loroesistono polinomiA eB a coefficienti in Ktali che

    A(X)P1(X) + B(X)P2(X) = 1 .

    Osserviamo, per inciso, che (1.4) e un caso particolare di questo lemma. Per dimostrare(1.6) indichiamo con H un polinomio non nullo di grado minimo tra quelli della forma

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 4

  • 7/23/2019 Complementi Di Algebra Lineare

    5/25

    M P1+ N P2, doveM eNsono polinomi. Possiamo scrivere P1(X) =C(X)H(X) + R(X),dove R e nullo o ha grado minore di quello di H. Quindi R = (1 C M)P1 C N P2.Per la minimalita del grado di H, R deve essere nullo. Dunque H divide P1, e lo stessoragionamento mostra che divide P2. Poiche P1 e P2 sono primi fra loro, ne segue che H ecostante. Dividendo per questa costante si ottiene la relazione cercata.

    Torniamo alla dimostrazione di (1.5). Se vV segue da (1.6) che

    v= 1(v) =P2(f)B(f)(v) + P1(f)A(f)(v) .

    Dato cheP1(f)P2(f)B(f)(v) = 0 e P2(f)P1(f)A(f)(v) = 0, cio esprime v come somma diun elemento di V1 e di uno di V2. Se poi v appartiene a V1 V2 possiamo scrivere, sempreusando (1.6):

    v= 1(v) =B(f)P2(f)(v) + A(f)P1(f)(v) = 0 .

    Cio mostra che V =V1 V2, completando la dimostrazione nel caso h= 2.Perh >2 si procede per induzione su h. Faremo uso di un altro lemma algebrico.

    Lemma (1.7). SianoP1, . . . , P hpolinomi a coefficienti inK. SeP1 e primo conP2, . . . , P h,alloraP1 e primo con Q= P2 Ph.

    Ragioniamo per assurdo. Se quanto affermato dal lemma non fosse vero potremmotrovare polinomi di grado positivo che sono divisori sia di P1 che diQ. SiaHun polinomiodi grado minimo tra questi; in particolare Hnon ha divisori di grado minore di quello diHa parte le costanti. Dato che P1 eP2 sono primi fra loro, cio implica che Hdeve essereprimo conP2, e quindi, per (1.6), che si puo scrivere

    1 =AH+ BP2 ,

    da cui i3

    Pi=i3

    PiAH+ BQ .

    Dato che Hdivide Q se ne deduce che divide anche P3 Ph. Iterando questo ragionamentosi giunge alla conclusione che H divide Ph, il che e assurdo visto cheP1 e Ph sono primifra loro.

    Torniamo alla dimostrazione di (1.5). Il lemma che abbiamo appena dimostrato diceche P1 e Q = P2 Ph sono primi fra loro. Usando il caso h = 2 della proposizione nededuciamo che V e somma diretta di V1 e del nucleo di Q(f). Osserviamo che f Q(f) =Q(f)f, e che quindi f(ker Q(f)) ker Q(f). Ne segue che f induce per restrizione unendomorfismo g di ker Q(f). Per la definizione di ker Q(f) si ha che Q(g) = 0, e quindi,per ipotesi induttiva, se ne ricava che

    ker Q(f) =i2

    ker Pi(g) ,

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 5

  • 7/23/2019 Complementi Di Algebra Lineare

    6/25

    o anche che

    V =V1 ker Q(f) =V1i2

    ker Pi(g) .

    Per concludere basta osservare che, per i 2,

    ker Pi(g) = ker Q(f) ker Pi(f) = ker Pi(f) ,

    dato che Pi divide Q e quindi ker Pi(f) ker Q(f). La dimostrazione di (1.5) e oracompleta.

    Corollario (1.8). Sia V uno spazio vettoriale di dimensione finita su K e sia f unsuo endomorfismo. Supponiamo che il polinomio caratteristico P di f si decompongacompletamente in fattori lineari, e scriviamo

    P(X) =

    hi=1

    (X i)i ,

    dove i i sono distinti. Allora V e somma diretta dei sottospazi Vi = ker(fi1)i ,

    i= 1, . . . , h. Inoltre la dimensione diVi ei.

    Dato che P(f) = 0 per il teorema di Cayley-Hamilton, e che (X i)i e (X j)

    j

    sono primi fra loro se i =j, e necessario dimostrare solo lasserzione sulle dimensioni deiV1. Scegliamo una base v1, . . . , vn1 , vn1+1, . . . , vn2 , . . . per V in modo che v1, . . . , vn1 siauna base di V1, vn1+1, . . . , vn2 una base di V2, e cos via. Dato che f Pi(f) = Pi(f)f, equindif(Vi) Vi, per ognii, la matrice difrispetto a questa base e diagonale a blocchi ed

    ha sulla diagonale blocchi di dimensioni n1 = dim V1,n2 n1 = dim V2,n3 n2 = dim V3,e cos via. Inoltre f induce per restrizione un endomorfismo fi di Vi. Le matrici diquesti endomorfismi non sono altro che i blocchi diagonali della matrice di f. Ne segue inparticolare che P(X) =

    i Pi(X), dove Pi e il polinomio caratteristico di fi. Si ha che

    Pi(X) = det(X1 fi) = det((X i)1 (fi i1)) =Q(X i), dove Q e il polinomiocaratteristico di Ni=fi i1. Poiche il grado di Pi e la dimensione di Vi, per concluderebasta mostrare che Q e una potenza di Xper ogni i. Ricordiamo che un endomorfismo sidicenilpotentese una sua potenza e nulla. Gli endomorfismiNisono nilpotenti. Infatti, perdefinizione, Vi e il nucleo di (f i1)

    i , e quindi Nii = 0. Quanto dobbiamo dimostraresegue dunque dal seguente risultato.

    Lemma (1.9). SiaV uno spazio vettoriale di dimensione finitan, e siaN un suo endo-morfismo. AlloraN e nilpotente se e solo se il suo polinomio caratteristico eXn.

    La dimostrazione e semplice. Da un lato, se il polinomio caratteristico eXn, il teoremadi Cayley-Hamilton dice che Nn = 0. Per dimostrare il viceversa poniamoVi = ker N

    i, eosserviamo che N(Vi) Vi1 Vi. Se N e nilpotente, Vi = V per i abbastanza grande.Vi e dunque una filtrazione crescente di V

    {0}= V0 V1 Vj Vj+1=V .

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 6

  • 7/23/2019 Complementi Di Algebra Lineare

    7/25

    Possiamo costruire una base v1, . . . , vn1 , vn1+1, . . . , vn2 , . . . in modo chev1, . . . , vn1 sia unabase diV1,v1, . . . , vn2 una base di V2, e cos via. Rispetto a questa base la matriceA di Ne triangolare superiore e ha zeri sulla diagonale. QuindiXI A e triangolare superiore ei suoi elementi diagonali sono tutti uguali a X. Di conseguenza det(XI A) =Xn, comesi voleva.

    Completiamo questa sezione dando unaltra dimostrazione del teorema di Cayley-Hamilton (1.1). Anche questa dimostrazione e per induzione sulla dimensione n dellospazio vettorialeV. Come si e gia osservato nel corso della prima dimostrazione, il teoremae banalmente vero pern= 1. Sen >1 distinguiamo due casi. Il primo e quello in cui esisteun sottospazio vettoriale W V, diverso da {0} e da V, tale che f(W) W, il secondoquello in cui cio non accade. Nel primo caso possiamo scegliere una base v1, . . . , vn per Vin modo che v1, . . . , vh sia una base di W, dove h < n. Rispetto a questa base la matricedi f e della forma

    A= A1 B0 A2

    ,dove A1 e un blocco h h, A2 un blocco (n h) (n h) e B un blocco h (n h).

    Lemma (1.10). det(A) = det(A1) det(A2) e P(X) = P1(X)P2(X), dove P1(X) e ilpolinomio caratteristico diA1 eP2(X) quello diA2.

    Dato che

    P(X) = det(XI A) = det

    XI A1 B

    0 XI A2

    ,

    e sufficiente dimostrare la prima affermazione. Sappiamo che questa e vera se B = 0, evogliamo ridurci a questo caso. Se le righe di A2 sono tra loro dipendenti, anche le righe

    di A lo sono, e quindi det(A) = det(A2) = 0; in questo caso, dunque, il lemma e vero.Se invece le righe di A2 sono indipendenti, costituiscono una base di Knh. Ne segue che

    ogni riga di B e combinazione lineare di righe di A2 e quindi, per eliminazione Gaussiana,possiamo ridurre la nostra matrice alla forma

    A1 00 A2

    ,

    senza cambiarne il determinante, che vale percio det(A1) det(A2). Questo conclude ladimostrazione del lemma.

    Torniamo alla dimostrazione del teorema di Cayley-Hamilton. Induttivamente, pos-

    siamo supporre che esso valga per A1 e A2; possiamo cioe supporre che P1(A1) = 0 ,P2(A2) = 0. E immediato mostrare che

    A1 B0 A2

    k=

    Ak1 C0 Ak2

    ,

    dove C e una matrice h (n h). Ne segue che

    P1(A) =

    P1(A1) D

    0 E

    =

    0 D0 E

    , P2(A) =

    F G0 P2(A2)

    =

    F G0 0

    ,

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 7

  • 7/23/2019 Complementi Di Algebra Lineare

    8/25

    dove F e una matrice h h, Euna matrice (n h) (n h), D e G matrici h (n h).Dunque

    P(A) =P1(A)P2(A) =

    0 D0 E

    F G0 0

    = 0 ,

    come si doveva dimostrare.Resta da esaminare il caso in cui non vi sono sottospazi non banali W V tali

    che f(W) W. Scegliamo un elemento non nullo v di V, e sia h il minimo tra gliinteri m per cui v, f(v), f2(v), . . . , f m(v) sono linearmente dipendenti. In altre parole,v, f(v), f2(v), . . . , f h1(v) sono linearmente indipendenti ma si ha una relazione di dipen-denza lineare

    fh(v) +h1i=0

    aifi(v) = 0 .

    Questa relazione mostra che, se W e il sottospazio di V generato da v, f(v), . . . , f h1(v),allora f(W) W. Dato che W e diverso da {0}, deve essere necessariamente uguale a

    V. In altre parole, v, f(v), f2(v), . . . , f n1(v) costituiscono una base di V; per brevitaporremo vi=f

    i1(v), peri = 1, . . . , n. Dato chefn(v) e combinazione lineare dei vi si hauna relazione di dipendenza lineare

    (1.11) fn(v) +

    n1i=0

    aifi(v) = 0 .

    Poniamo

    Q(X) =Xn +n1i=0

    aiXi .

    La relazione (1.11) dice che Q(f)(v) = 0. Applicando fj1

    alla (1.11) si ottiene che

    0 =fn+j1(v) +

    n1i=0

    aifi+j1(v) =fn(fj1(v)) +

    n1i=0

    aifi(fj1(v)) ,

    cioe cheQ(f)(vj) = 0 per ogni j . Dato che ivj generanoVse ne deduce cheQ(f) = 0. Perconcludere bastera mostrare che Q(X) non e altro che il polinomio caratteristico P(X).La matrice di f rispetto alla base v1, . . . , vn, che indicheremo con A, e particolarmentesemplice. In effetti segue dalla definizione dei vi e da (1.11) che

    f(vi) =vi+1 se i < n,

    f(vn) =

    ni=1

    ai1vi .

    Dunque

    A=

    0 0 0 0 a01 0 0 0 a10 1 0 0 a2 0 0 0 1 an1

    ,

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 8

  • 7/23/2019 Complementi Di Algebra Lineare

    9/25

    e quindi

    P(X) = det

    X 0 0 0 a01 X 0 0 a10 1 X 0 a2

    0 0 0 1 X+ an1

    .

    Per calcolare questo determinante usiamo la regola di Laplace, sviluppando rispetto allul-tima colonna. Si ottiene

    P(X) = (X+ an1) det(Mn1) +n2i=0

    (1)ni1aidet

    Mi 00 Lni1

    = (X+ an1) det(Mn1) +

    n2

    i=0(1)ni1aidet(Mi) det(Lni1) ,

    dove Mi e la matrice i i

    X 0 0 01 X 0 0 00 1 X 0 0 0 0 1 X

    e Li e la matrice i i

    1 X 0 00 1 X 0 00 0 1 0 0 1 X0 0 0 1

    .

    Dato chedet(Mi) =X

    i , det(Li) = (1)i ,

    si conclude che

    P(X) = (X+ an1)Xn1 +

    n2i=0

    (1)ni1aiXi(1)ni1

    =Xn +

    n1i=0

    aiXi

    =Q(X) ,

    come si voleva. Questo completa la dimostrazione del teorema di Cayley-Hamilton.

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 9

  • 7/23/2019 Complementi Di Algebra Lineare

    10/25

    2. Matrici normali

    SiaV uno spazio vettoriale reale o complesso di dimensione finita, munito di prodottoscalare, o hermitiano, definito positivo , . Una applicazione linearef : V V si dicenormalese commuta con la sua aggiunta f, cioe se f f =ff. Ad esempio sono normali

    le applicazioni lineari autoaggiunte o quelle unitarie. Sia v1, . . . , vn una base ortonormaledi V e sia A la matrice di frispetto a questa base. Dire che f e normale equivale a direcheA tA= tAA; una matrice con questa proprieta verra detta normale.

    Teorema (2.1). SiaVuno spazio vettoriale complesso di dimensione finita munito di unprodotto hermitiano definito positivo e siaf : V V una applicazione lineare normale.Allora vi e una base ortonormale diVinteramente costituita da autovettori dif.

    E chiaro che la traduzione di questo teorema nel linguaggio delle matrici e la seguente:seA e una matrice normale vi e una matrice unitariaU tale cheU1AU sia diagonale.

    Dimostreremo (2.1) per induzione sulla dimensione di V. Se questa vale 1 non vi e

    nulla da dimostrare dato che A e gia diagonale. Per il passo induttivo ci serve la seguenteosservazione, che e utile e interessante anche di per se.

    Lemma (2.2). Siano f e g applicazioni lineari di V in se tali che f g = gf. Allora, seV ={0}, vi e un elemento non nullo diV che e autovettore sia perfche perg.

    Sia un autovalore di f, e sia V lautospazio corrispondente. Se v V,

    f(g(v)) =g(f(v)) =g(v) =g(v) .

    In altre parole,g(v) V. Dunqueg(V) Veg induce, per restrizione, una applicazionelineare di V in se. Questa applicazione ha almeno un autovettorev V. Dunque v e un

    autovettore sia per f che perg. Questo dimostra (2.2).

    Torniamo alla dimostrazione di (2.1). Il lemma che abbiamo appena dimostrato cidice che vi e un vettore non nullov1 V tale che f(v1) =v1 e f

    (v1) =v1, dove e sono opportuni numeri complessi. Notiamo subito che = . Infatti

    v1, v1= f(v1), v1= v1, f(v1)= v1, v1 .

    In definitiva si ha chef(v1) =v1 ,

    f

    (v1) =v1 .Possiamo anche supporre chev1= 1. Sia oraW ={w V :w, v1= 0}il complementoortogonale di v1. Per ogni w Wsi ha che

    f(w), v1= w, f(v1)= w, v1= 0 ,

    e quindi f(W) W. Analogamente f(W) W, e laggiunta dellapplicazione lineareda W in se indotta da f non e altro che lapplicazione lineare indotta da f. Dato chela dimensione di W e dim(V) 1, sappiamo per ipotesi induttiva che W ha una base

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 10

  • 7/23/2019 Complementi Di Algebra Lineare

    11/25

    ortonormale v2, . . . , vn costituita da autovettori di f. La base cercata di V e v1, . . . , vn.Questo conclude la dimostrazione del teorema (2.1).

    Ci si puo chiedere se nel caso reale valga un analogo del teorema appena dimostrato.In questi termini, la risposta e negativa. Infatti, seAe una matrice reale eU e una matrice

    ortogonale tale che U1AU sia diagonale, gli autovalori di A sono necessariamente tuttireali. Daltra parte la matrice ortogonale, e quindi normale,

    cos sin sin cos

    ha come autovalori exp(i) e exp(i), che non sono reali a meno che non sia dellaforma 2k o (2k+ 1), dove k e un intero. Qualcosa si puo tuttavia fare anche nel casoreale. Per spiegarlo useremo il linguaggio delle matrici.

    Proposizione (2.3). SiaA una matrice reale normale. Esiste una matrice ortogonaleU

    tale cheU1AUsia la matrice diagonale a blocchi

    B1 0 . . .0 B2 0 . . .

    . . . 0 B3 0 . . .. . .. . . 0 Bh

    dove ogniBi e o un numero reale o una matrice reale2 2 della forma

    Indichiamo connla dimensione diA. Sappiamo che, se consideriamoAe tAcome ma-

    trici complesse, vi e un autovettore comune ad entrambe, che indichiamo conX. Sappiamodunque che

    (2.4) AX=X ,

    tAX=X .

    Se e reale questo ci dice cheX e soluzione di un sistema omogeneo di equazioni lineari

    reali. Prendendo le parti reali o immaginarie dei due membri delle (2.4) si trova che anchei vettori reali Re(X) = (X+X)/2 e Im(X) = (XX)/2i sono soluzioni dello stessosistema; dato che X= 0, almeno uno dei due non e nullo. Si puo dunque supporre che Xsia reale, e anche che abbia norma 1. Sia oraW il complemento ortogonale di X in Rn;come nel caso complesso si vede che AW W e tAW W. Dunque, se X2, . . . , X n e unabase ortonormale di W, la matrice U1 le cui colonne sono X, X2, . . . , X n e ortogonale e

    U11 AU1 =

    00 B

    ,

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 11

  • 7/23/2019 Complementi Di Algebra Lineare

    12/25

    dove B e una matrice normale (n 1) (n 1). Induttivamente si puo supporre che vi siauna matrice ortogonaleU2tale cheU

    12 BU2 sia come nella tesi della proposizione. Dunque

    U=U1

    1 00 U2

    e ortogonale e

    U1AU=

    1 00 U2

    1U11 AU1

    1 00 U2

    =

    1 00 U2

    1 00 B

    1 00 U2

    =

    1 00 U12

    00 B

    1 00 U2

    =

    00 U12 BU2

    e della forma richiesta.

    Occupiamoci ora del caso in cui non e reale. Coniugando le (2.4) si ottengono lerelazioni

    AX= X ,

    tAX=X .

    Notiamo che X e Xsono ortogonali fra loro. Infatti

    X, X= AX,X= X, tAX= X,X= X, X ;

    dato che = se ne deduce che X, X= 0. Poniamo ora

    v= Re(X) ,

    w= Im(X) .

    Si ha cheX=v + iw ,

    X=v iw .

    Inoltre

    v, w= i

    4X, X

    i

    4X, X= 0 ,

    dato che X, X= X, X, mentre

    v2 =1

    4(X2 + X2) =w2 .

    Rinormalizzando opportunamente X possiamo dunque supporre che v = w = 1.Osserviamo ora che, scrivendo a per indicare la parte reale di e b per indicare la parte

    immaginaria,

    Av=1

    2(AX+ AX) =

    1

    2(X+ X) =av bw ,

    Aw= 1

    2i(AX AX) =

    1

    2i(X X) =bv + aw ,

    tAv=1

    2( tAX+ tAX) =

    1

    2(X+ X) =av + bw ,

    tAw= 1

    2i( tAX tAX) =

    1

    2i(X X) =bv+ aw .

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 12

  • 7/23/2019 Complementi Di Algebra Lineare

    13/25

    Ne segue in particolare che, se u e un vettore ortogonale sia a v che a w, allora anche Aue tAu sono ortogonali a v e a w; infatti Au,v = u, tAv = 0, e cos via. Se dunqueindichiamo con W il sottospazio di Rn consistente di tutti i vettori ortogonali sia a v chew, si ha che AW W e tAW W. Dunque, se v3, . . . , vn e una base ortonormale di W,la matrice U1 le cui colonne sono v, w, v3, . . . , vn e ortogonale e

    U11 AU1 =

    B1 00 B

    ,

    dove

    B1 =

    a bb a

    eB e una matrice normale (n 2) (n 2). Induttivamente si puo supporre che vi sia unamatrice ortogonale U2 tale che U

    12 BU2 sia come nella tesi della proposizione. Dunque,

    indicando conI2 la matrice identita 2 2,

    U=U1 I2 00 U2

    e ortogonale e

    U1AU=

    I2 00 U2

    1U11 AU1

    I2 00 U2

    =

    I2 00 U2

    1B1 00 B

    I2 00 U2

    =

    I2 00 U12

    B1 00 B

    I2 00 U2

    =

    B1 00 U12 BU2

    e della forma richiesta.

    Concludiamo questa sezione con un risultato che asserisce la possibilit a, sotto oppor-tune condizioni, di diagonalizzare simultaneamente piu matrici.

    Proposizione (2.5). SiaVuno spazio vettoriale complesso di dimensione finita munitodi un prodotto hermitiano definito positivo. Sianof1, . . . , f h applicazioni lineari normalidiV in se tali chefifj =fjfi per ognii e ognij. Allora vi e una base ortonormale diVogni cui elemento e autovettore per ognuna dellefi.

    Nel linguaggio delle matrici, la proposizione dice che, date matrici normaliA1, . . . , Ahche commutano, tali cioe cheAiAj =AjAi per ognii e ognij , vi e una matrice unitariaUtale che U1Ai Usia diagonale per ogni i. La dimostrazione, per induzione su h, e similea quella del lemma (2.2). Il casoh = 1 e il teorema (2.1). Se h >1, siano 1, . . . , k gliautovalori dif1, elencati senza ripetizioni. Segue da (2.1) che i relativi autospaziVi sonoortogonali fra loro. Inoltre segue dalla dimostrazione del lemma (2.2) chefj(V

    i

    ) Viper ogni j e ogni i. Quindi, per ogni i, f2, . . . , f h inducono applicazioni lineari normali di

    Vi in se. Induttivamente, si puo supporre di sapere che ogniVi ha una base ortonormalevi,1, . . . , vi,ni ogni cui elemento e simultaneamente autovettore di f2, . . . , f h. Una baseortonormale diV con le caratteristiche cercate e allora

    v1,1, . . . , v1,n1 , v2,1, . . . , v2,n2 , . . . , vk,1, . . . , vk,nk.

    Esercizio (2.6). Mostrare che, date matrici complesse quadrate A1, . . . , Ah, diagona-lizzabili ma non necessariamente normali, che commutano, vi e una matrice complessainvertibileB tale che B1Ai B sia diagonale per ogni i.

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 13

  • 7/23/2019 Complementi Di Algebra Lineare

    14/25

    3. Spazi quoziente

    Sia f : V Uun omomorfismo di spazi vettoriali sul campo K. Il nucleo di f eun sottospazio vettoriale di V. Ci si puo chiedere se, viceversa, dato un sottospazio W diV, vi sia un omomorfismo da V in un altro spazio vettoriale di cui W sia il nucleo. La

    risposta e affermativa e la costruzione e la seguente. Diciamo che due elementiu e v di Vsono equivalenti, e scriviamo u v, se u v W. Si tratta, per fortuna, di una relazionedi equivalenza. In effetti,u u= 0 W, v u= (u v) W se u v W, e infine,se u v e v z, allora u z = (u v) + (v z) W, e quindi uz. Indichiamo conV /W il quoziente di Vmodulo la relazione di equivalenza . La classe di equivalenza diun elemento v di V e linsieme di tutti gli elementi di V della forma v+ w, dove w W,che si indica con v+ W e si chiama classe laterale, o semplicemente laterale, di v moduloW. Sia : V V /W lapplicazione naturale, che associa ad ogni elemento di V la suaclasse laterale. Si puo definire su V /W una struttura di spazio vettoriale. Se u e v sonoelementi di V e a e uno scalare si pone

    (3.1) (u) + (v) =(u + v) ,

    a(u) =(au) .

    Bisogna notare che queste sono buone definizioni, cioe che, se (u) =(u) e(v) =(v),allora (u + v) =(u + v) e (au) =(au). In effetti u u W e v vW, quindiu + v (u + v) =u u + v v W e au au= a(u u) W. Lasciamo al lettoredi verificare che V /W, con le operazioni sopra definite, e uno spazio vettoriale. Notiamopiuttosto che le (3.1) dicono che e un omomorfismo di spazi vettoriali. E chiaro che esuriettivo. Il suo nucleo e linsieme deiv tali che (v) =(0), cioe W.

    Loperazione di passaggio al quoziente gode della seguente proprieta universale.

    Proposizione (3.2) (Teorema di omomorfismo). Sia: V Uun omomorfismo dispazi vettoriali tale cheker() W. Allora vi e uno e un solo omomorfismo:V /W Utale che = . Il nucleo di e ker()/W; in particolare e iniettivo se e solo seker() =W. Infine e suriettivo se e solo se e suriettivo.

    Notiamo innanzitutto che, se esiste, ((v)) =(v) per ogni v V. Dato che ognielemento di V /W e della forma (v) per qualche v V, e univocamente determinato.Per dimostrare lesistenza di poniamo ((v)) =(v). Questa e una buona definizione.Infatti, se (v) =(v), allora v vker() =W ker(), e quindi (v) =(v). Poi

    ((u) + (v)) =((u + v)) =(u + v) =(u) + (u) =((u)) + ((v)) ,a((v)) =a(v) =(av) =((av)) =(a(v)) ,

    e quindi e un omomorfismo. E chiaro che e suriettivo se e solo se lo e . Se invece(v) ker(), cioe (v) = 0, allora (v) (ker()) = ker()/W, e viceversa. Questoconclude la dimostrazione.

    Siano v1, . . . , vn elementi di V. Diremo chev1, . . . , vn sono linearmente indipendentimoduloW se(v1), . . . , (vn) sono linearmente indipendenti inV /W, cioe se ogni volta che

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 14

  • 7/23/2019 Complementi Di Algebra Lineare

    15/25

    una combinazione lineare

    i aiviappartiene a Wsi ha che ai = 0 per ogni i. Analogamentediremo chev1, . . . , vn costituiscono una base di V moduloW se(v1), . . . , (vn) sono unabase diV /W. Osserviamo che, sev1, . . . , vn e una base diV moduloW ew1, . . . , wm e unabase di W, allora v1, . . . , vn, w1, . . . , wm e una base di V. Infatti se

    aivi+

    bjwj = 0,

    allora aiviWe quindiai= 0 per ognii; ne segue che bjwj = 0 e dunque chebj = 0per ognij . Se poiv Vvi sono scalariaitali che(v) =

    ai(vi), cioe tali chev

    aivi

    appartenga a We sia quindi della forma

    bjwj ; si conclude che v =

    aivi+

    bjwj .Piu in generale, supponiamo date una catena

    {0}= V0 V1 Vk1 Vk =V

    di sottospazi diV, e una basevi,1, . . . , vi,ni diVi moduloVi1per ognii tale che 1 i k.Allora quanto appena osservato mostra, per induzione su k, che

    v1,1, . . . , v1,n1 , v2,1, . . . , v2,n2 , . . . , vk,1, . . . , vk,nk

    e una base di V.

    4. La forma canonica di Jordan

    Sia Vuno spazio vettoriale di dimensione finita su un campo K, e sia f : V Vuna applicazione lineare. Ricordiamo chefsi dice nilpotente se vi e un interok tale chefk = 0. Analogamente, una matrice quadrata si dice nilpotente se una sua potenza e nulla.

    Proposizione (4.1). SiaVuno spazio vettoriale di dimensione finita sul campoK, e siaf :V V un endomorfismo nilpotente. Vi e una base diV rispetto alla quale la matrice

    dif e la matrice diagonale a blocchi

    A1 0 . . .0 A2 0 . . .

    . . . 0 A3 0 . . .. . .. . . 0 Am

    ,

    dove ogniAi e della forma

    0 1 0 . . .. . . 0 1 0 . . .

    . . . 0 1 0 . . .. . . . . .

    . . . 0 1. . . 0

    Per dimostrare la proposizione ragioniamo come segue. Se f = 0 non vi e nulla da

    dimostrare. Se f = 0 sia k lintero tale che fk = 0 mafk1 = 0. PoniamoVi = ker(fi).

    Chiaramente{0}= V0 V1 Vk1 Vk =V .

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 15

  • 7/23/2019 Complementi Di Algebra Lineare

    16/25

    Inoltre tutte queste inclusioni sono strette. Se infatti fosse Vi1 = Vi, con i k, siavrebbe che Vi = f

    1(Vi1) = f1(Vi) = Vi+1, e dunque Vi1 = Vi = Vi+1 = =

    V, da cui i 1 k, in contraddizione con quanto supposto. Losservazione cruciale eche, se i > 1 e v1, . . . , vh sono elementi di Vi che sono indipendenti modulo Vi1, alloraf(v1), . . . , f (vh) sono indipendenti moduloVi2. Supponiamo infatti che aif(vi) Vi2.Allora fi1(

    aivi) = 0, e quindi

    aiviappartiene a Vi1. Dato che i visono indipendenti

    modulo Vi1 se ne deduce che tutti gli ai sono nulli.Possiamo ora costruire la base richiesta. Scegliamo una basevk,1, . . . , vk,mk diV =Vk

    modulo Vk1, poi scegliamo vettori vk1,1, . . . , vk1,mk1 diVk1 in modo che

    f(vk,1), . . . , f (vk,mk), vk1,1, . . . , vk1,mk1

    sia una base di Vk1 modulo Vk2, poi vettori vk2,1, . . . , vk2,mk2 di Vk2 in modo che

    f2(vk,1), . . . , f 2(vk,mk), f(vk1,1), . . . , f (vk1,mk1), vk2,1, . . . , vk2,mk2

    sia una base di Vk2 modulo Vk3, e cos via. Lunione delle basi dei Vi modulo Vi1 cosottenute e una base di V, che basta riordinare per trovare la base cercata. Per esempio,una base con le caratteristiche desiderate e

    fk1(vk,1),fk2(vk,1), . . . , vk,1, . . . , f

    k1(vk,mk), . . . , vk,mk ,

    fk2(vk1,1), . . . , vk1,1, . . . , f k2(vk1,mk1), . . . , vk1,mk1 , . . . , v1,1, . . . , v1,m1.

    Questo dimostra (4.1).

    Vogliamo ora applicare la proposizione (4.1) allo studio di un endomorfismo di unospazio vettoriale complesso. In generale, se e uno scalare chiameremo blocco di Jordandi dimensione ne autovalore la matrice n n

    Jn() =

    1 0 . . .0 1 0 . . .

    . . . 0 1 0 . . .. . . . . .. . . 0 1

    . . . 0

    .

    Teorema (4.2) (Forma canonica di Jordan). SiaVuno spazio vettoriale complessodi dimensione finita, e siaf :V V un endomorfismo diV. Vi e una base diV rispettoalla quale la matrice dif e diagonale a blocchi, con blocchi di Jordan sulla diagonale.

    Una matrice diagonale a blocchi, con blocchi di Jordan sulla diagonale, verra dettain forma canonica di Jordan. La proposizione (4.1) afferma che, rispetto a una baseopportuna, la matrice di un endomorfismo nilpotente e in forma canonica di Jordan, e cheinoltre i suoi blocchi diagonali sono tutti del tipo Jn(0); questo e vero su qualsiasi campobase, e non solo su C.

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 16

  • 7/23/2019 Complementi Di Algebra Lineare

    17/25

    Indichiamo con P(X) il polinomio caratteristico di f, e sia

    P(X) =

    mi=1

    (X i)ki

    la sua decomposizione in fattori irriducibili, dove i i sono numeri complessi distinti. Ilcorollario (1.8) ci assicura che

    V =V1 Vm ,

    doveVi = ker((f i1V)

    ki) .

    I Vi sono sottospazi invarianti per f. Quindi, se vi,1 . . . , vi,ni e una base di Vi,

    v1,1 . . . , v1,n1 , v2,1 . . . , v2,n2 , . . . , vm,1 . . . , vm,nm

    e una base di V rispetto alla quale la matrice di f e diagonale a blocchi della forma

    A1 0 . . .0 A2 0 . . .

    . . . 0 A3 0 . . .. . .. . . 0 Am

    ,

    dove Ai e la matrice, rispetto alla base vi,1 . . . , vi,ni , dellendomorfismofi diVi indotto daf per restrizione. Bastera dunque mostrare che si possono scegliere le basi vi,1 . . . , vi,niin modo che le matrici Ai siano in forma canonica di Jordan. La definizione stessa di Vi

    dice chegi = fi i1Vi e nilpotente; (4.1) ci assicura allora che vi e una base vi,1 . . . , vi,nidi Vi rispetto alla quale la matrice Bi di gi e in forma canonica di Jordan. Rispetto a

    questa stessa base, la matrice difi eBi + iI, che e anchessa in forma canonica di Jordan.Questo dimostra (4.2).

    Va osservato che, se f : V V e un endomorfismo di uno spazio vettoriale di di-mensione finita su un campo K qualsiasi, non e detto che si possa trovare una base diV rispetto alla quale la matrice A di f sia in forma canonica di Jordan. In effetti, sequesto e possibile, il polinomio caratteristico dif, che indichiamo conP(X), e della forma

    (Xi), dove i i sono i termini diagonali di A, e dunque si fattorizza, in K[X], in

    fattori di grado 1. Se si suppone, viceversa, che P(X) sia fattorizzabile su K in fattori

    lineari, come accade sempre nel caso complesso, la dimostrazione di (4.2) funziona ancora,senza alcuna modifica, e mostra che, rispetto a una opportuna base, la matrice di f e informa canonica di Jordan.

    5. Forme canoniche razionali

    Sia f : V V un endomorfismo di uno spazio vettoriale di dimensione finita su uncampo K. Come si e osservato, non e in generale detto che si possa trovare una base

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 17

  • 7/23/2019 Complementi Di Algebra Lineare

    18/25

    di V rispetto alla quale la matrice di f sia in forma canonica di Jordan. Si puo perotrovare una base di Vrispetto alla quale la matrice dif e diagonale a blocchi di una formaparticolarmente semplice, detta forma canonica razionale, o forma canonica di Frobenius.Sia P(X) il polinomio caratteristico di f, e sia P =

    mi=1 P

    kii la sua decomposizione in

    fattori irriducibili, dove i Pi sono a due a due primi fra loro. Indichiamo con Wi il nucleo

    diPkii (f). Sappiamo che i Wi sono sottospazi invarianti e che V =

    i Wi. Rispetto a unabase di Vcostruita mettendo insieme una base diW1, una di W2, e cos via, la matrice dif e dunque diagonale a blocchi della forma

    A1 0 . . .0 A2 0 . . .

    . . . 0 A3 0 . . .. . .. . . 0 Am

    ,

    dove Ai e la matrice della applicazione lineare fi da Wi in se indotta da f. Poiche ilpolinomio caratteristico difi eP

    kii , questo ci permette di limitarci a studiare il caso in cui

    P(X) e una potenza di un polinomio irriducibileQ(X) di grado h. Sia k lintero positivotale che Qk(f) = 0 ma Qk1(f)= 0, e poniamo Vi= ker(Q

    i(f)) per ogni intero i tale che0 i k. E chiaro che i Vi sono invarianti e che

    {0}= V0 Vi1Vi Vk =V .

    Osserviamo che, se i > 1 e v1, . . . , vs sono elementi di Vi che sono indipendenti moduloVi1, allora Q(f)(v1), . . . , Q(f)(vs) sono indipendenti modulo Vi2. Supponiamo infattiche aiQ(f)(vi) Vi2. Allora Q(f)i1( aivi) = 0, e quindi aivi appartiene a Vi1.Dato che i vi sono indipendenti modulo Vi1 se ne deduce che tutti gli ai sono nulli.

    Costruiamo ora una base V costruendo una opportuna base di Vi modulo Vi1 perognii. Iniziamo coni = k. Siavk,1 un elemento diVk non appartenente aVk1, e notiamochevk,1, f(vk,1), f

    2(vk,1), . . . , f h1(vk,1) sono indipendenti modulo Vk1. Per dimostrarlo

    ci baseremo sul seguente semplice risultato.

    Lemma (5.1). SiaWun sottospazio invariante diV, e siav un elemento diV. Allora

    I={Q K[X] :Q(f)(v) W}

    e un ideale in K[X].

    La dimostrazione e immediata. Se P e Q appartengono a I allora

    (P+ Q)(f)(v) =P(f)(v) + Q(f)(v) W .

    Daltra parte, se R K[X], allora

    (RP)(f) =R(f)(P(f)(v)) W

    poiche P(f)(v) W e W e invariante. Questo dimostra il lemma.

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 18

  • 7/23/2019 Complementi Di Algebra Lineare

    19/25

    Applichiamo il lemma con W =Vk1 e v= vk,1. Siano gli ai scalari tali che

    h1

    i=0

    aifi(vk,1) Vk1 .

    Se poniamo R(X) =h1

    i=0 aiXi, questo equivale a dire che R(f)(vk,1) Vk1, cioe che

    R(X) I. Dato che Qk1(f)(Q(f)(vk,1)) = 0, anche Q(X) appartiene a I. Per il lemmache si e appena dimostrato, I e un ideale in K[X], e quindi ha un generatore monico chedivide sia Q che R. Dato cheQ e irriducibile e il grado di R e strettamente minore delgrado di Q, se R = 0 questo generatore deve essere 1. Dato cheVk =Vk1, questo e as-surdo. Lunica via di uscita e che sia R = 0, cioe che tutti gli aisiano nulli. Questo mostrachevk,1, f(vk,1), f

    2(vk,1), . . . , f h1(vk,1) sono indipendenti modulo Vk1. Notiamo inoltre

    che il sottospazioW diV generato daVk1 e davk,1, f(vk,1), f2(vk,1), . . . , f

    h1(vk,1) e in-

    variante. In effetti ogni elementov di W si scrive come somma di un elemento di Vk1 e diuna combinazione lineare di vk,1, f(vk,1), f

    2(vk,1), . . . , f h1(vk,1). Dunquef(v) e somma

    di un elemento diVk1 e di una combinazione lineare di vk,1, f(vk,1), f2(vk,1), . . . , f

    h(vk,1).Ma daltra parte il fatto cheQ(f)(vk,1) appartenga aVk1 ci dice che f

    h(vk,1) e somma diun elemento diVk1 e di una combinazione lineare divk,1, f(vk,1), f

    2(vk,1), . . . , f h1(vk,1).

    Quindi f(v) W. Se vk,1, f(vk,1), f2(vk,1), . . . , f

    h1(vk,1) non e una base di Vk moduloVk1, scegliamo un vettore vk,2 appartenente aVk ma non aW

    . Ragionando esattamentecome sopra si mostra che vk,2, f(vk,2), f

    2(vk,2), . . . , f h1(vk,2) sono indipendenti modulo

    W e che il sottospazio generato da W e da vk,2, f(vk,2), f2(vk,2), . . . , f

    h1(vk,2) e inva-riante. Iterando questo procedimento si giunge, in un numero finito di passi, a costruire

    una base di Vk modulo Vk1 della forma

    vk,1, f(vk,1), . . . , f h1(vk,1), . . . , vk,nk , f(vk,nk), . . . , f

    h1(vk,nk) .

    Come si e osservato,

    Q(f)(vk,1), . . . , Q(f)(fh1(vk,1)), . . . , Q(f)(vk,nk), . . . , Q(f)(f

    h1(vk,nk))

    sono indipendenti modulo Vk2. Ragionando come sopra si possono trovare elementivk1,1, . . . , vk1,nk1 diVk1 tali che

    Q(f)(vk,1), . . . , Q(f)(fh1(vk,1)), . . . , Q(f)(vk,nk), . . . , Q(f)(f

    h1(vk,nk))

    vk1,1,f(vk1,1), . . . , f h1(vk1,1), . . . , vk1,nk1 , f(vk1,nk1), . . . , f

    h1(vk1,nk1)

    siano una base di Vk1 modulo Vk2. Iterando questa costruzione si giunge a trovare una

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 19

  • 7/23/2019 Complementi Di Algebra Lineare

    20/25

    base di Vdella forma

    vk,1, . . . , f h1(vk,1), Q(f)(vk,1), . . . , Q(f)(f

    h1(vk,1)), . . . , Qk1(vk,1), . . . , Q

    k1(fh1(vk,1)),

    . . . . . . . . .

    vk,nk , . . . , f h1(vk,nk), . . . , Q

    k1(vk,nk), . . . , Qk1(fh1(vk,nk)),

    vk1,1, . . . , f h1(vk1,1), . . . , Qk2(vk1,1), . . . , Qk2(fh1(vk1,1)),. . . . . . . . .

    vk1,nk1 , . . . , f h1(vk1,nk1), . . . , Q

    k2(vk1,nk1), . . . , Qk2(fh1(vk1,nk1)),

    . . . . . .

    . . .

    v1,1, . . . , f h1(v1,1),

    . . .

    v1,n1 , . . . , f h1(v1,n1).

    Dato che, per ogni scelta di i, j, s, t, il vettore Qi

    (f)(fj

    (vs,t)) e combinazione lineare divs,t, f(vs,t), . . . , f hi+j(vs,t), un altro sistema di generatori per V e

    vk,1, f(vk,1) . . . , f hk1(vk,1),

    . . .

    vk,nk , f(vk,nk) . . . , f hk1(vk,nk),

    vk1,1, f(vk1,1) . . . , f h(k1)1(vk1,1),

    . . .

    vk1,nk1 , f(vk1,nk1) . . . , f h(k1)1(vk1,nk1),

    . . .

    . . .

    v1,1, . . . , f h1(v1,1),

    . . .

    v1,n1 , . . . , f h1(v1,n1).

    Dato che questo sistema di generatori consta di dim(V) elementi, e anchesso una base diV. E questa la base cercata. Per vedere come e fatta la matrice di frispetto a questabase notiamo che, per ogni scelta di s e t, si ha che Qs(f)(vs,t) = 0, e quindi f

    hs(vs,t) ecombinazione lineare divs,t, f(vs,t), . . . , f

    hs1(vs,t). Piu esattamente, seQs(X) =

    aiX

    i,allora

    f(fhs1(vs,t)) =fhs(vs,t) =

    hs1i=0

    aifi(vs,t) .

    La matrice di frispetto alla nostra base e dunque una matrice diagonale a blocchi

    C1 0 . . .0 C2 0 . . .

    . . . 0 C3 0 . . .. . .. . . 0 Cn

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 20

  • 7/23/2019 Complementi Di Algebra Lineare

    21/25

    dove n= n1+ + nk e, per ogni j tale che nk+ + ni< j nk+ + ni1,

    Cj =

    0 0 . . . 0 c01 0 . . . 0 c10 1 0 . . . 0 c2

    . . . . . .

    . . . . . .

    . . . 1 0 chi2. . . 1 chi1

    ,

    dove i e il piu grande intero tale che j ni+ + nk e

    Qi(X) =Xhi + chi1Xhi1 + chi2X

    hi2 + + c1X+ c0 .

    Abbiamo dunque dimostrato in generale il seguente risultato.

    Teorema (5.2) (Forma normale razionale o di Frobenius). Sia V uno spaziovettoriale di dimensione finita sul campoK, e siafun endomorfismo diV. Vi e una basediV rispetto alla quale la matrice dif e una matrice diagonale a blocchi

    B1 0 . . .0 B2 0 . . .

    . . . 0 B3 0 . . .. . .. . . 0 Bn

    ,

    dove

    Bi=

    0 0 . . . 0 b01 0 . . . 0 b10 1 0 . . . 0 b2

    . . . . . .

    . . . . . .

    . . . 1 0 bs2. . . 1 bs1

    eXs + bs1X

    s1 + bs2Xs2 + + b1X+ b0

    e una potenza di un polinomio irriducibile in K[X].

    6. Proiettori

    Sia V uno spazio vettoriale reale o complesse di dimensione finita, munito di unprodotto scalare (o di un prodotto hermitiano) , definito positivo. SiaWun sottospaziovettoriale di V e sia W = {v V : v, w = 0 per ogni w W} il suo complementoortogonale. Indichiamo con p la proiezione ortogonale di V su W, cioe lapplicazione

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 21

  • 7/23/2019 Complementi Di Algebra Lineare

    22/25

    lineare da V in se definita come segue. Sia v un elemento di V; dato che V =W W

    possiamo scriverlo, in modo unico, sotto la forma v = w+ w, dove w W e w W.Allora p(v) =w. Notiamo che, se w1, . . . , wh e una base ortonormale di W, allora p(v) =

    h

    i=1v, wiwi. In effetti,v

    hi=1

    v, wiwi , wj

    =v, wj

    hi=1

    v, wiwi, wj= v, wj hi=1

    v, wii,j = 0 .

    Notiamo che p2 = p, cioe che, come si dice, la proiezione p e un operatore idempotente.Infatti, sew W, allora evidentementep(w) =w; dunque, per ogniv V,p(p(v)) =p(v),dato chep(v) W. Inoltrep e un operatore autoaggiunto. Infatti, dati vettoriv ez inV,scriviamo v=p(v) + v e z=p(z) + z, dove v e z appartengono a W; allora

    p(v), z= p(v), p(z) + z= p(v), p(z)= p(v) + v, p(z)= v, p(z) .

    Le due proprieta di p appena dimostrate caratterizzano le proiezioni ortogonali. Diremoche una applicazione lineare f : V V e un proiettore se e autoaggiunta e idempotente.Vale allora il seguente risultato.

    Proposizione (6.1). Siaf :V Vun proiettore. Allora esiste un sottospazio vettorialeW diV tale chefsia la proiezione ortogonale su W.

    Per la dimostrazione poniamo W = f(V), e notiamo che per ogni w W si ha chef(w) =w. Infatti si puo scriverew = f(v) per qualchev V, e dunquef(w) =f(f(v)) =f(v) =w. Daltra parte, per ogni v V e ogni w Wsi ha che

    v f(v), w= v, w f(v), w= v, w v, f(w)= v, w v, w= 0 ,

    dato che f e autoaggiunta. Questo mostra che v =f(v) + (v f(v)) e la decomposizionedi v in somma di un vettore appartenente a W, e cioe f(v), e di uno appartenente a W,cioe v f(v). Dunque f(v) e la proiezione ortogonale di v suW.

    7. Esponenziale di una matrice

    Sia A = (aij) una matrice a coefficienti in K, dove K e il campo reale o il campocomplesso. La normadiA e

    A= maxi,j

    |aij | .

    Osserviamo che, se e uno scalare e A e B sono matrici delle stesse dimensioni, allora

    A= ||A ,

    A + B A + B .

    La prima di queste due relazioni e ovvia, mentre la seconda segue dalla considerazione cheA + B= |aij+ bij | per qualche scelta di i e j, e dunque

    A + B= |aij+ bij | |aij | + |bij| A + B .

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 22

  • 7/23/2019 Complementi Di Algebra Lineare

    23/25

    Notiamo incidentalmente che quella appena definita non e la sola norma sensata definibilesulle matrici reali o complesse; la scelta che abbiamo fatto e solo la piu conveniente per inostri scopi. Notiamo anche che, seA e una matricen me B e una matrice m k, allora

    (7.1) AB mAB .

    Sia ora Ai, i= 0, 1, . . . una successione di matrici n m a coefficienti inK, e indichiamo

    con a(i)hk il coefficiente di posto h, k in Ai. Diremo che la successione {Ai} converge alla

    matrice A, e scriveremo Ai A, se a(i)hk ahk per ogni h e ogni k. Cio equivale a dire

    che |a(i)hk ahk| 0 per ogni h e ogni k, e in definitiva che Ai A 0. Diremo che

    {Ai} e una successione di Cauchy se, scelto comunque >0, esiste un intero i0 tale che,

    per ogni scelta dii, j i0, si abbia che Ai Aj< . Cio equivale a dire che{a(i)hk} e una

    successione di Cauchy per ogni scelta di h e k. Dunque, se {Ai} e di Cauchy, per ognih e

    ogni k vi e ahk Ktale che a(i)hkahk. Cio significa che Ai A, dove A= (ahk).

    Sia ora A una matrice n na coefficienti in K. Poniamo

    exp(A) =i=0

    1

    i!Ai =I+ A +

    A2

    2 +

    A3

    6 +

    Il significato di questa scrittura e che la successione delle somme parziali

    Bh=hi=0

    1

    i!Ai

    e di Cauchy e exp(A) e il suo limite. Per mostrare che{Bh} e di Cauchy basta notare chese h k allora, in virtu di (7.1),

    Bh Bk= h

    i=k+1

    1

    i!Ai

    hi=k+1

    ni1

    i! Ai ,

    e che il lato destro di questa catena di disuguaglianze e maggiorato da

    2k1 + 2k2 + + 2h = 2k1(1 + 21 + + 2h+k+1)< 2k

    non appenank(2A)k+1 (k+ 1)! .

    Supponiamo che A sia una matrice n n diagonalizzabile, cioe che

    A= UU1 ,

    dove

    =

    1 0 . . .0 2 0 . . .

    0 3 . . .. . .. . .

    . . . 0 n

    .

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 23

  • 7/23/2019 Complementi Di Algebra Lineare

    24/25

    Dato che, per ogni intero non negativo i,

    Ai =UiU1 ,

    e che

    i =

    i1

    0 . . .0 i2 0 . . .

    0 i3 . . .. . .. . .

    . . . 0 in

    ,

    dalla definizione di esponenziale di una matrice si ricava che

    exp(A) =Uexp()U

    1

    =U

    exp(1) 0 . . .0 exp(2) 0 . . .

    0 exp(3) . . .

    . . .

    . . .. . . 0 exp(n)

    U

    1

    .

    Supponiamo ora che A sia antihermitiana, cioe che tA=A. Possiamo dunque scrivereA= UU1, dove U e unitaria e e una matrice diagonale puramente immaginaria. Lamatrice exp() e una matrice diagonale con numeri complessi di modulo 1 sulla diagonale.Ne segue che exp(A) e unitaria. Se inveceA e hermitiana possiamo scrivere A = UU1,doveU e unitaria e e una matrice diagonale reale. Allora exp() e una matrice diagonalecon numeri reali positivi sulla diagonale, e quindi exp(A) e hermitiana definita positiva.

    Siano Ae B due matrici complesse n n che commutano. Mostriamo, per induzionesui, che

    (7.2) (A + B)i =j+h=ij,h0

    i

    j

    AjBh .

    Peri= 1 non vi e nulla da dimostrare. Altrimenti

    (A + B)i = (A + B)

    j+h=i1j,h0

    i 1

    j

    AjBh

    =

    j+h=i1j,h0

    i 1

    j

    Aj+1Bh +

    j+h=i1j,h0

    i 1

    j

    AjBh+1

    =j+h=ij,h0

    i 1

    j 1

    +

    i 1

    j

    AjBh

    =j+h=ij,h0

    i

    j

    AjBh .

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 24

  • 7/23/2019 Complementi Di Algebra Lineare

    25/25

    Da quanto si e appena dimostrato si ricava che

    ki=0

    (A + B)i

    i! =

    ki=0

    1

    i!

    j+h=i

    j,h0

    i

    j

    AjBh =

    j+hkj,h0

    1

    j!h!AjBh =

    kj=0

    1

    j!Aj

    kh=0

    1

    h!Bh .

    Passando al limite per k ne otteniamo

    (7.3) exp(A + B) = exp(A) exp(B) .

    Osserviamo che (7.2) e (7.3) non sono sempre valide seA e B non commutano. Un esempioe dato da

    A=

    1 10 0

    , B =

    0 10 0

    .

    In effetti

    (A + B)2 =

    1 00 0

    , A2 + 2AB+ B2 =

    1 10 0

    ,

    exp(A + B) =

    e 00 1

    , exp(A)exp(B) =

    e 10 1

    .

    Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 25