ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione...

27
ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 DICEMBRE 2005 Sommario delle lezioni 27 Set: Lezione 1. Linearit` a ed esempi . La linearit` a nelle equazioni della fisica. Lavoro di una forza e prodotto scalare. Bilinearit` a del prodotto scalare. Linearit` a e teoria dei quanti. Altri es- empi in Analisi, Geometria e nella vita comune. L’idea della linearizzazione: differenziabilit` a di una funzione, piccole oscillazioni di un sistema fisico, il teorema delle funzioni implicite. Aspetti lineari dei sistemi di equazioni di primo grado. Il significato geometrico della linear- it` a ed il concetto intuitivo di spazio lineare. Traslazioni nel piano e nello spazio. Equazioni differenziali lineari. 29 Set: Lezione 2. Prodotto scalare in R n . Come calcolare il prodotto scalare tra vettori di R 2 ed R 3 utilizzando la bilinearit` a. Espressione compatta del prodotto scalare. Lunghezze ed angoli. Alcuni teoremi elementari della geometria del piano dimostrati per mezzo del prodot- to scalare: Pitagora, Carnot, Euclide.Il teorema di Cauchy-Schwarz. Spazi vettoriali reali . La definizione di spazio vettoriale reale. Esempi di spazio vettoriale: {0}, R, R 2 , R n . Spazio R[x] dei polinomi a coefficienti reali. Spazi di funzioni continue e derivabili. 30 Set: Lezione 3. Interpretazione delle equazioni di rette e piani in R 2 ed R 3 per mezzo del prodotto scalare. Campi . Che cos’` e un campo? Esempi di campo: R, Q, C, R(x), F 2 , Fp. Spazi vettoriali su di un campo qualsiasi. Applicazioni lineari . Il concetto di applicazione lineare. Esempi di applicazioni lineari: l’identit` a ed i suoi multipli, operatori di rotazione, l’operatore di derivazione, T (x, y)=(x, x). Applicazioni lineari tra R m ed R n . Un’applicazione tra R m ed R n ` e lineare se e solo se ` e descritta da espressioni omogenee di primo grado. Matrice associata ad un’applicazione lineare. 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici . Esempi di matrici as- sociate ad applicazioni lineari: matrice identit` a, matrice nulla. Matrice associata ad una ro- tazione in R 2 . Come si utilizzano le matrici? Calcolo dell’applicazione lineare corrispondente ad una matrice. Linearit` a della composizione di applicazioni lineari. Prodotto di matrici . Prodotto righe per colonne. Associativit` a del prodotto di matrici. Esempi: prodotto di ma- trici di rotazione e formule di addizione per seno e coseno. Il prodotto tra matrici non ` e (necessariamente) commutativo. 6 Ott: Lezione 5. Ancora sulla corrispondenza tra applicazioni lineari e matrici . Propriet` a delle operazioni tra matrici. Conseguenze della non commutativit` a. Sottospazi vettoriali . Definizione di sottospazio. Sottoinsiemi chiusi rispetto alle operazioni di spazio vettoriale. Come controllare che un sottoinsieme di uno spazio vettoriale sia un sottospazio. Esempi di sottospazi vettoriali. Sottospazi banali. Alcuni sottospazi vettoriali dello spazio delle funzioni continue da R in R. Sottospazi vettoriali generati da uno o due vettori. Sottoinsiemi che non sono sottospazi vettoriali. Sottospazi di R 2 ed R 3 . Soluzioni di sistemi di equazioni lineari. 7 Ott: Lezione 6. Iniettivit` a e suriettivit ` a di applicazioni. Applicazioni iniettive e suriettive. Il nucleo e l’immagine di un’applicazione lineare sono sottospazi vettoriali. L’iniettivit` a si controlla sul nucleo. Esempi. Applicazioni lineari invertibili. L’inversa di un’applicazione lineare ` e ancora lineare. 13 Ott: Lezione 7. Lezione sulle scale del rettorato: svolgimento di esercizi. 18 Ott: Lezione 8. Basi e coordinate . Dipendenza e indipendenza lineare. Combinazioni lin- eari. Sottospazi generati. Unicit` a della decomposizione in combinazione lineare di elemen- ti. Esempi di vettori linearmente dipendenti e indipendenti. Basi. Esempi di basi in alcuni spazi vettoriali. Come costruire basi e trovare elementi linearmente indipendenti. Il concetto geometrico di dipendenza e indipendenza lineare. Le basi come sistemi di riferimento. 20 Ott: Lezione 9. Il concetto di dimensione . Un modo per produrre nuove basi. Il numero di vettori linearmente indipendenti in uno spazio vettoriale non pu ` o essere maggiore del numero di elementi di una base. Basi diverse di uno stesso spazio vettoriale hanno lo stesso numero di elementi. Applicazioni: in uno spazio vettoriale di dimensione N , N elementi generano se e solo se sono linearmente indipendenti; il numero di elementi di un campo finito ` e una potenza 1

Transcript of ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione...

Page 1: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 DICEMBRE 2005

Sommario delle lezioni

• 27 Set: Lezione 1. Linearita ed esempi. La linearita nelle equazioni della fisica. Lavoro di unaforza e prodotto scalare. Bilinearita del prodotto scalare. Linearita e teoria dei quanti. Altri es-empi in Analisi, Geometria e nella vita comune. L’idea della linearizzazione: differenziabilitadi una funzione, piccole oscillazioni di un sistema fisico, il teorema delle funzioni implicite.Aspetti lineari dei sistemi di equazioni di primo grado. Il significato geometrico della linear-ita ed il concetto intuitivo di spazio lineare. Traslazioni nel piano e nello spazio. Equazionidifferenziali lineari.

• 29 Set: Lezione 2. Prodotto scalare in Rn. Come calcolare il prodotto scalare tra vettori di R2

ed R3 utilizzando la bilinearita. Espressione compatta del prodotto scalare. Lunghezze edangoli. Alcuni teoremi elementari della geometria del piano dimostrati per mezzo del prodot-to scalare: Pitagora, Carnot, Euclide.Il teorema di Cauchy-Schwarz. Spazi vettoriali reali. Ladefinizione di spazio vettoriale reale. Esempi di spazio vettoriale: {0},R, R2, Rn. Spazio R[x]

dei polinomi a coefficienti reali. Spazi di funzioni continue e derivabili.• 30 Set: Lezione 3. Interpretazione delle equazioni di rette e piani in R2 ed R3 per mezzo del

prodotto scalare. Campi. Che cos’e un campo? Esempi di campo: R, Q, C, R(x), F2, Fp. Spazivettoriali su di un campo qualsiasi. Applicazioni lineari. Il concetto di applicazione lineare.Esempi di applicazioni lineari: l’identita ed i suoi multipli, operatori di rotazione, l’operatoredi derivazione, T (x, y) = (x, x). Applicazioni lineari tra Rm ed Rn. Un’applicazione traRm ed Rn e lineare se e solo se e descritta da espressioni omogenee di primo grado. Matriceassociata ad un’applicazione lineare.

• 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici. Esempi di matrici as-sociate ad applicazioni lineari: matrice identita, matrice nulla. Matrice associata ad una ro-tazione in R2. Come si utilizzano le matrici? Calcolo dell’applicazione lineare corrispondentead una matrice. Linearita della composizione di applicazioni lineari. Prodotto di matrici.Prodotto righe per colonne. Associativita del prodotto di matrici. Esempi: prodotto di ma-trici di rotazione e formule di addizione per seno e coseno. Il prodotto tra matrici non e(necessariamente) commutativo.

• 6 Ott: Lezione 5. Ancora sulla corrispondenza tra applicazioni lineari e matrici. Proprietadelle operazioni tra matrici. Conseguenze della non commutativita. Sottospazi vettoriali.Definizione di sottospazio. Sottoinsiemi chiusi rispetto alle operazioni di spazio vettoriale.Come controllare che un sottoinsieme di uno spazio vettoriale sia un sottospazio. Esempi disottospazi vettoriali. Sottospazi banali. Alcuni sottospazi vettoriali dello spazio delle funzionicontinue da R in R. Sottospazi vettoriali generati da uno o due vettori. Sottoinsiemi che nonsono sottospazi vettoriali. Sottospazi di R2 ed R3. Soluzioni di sistemi di equazioni lineari.

• 7 Ott: Lezione 6. Iniettivita e suriettivita di applicazioni. Applicazioni iniettive e suriettive.Il nucleo e l’immagine di un’applicazione lineare sono sottospazi vettoriali. L’iniettivita sicontrolla sul nucleo. Esempi. Applicazioni lineari invertibili. L’inversa di un’applicazionelineare e ancora lineare.

• 13 Ott: Lezione 7. Lezione sulle scale del rettorato: svolgimento di esercizi.• 18 Ott: Lezione 8. Basi e coordinate. Dipendenza e indipendenza lineare. Combinazioni lin-

eari. Sottospazi generati. Unicita della decomposizione in combinazione lineare di elemen-ti. Esempi di vettori linearmente dipendenti e indipendenti. Basi. Esempi di basi in alcunispazi vettoriali. Come costruire basi e trovare elementi linearmente indipendenti. Il concettogeometrico di dipendenza e indipendenza lineare. Le basi come sistemi di riferimento.

• 20 Ott: Lezione 9. Il concetto di dimensione. Un modo per produrre nuove basi. Il numero divettori linearmente indipendenti in uno spazio vettoriale non puo essere maggiore del numerodi elementi di una base. Basi diverse di uno stesso spazio vettoriale hanno lo stesso numero dielementi. Applicazioni: in uno spazio vettoriale di dimensione N , N elementi generano se esolo se sono linearmente indipendenti; il numero di elementi di un campo finito e una potenza

1

Page 2: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

2 ALGEBRA LINEARE I

di un numero primo.• 21 Ott: Lezione 10. Spazi vettoriali isomorfi. Definizione di isomorfismo tra spazi vettoriali.

Significato e conseguenze pratica dell’esistenza di un isomorfismo tra due spazi vettoriali.Confronto di dimensioni. Se T : U → V e lineare, allora dimU = dimkerT + dim Im T .Somma diretta di spazi vettoriali. Intersezione e somma di sottospazi vettoriali. Formula diGrassmann: dimU + dimV = dim(U ∩ V ) + dim(U + V ). Risoluzione di equazioni linearinon omogenee.

• 27 Ott: Lezione 11. Sistemi di equazioni lineari. Vari metodi di risoluzione: per eliminazione,per sostituzione, con le formule di Cramer. Sistemi equivalenti. Manipolazioni per pro-durre sistemi equivalenti. Il metodo di eliminazione di Gauss. Sistemi risolubili e sistemi nonrisolubili. Esempi di applicazione dell’eliminazione di Gauss.

• 28 Ott: Lezione 12. Altre applicazioni dell’eliminazione di Gauss. Determinazione di unabase di un sottospazio vettoriale di Rn dato un insieme di generatori. Dipendenza ed in-dipendenza lineare di un insieme di vettori. Calcolo dell’inversa di una matrice.

• 3 Nov: Lezione 13. Esercizi in preparazione dell’esonero.• 8 Nov: Lezione 14. Correzione dell’esonero, e commenti. Il rango. Rango di un’applicazione

lineare e di una matrice. La dimensione dello spazio vettoriale generato dalle righe di unamatrice e uguale alla dimensione dello spazio vettoriale generato dalle sue colonne. Il teoremadi Rouche-Capelli: enunciato e dimostrazione.

• 10 Nov: Lezione 15. Determinanti. Aree in R2 e volumi in R3. Proprieta di linearita dellanozione di area. Determinanti 2 × 2, ed orientazione. La definizione assiomatica del deter-minante. Esempi di calcolo di determinanti. Espressione del determinante per mezzo dellepermutazioni.

• 11 Nov: Lezione 16. I numeri complessi. Un’immersione di C come sottoanello delle ma-trici reali 2 × 2. Operazioni tra numeri complessi. C e un campo. Complesso coniugato diun numero complesso. Somma e prodotto di complessi coniugati. Norma ed argomento diun numero complesso. Interpretazione polare del prodotto di numeri complessi. Il teoremafondamentale dell’algebra. Risoluzione di z2 = i. Ancora sul determinante. L’espressioneP

sgn(σ)a1σ1 . . . anσn calcola il determinante. Altri esempi di calcolo dei determinanti. Losviluppo di Laplace.

• 15 Nov: Lezione 17. Matrici di permutazione e parita. Lo sviluppo di Laplace soddisfa le pro-prieta assiomatiche del determinante. detA = detAt. Il determinante e lineare ed alternanteanche nelle colonne della matrice. detAB = detA · detB.

• 17 Nov: Lezione 18. Il metodo di Cramer. Enunciato e dimostrazione. Esempi di applicazionedella tecnica di Cramer. Calcolo dell’inversa di una matrice per mezzo dei determinanti.Esempi.

• 18 Nov: Lezione 19. Rango e determinanti. Calcolo del rango di una matrice per mezzo deideterminanti. Il teorema dell’orlato. Risoluzione di sistemi dipendenti da parametro.

• 22 Nov: Lezione 20. Il prodotto vettoriale in R3. Definizione. Interpretazione geometrica.Proprieta. Prodotto misto e determinante. a× (b× c) = (a · c)b− (a · b)c. Esempi.

• 24 Nov: Lezione 21. Risoluzione di alcuni problemi geometrici per mezzo dell’algebra lineare.Sottospazi vettoriali e affini. Equazioni parametriche e cartesiane di un sottospazio affine.Proiezione di un vettore parallelamente e ortogonalmente ad una direzione. Distanza trasottospazi affini in R2 e R3.

• 25 Nov: Lezione 22. Matrice associata ad un’applicazione lineare. Interpretazione ed utilizzo.Esempi. Cambiamenti di base e di coordinate.

• 29 Nov: Lezione 23. Matrici di cambiamento di coordinate. Come cambiare coordinate dallabase canonica ad una base qualsiasi. Basi ortonormali e matrici ortogonali. Matrice di unarotazione in R3. Esempi.

• 1 Dic: Lezione 24. Un’opportuna rotazione del piano trasforma l’equazione di un luogo disecondo grado in una senza il termine misto xy. Cenni sulla classificazione metrica delleconiche. Risoluzione di esercizi.

1. IL PRODOTTO SCALARE IN Rn .

Il prodotto scalare v × w di due vettori v e w in R2 viene definito come il prodotto della lunghezzadi v per la lunghezza della proiezione ortogonale di w su v. Proprieta immediate del prodotto scalare

Page 3: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

ALGEBRA LINEARE I 3

sono1:

(1) v · v = |v|2. |v| e la lunghezza di v.(2) v · w = |v||w| cos cvw. cvw e invece l’angolo tra i

vettori v e w.(3) v · w = w · v. (Simmetria)(4) v · (λw) = λ(v · w) = (λv) · w. (Linearita 1)(5) v · (w′ + w′′) = v · w′ + v · w′′, (v′ + v′′) · w = v′ · w + v′′ · w. (Linearita 2)

La linearita ci permette di calcolare il prodotto scalare di due vettori non appena sia noto il prodottoscalare tra i vettori i = (1,0) e j = (0,1). Se siamo stati furbi, abbiamo scelto un riferimento cartesianoortogonale, ed allora: i · i = j · j = 1, i · j = 0. Di conseguenza (a1, a2) · (b1, b2) = a1b1 + a2b2. Glistessi ragionamenti, ripetuti nello spazio, danno come prodotto scalare tra vettori in R3: (a1, a2, a3) ·(b1, b2, b3) = a1b1 + a2b2 + a3b3. Siccome siamo coraggiosi definiamo anche un prodotto scalare inRn: (a1, a2, ..., an) · (b1, b2, ..., bn) = a1b1 + a2b2 + ...+ anbn

2.E’ immediato osservare che l’espressione (a1, a2, ..., an) ·(b1, b2, ..., bn) e separatamente lineare nei

due argomenti, e che quindi le proprieta (4) e (5) valgono anche per il prodotto scalare in Rn.Nel caso di R2 e R3, la nostra intuizione geometrica ci permette di concludere che v·w

|v||w| e il cosenodi un angolo, e piu precisamente dell’angolo cvw. Per mostrare che una simile interpretazione geo-metrica puo essere sviluppata anche in Rn, va pero mostrato, in qualche modo, che otteniamo semprevalori compresi tra −1 ed 1. Questo e vero per la disuguaglianza di Cauchy-Schwarz3:

|v · w| ≤ |v||w|.

L’uguaglianza sussiste solo quando v e w sono multipli l’uno dell’altro (con linguaggio piu evoluto:quando sono linearmente dipendenti). Ricordate che abbiamo utilizzato il prodotto scalare per interpretarealcune equazioni nel piano e nello spazio. Ad esempio 2x+3y = 0 si puo riscrivere come (2, 3)·(x, y) =0 ed e allora chiaro che e l’equazione della retta per l’origine perpendicolare al vettore (2, 3). Allo stessomodo 3x−y+2z = 0 e il piano in R3 perpendicolare al vettore (3,−1, 2). Se ho un termine noto diversoda zero, ottengo la retta o il piano di tutti i punti che hanno una data proiezione ortogonale su (2, 3)oppure su (3,−1, 2).

Abbiamo anche dimostrato alcuni teoremi di geometria piana elementare utilizzando il prodottoscalare. Disegnare una figura e lievemente piu complesso che scrivere un’equazione, e non richiamoqui le dimostrazioni. Vi ricordo tuttavia che abbiamo parlato di teoremi di Pitagora e Carnot, e dei dueteoremi di Euclide. Si puo anche mostrare la formula di Erone per calcolare l’area di un triangolo, o lasua generalizzazione per un quadrilatero ciclico, ma e meglio parlarne piu in la.

2. CAMPI.

Quando risolviamo un sistema di equazioni, stiamo cercando soluzioni che siano numeri. A sec-onda del problema che stiamo risolvendo, questi numeri saranno naturali (cioe quelli che servono percontare: 0, 1, 2...), razionali (le frazioni), reali o chissa cos’altro ancora. Comunque se vogliamo poterlinon solo moltiplicare e sommare, ma anche sottrarre e dividere, abbiamo bisogno che il nostro insiemedi numeri soddisfi certe proprieta. Gli insiemi di numeri che soddisfano queste proprieta si chiamanocampi4. In breve un campo e un insieme K tra i cui elementi siano definite una operazione di somma(+) ed una di moltiplicazione (·) con le seguenti proprieta:

(1) a+ b = b+ a (Commutativita della somma)(2) a+ (b+ c) = (a+ b) + c (Associativita della somma)(3) ab = ba (Commutativita del prodotto)(4) a(bc) = (ab)c (Associativita del prodotto)(5) a(b+ c) = ab+ ac (Distributivita)

per ogni scelta di a, b, c ∈ K. Inoltre:(6) Esiste un elemento neutro 0 rispetto alla somma

1Le ho mostrate a lezione, e sono semplici. Dimostratele per esercizio se non c’eravate.2Che si scrive anche

Pni=1 aibi . Prima o poi dovro cominciare ad usare indici e sommatorie!

3Abbiamo dimostrato anche questa: prendete |tv + w|2 = (tv + w) · (tv + w) dove t ∈ R. Essendo il quadrato di unalunghezza, e sempre maggiore o uguale di zero. Sviluppando si ottiene un trinomio di secondo grado in t che non assume mai valorinegativi. Questo e possibile soltanto se il ∆ del trinomio at2 + bt + c, cioe il tanto celebrato b2 − 4ac, e minore o uguale a zero. Fattii conti, questo ci da la disuguaglianza che cerchiamo. Sul libro di Lang c’e una dimostrazione lievemente diversa.

4In realta la maggior parte delle cose che diremo valgono in un corpo, nel quale valgono tutti gli assiomi che valgono in un campo,tranne la commutativita del prodotto. Un esempio di corpo e quello dei quaternioni definito da Hamilton.

Page 4: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

4 ALGEBRA LINEARE I

(7) Esiste un elemento neutro 1 rispetto al prodotto5

(8) Ogni elemento ha un inverso rispetto alla somma(9) Ogni elemento non nullo ha un inverso rispetto al prodotto

Ho fatto vedere a lezione che R e Q sono campi, e ho fatto un altro esempio strano, che e quello delleclassi di resto modulo 5. Ho cinque elementi 0, 1, 2, 3, 4 e la somma ed il prodotto sono definiti a menodi multipli di cinque. Ad esempio 2 + 4(= 6) = 1, 3 · 4(= 12) = 2 ecc... Sorprendentemente ognielemento non nullo ha un inverso moltiplicativo: 1 · 1 = 1, 2 · 3 = 1, 4 · 4 = 1. Questo dipende inmodo essenziale dal fatto che 5 e un numero primo. Questo campo si chiama F5. Se provate con unaltro primo p ottenete un campo che si chiama Fp. Ad esempio F2 e il campo con due elementi che ciha tanto divertiti. Io faccio tutto sul campo R dei numeri reali, ma la maggior parte delle cose che dicoha senso su un campo qualsiasi.

3. SPAZI VETTORIALI.

Uno spazio vettoriale e qualcosa che somiglia ad uno dei nostri Rn. Su Rn abbiamo due operazioni,ovvero la somma tra vettori e il prodotto di un vettore per un numero reale, e queste due operazionisoddisfano tutte le proprieta che derivano da proprieta dei numeri reali. In generale, se K e un cam-po6, uno spazio vettoriale su K e un insieme V con un’operazione + di somma tra elementi di V edun’operazione · di prodotto tra un elemento di K (cioe uno scalare) ed uno di V (cioe un vettore) chesoddisfano:

(1) v + w = w + v

(2) u+ (v + w) = (u+ v) + w

(3) λ(v + w) = λv + λw(4) (λ+ µ)v = λv + µv

(5) (λµ)v = λ(µv)

(6) 1v = vper ogni scelta di u, v, w ∈ V , λ, µ ∈ K. Inoltre:

(7) Esiste un elemento neutro 0 per la somma(8) Ogni vettore v ∈ V ha un inverso −v rispetto alla somma

Se non dimentico clamorosamente qualcosa, dovrebbe essere tutto. Queste sono le manipolazioni ovvietra elementi di Rn che ci garantiscono che gli elementi di uno spazio vettoriale si comportano alla stessamaniera. Per esercizio fate vedere che le operazioni:

(a1, a2, ..., an) + (b1, b2, ..., bn)def= (a1 + b1, ..., an + bn)

eλ(a1, a2, ..., an)

def= (λa1, ..., λan)

definite su R soddisfano gli assiomi per uno spazio vettoriale7 su R. Noi comunque trattiamo soltantospazi vettoriali reali (ed occasionalmente complessi). Quando diro spazio vettoriale senza aggiungerealtro, intendero spazio vettoriale reale.

Un sottoinsieme X di uno spazio vettoriale V si dice sottospazio vettoriale di V se e uno spazio vet-toriale rispetto alle operazioni ereditate da V , o equivalentemente (e abbiamo mostrato l’equivalenzaa lezione) se e chiuso rispetto a somma e a prodotto per scalari. In altre parole se x, x′ sono elementi diX , x+x′ e λx devono essere anch’essi elementi diX . Di solito si richiede8 che un sottospazio vettorialesia non vuoto (cioe possieda almeno un elemento). In tal caso deve contenere il vettore nullo, poichese x ∈ X e un elemento qualsiasi, allora anche 0x = 0 e un elemento di X .

Se v e un elemento dello spazio vettoriale V , l’insieme di tutti i multipli di v e un sottospaziovettoriale di V , che nel caso in cui v 6= 0 e la retta generata da v. Piu in generale, se v1, . . . , vn

sono elementi di V , l’insieme di tutte le espressioni del tipo α1v1 + · · · + αnvn, dove α1, . . . , αn ∈R, e un sottospazio vettoriale di V , detto il sottospazio vettoriale generato da v1, . . . , vn. Si indica con〈v1, . . . , vn〉, ed e il piu piccolo sottospazio vettoriale di V che contenga gli elementi v1, . . . , vn.

5E qui qualcuno aggiunge 0 6= 1. Se siete pedanti e necessario... E se volete studiare gli spazi vettoriali e definirne la dimensione, enecessario anche se non siete pedanti!

6Se e un corpo le cose funzionano alla stessa maniera, ma bisogna distinguere tra spazi vettoriali destri, nei quali gli scalari simoltiplicano a destra, e sinistri, nei quali si moltiplicano a sinistra. Per non complicare inutilmente le cose, K sara sempre un campo, emai un corpo.

7In realta le operazioni definiscono sull’insieme Kn una struttura di spazio vettoriale su K, qualsiasi sia il campo K. Uno spaziovettoriale su R si dice anche spazio vettoriale reale.

8E noi lo richiediamo.

Page 5: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

ALGEBRA LINEARE I 5

Oltre agli spazi vettoriali del tipo Rn, ve ne sono anche altri interessanti. Ad esempio, l’insiemeR[x] dei polinomi in x a coefficienti reali e uno spazio vettoriale reale, ed i polinomi di grado minore ouguale ad n ne costituiscono un sottospazio vettoriale.

Allo stesso modo, l’insieme di tutte le funzioni su un insiemeX , a valori in uno spazio vettorialeU eun altro esempio di spazio vettoriale. In effetti, queste funzioni possono essere sommate e moltiplicateper un numero reale come segue:

(f + g)(x) := f(x) + g(x), (λf)(x) := λf(x),

e queste operazioni soddisfano gli assiomi di spazio vettoriale. Un caso notevole di questo esempio elo spazio delle funzioni da R in R. L’insieme delle funzioni continue (o differenziabili) ne costituiscechiaramente un sottospazio vettoriale.

Per esercizio, mostrate che se V,W sono sottospazi vettoriali di uno spazio vettoriale U , alloraanche V ∩W e

V +W = {v + w|v ∈ V,w ∈W}sono sottospazi vettoriali di U .

4. APPLICAZIONI LINEARI E MATRICI.

Non voglio sprecare troppo tempo su queste cose, visto che non facciamo altro che parlarne alezione. Se V e W sono spazi vettoriali, un’applicazione T : V → W si dice lineare se T (v + v′) =T (v) + T (v′) e T (λv) = λT (v) qualunque siano v, v′ ∈ V e λ ∈ R. Il nostro esempio tipico e quandoV = Rm e W = Rn. In questo caso T si dice definita da equazioni di primo grado se la maniera in cuiT associa all’elemento (x1, ..., xm) il corrispondente elemento (y1, ..., yn) = T (x1, ..., xm) e descrittada: 8>>>>><>>>>>:

y1 = a11x1 + a12x2 + ...+ a1mxm

y2 = a21x1 + a22x2 + ...+ a2mxm

...yn = an1x1 + an2x2 + ...+ anmxm

dove gli aij sono numeri reali. Ho fatto vedere a lezione che applicazioni lineari e applicazioni def-inite da equazioni di primo grado sono la stessa cosa. Che le equazioni appena scritte soddisfinole condizioni di linearita e facile da verificare. Il fatto che ogni applicazione lineare sia esprimi-bile per mezzo di equazioni di primo grado e ugualmente immediato. Infatti, se T e lineare, riescoa calcolare T (x1, ..., xm) non appena io conosca T (1, 0, ..., 0), T (0, 1, 0, ..., 0), ..., T (0, ..., 0, 1). Avro:T (x1, ..., xm) = x1T (1, 0, ..., 0) + x2T (0, 1, 0, ..., 0) + xmT (0, ..., 0, 1). Scrivendo (y1, ..., yn) al pos-to di T (x1, ..., xm) otterro un’espressione di T per mezzo di equazioni di primo grado. I coeffici-enti aij determinano allora completamente l’applicazione lineare T . Si vede immediatamente che(a11, a21, ..., an1) e esattamente T (1, 0, ..., 0), che (a12, a22, ..., an2) e esattamente T (0, 1, 0, ..., 0) ecosı via. I coefficienti aij presi insieme si chiamano matrice dell’applicazione T , e si scrivono in questamaniera: 0BBB@

a11 a12 ... a1m

a21 a22 ... a2m

...an1 an2 ... anm

1CCCAE’ importante ricordare che la prima colonna e l’immagine di (1, 0, ..., 0), la seconda di (0, 1, 0, ..., 0) ecosı via. Le matrici permettono di fare i conti velocemente. Ad esempio se T : R3 → R2 e descrittadalla matrice „

1 2 31 −1 0

«per calcolare T (5, 4, 7) opero nel modo seguente:„

1 2 31 −1 0

« 0@54

7

1A =

„1 · 5 + 2 · 4 + 3 · 7

1 · 5 + (−1) · 4 + 0 · 7

«=

„341

«per ottenere T (5, 4, 7) = (34, 1). In altre parole ho fatto il prodotto righe per colonne della matrice e dellacolonna. Il motivo per il quale procedere in questo modo da la risposta giusta e che se moltiplico la

Page 6: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

6 ALGEBRA LINEARE I

matrice che rappresenta T per la colonna (x1, x2, x3) ottengo:„1 2 3

1 −1 0

« 0@x1

x2

x3

1A =

„x1 + 2x2 + 3x3

x1 − x2 + 0x3

«ovvero esattamente le equazioni che definiscono l’applicazione T . Non e quindi una sorpresa chesostituire 5, 4, 7 al posto di x1, x2, x3 fornisca T (5, 4, 7) come risultato.

Il prodotto righe per colonne si fa anche di due matrici, ed ha un significato ben preciso. Se ho dueapplicazioni lineari S : Rm → Rn e T : Rl → Rm, posso farne la composizione ST : Rl → Rn, cherisulta ancora lineare. La matrice associata ad ST e il prodotto righe per colonne delle matrici associatea S e a T . Ad esempio se le matrici associate ad S : R2 → R3 e a T : R2 → R2 sono rispettivamente0@ 1 2

3 1

−1 5

1A e„

3 12 4

«allora la matrice che rappresenta ST e data dal prodotto righe per colonne0@ 1 2

3 1−1 5

1A „3 1

2 4

«=

0@ 7 9

11 77 19

1Acome si ottiene anche moltiplicando separatamente la prima matrice per le singole colonne della sec-onda matrice, ed utilizzando poi le colonne ottenute come colonne della matrice prodotto. A lezioneabbiamo utilizzato questo fatto per calcolare la matrice della rotazione di un angolo α+β in due modidiversi: direttamente calcolando le immagini dei punti (1, 0) e (0, 1); in secondo luogo moltiplicandorighe per colonne le matrici delle rotazioni di angolo α e β. Confrontando i risultati si ottengono leformule di addizione per le funzioni seno e coseno.

Un altro esempio di applicazione lineare che abbiamo dato e l’applicazione identica, o identita,insieme ai suoi multipli. Se V e uno spazio vettoriale, l’identita id : V → V e quell’applicazione chemanda ogni vettore in se stesso: id(v) = v per ogni v ∈ V . id : Rn → Rn e chiaramente lineare e lasua matrice e: 0BBB@

1 0 ... 0

0 1 ... 0...

. . . 0

0 0 ... 1

1CCCAHo fatto vedere che il nucleo9 e l’immagine di un’applicazione lineare T : V → W sono sottospazivettoriali di V e W rispettivamente. Questo mi ha permesso di dare una descrizione in termini dispazi e sottospazi vettoriali di quali siano le scelte di termini noti in un sistema di equazioni lineariper le quali il sistema abbia soluzioni. Oltre al prodotto righe per colonne, le matrici si possono anchesommare tra loro e moltiplicare per uno scalare.

La somma e definita tra matrici della stessa forma, e si esegue sommando i coefficienti corrispon-denti. Ad esempio: „

1 23 1

«+

„3 12 4

«=

„4 35 5

«.

Moltiplicare invece per uno scalare λ una matrice vuol dire moltiplicare tutti i suoi coefficienti perλ, ottenendo cosı una matrice della stessa forma di quella originale. E’ abbastanza evidente che questeoperazioni definiscono, sull’insieme delle matricim×n, una struttura di spazio vettoriale che somigliamolto a quella di Rmn. Sarebbe bene che imparaste velocemente a leggere le matrici (cioe a capire checosa rappresentano le colonne) e a fare conti rapidamente con esse (i prodotti righe per colonne).

Due matrici possono essere moltiplicate righe per colonne solamente se hanno forme compatibili(cioe se le corrispondenti applicazioni lineari possono essere composte). Se A e una matrice m × n eB una r × s, il prodotto AB puo essere calcolato solo se n = r, ed in tal caso il risultato e una matricem× s.

Se i prodotti AB e BA possono essere calcolati, ed i risultati confrontati, vuol dire che sia A cheB sono matrici quadrate della stessa forma. Anche in questo caso, non vi e alcun motivo perche idue prodotti debbano coincidere, ed in generale si avra AB 6= BA. Questo ha delle conseguenze unpo’ spiacevoli quando si vogliano utilizzare tra matrici le stesse manipolazioni che funzionano con i

9Ovvero tutti i vettori di V che vengono mandati a zero da T .

Page 7: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

ALGEBRA LINEARE I 7

numeri reali, ma che dipendono in modo essenziale dalla commutativita del prodotto. Ad esempio,(a+ b)(a− b) = a2 − b2 tra numeri reali, ma con le matrici dobbiamo scrivere:

(A+B)(A−B) = A2 −B2 +BA−AB

che e uguale ad A2 − B2 solo se BA = AB, cioe se A e B commutano. Quindi occhio ad applicareprodotti notevoli. Il prodotto tra matrici distribuisce invece rispetto alla somma, e commuta con ilprodotto per scalari, perche queste operazioni traducono la composizione e la somma tra applicazionilineari, che soddisfano la proprieta distributiva, e si comportano bene rispetto al prodotto per scalari.

5. INIETTIVITA, SURIETTIVITA ED INVERTIBILITA DI APPLICAZIONI LINEARI.

La definizione di iniettivita e suriettivita di un’applicazione la do per buona, perche dovreste averlasentita anche nel corso di derivate ed integrali. Nel caso di un’applicazione lineare, verificare questeproprieta si riduce a studiare particolari sottospazi vettoriali.

Iniziamo dal caso piu semplice, che e quello della suriettivita: abbiamo gia visto poco sopra chel’immagine di un’applicazione lineare e un sottospazio dello spazio vettoriale di arrivo. Un’appli-cazione lineare e quindi suriettiva se e solo se questo spazio vettoriale coincide con lo spazio vetto-riale di arrivo. Questo fatto non e particolarmente illuminante, ma vedremo piu tardi che i concettidi dipendenza ed indipendenza lineare permettono di fornire una risposta veloce a questo problema,sfruttando la linearita dell’applicazione.

Per quanto riguarda l’iniettivita, le cose sono invece piu sorprendenti. Sia T : U → V un’appli-cazione lineare tra spazi vettoriali. Il nucleo di T e il sottoinsieme kerT = {u ∈ U |T (u) = 0} dellospazio vettoriale U . Si vede facilmente che kerT e un sottospazio vettoriale di U . La cosa interessantee che:

Proposizione 5.1. T e iniettiva se e solo se kerT = {0}.

Dimostrazione. Innanzitutto, se T e lineare, allora T (0) = 0. Questo si vede facilmente ricordando cheT (λv) = λT (v), ed utilizzando λ = 0 in questa relazione. Allora, se T e iniettiva, 0 ∈ U e l’unicoelemento che possa avere 0 ∈ V come immagine, e quindi kerT = {0}.

Dobbiamo ora far vedere il viceversa, e cioe che se kerT = {0} allora T e iniettiva. Questo esemplice, e sfrutta in maniera essenziale la linearita. Supponiamo che u1, u2 ∈ U abbiano la stessaimmagine tramite T . Questo vuol dire che T (u1) = T (u2). Per linearita, allora, abbiamo T (u1−u2) =

T (u1)−T (u2) = 0. Ma questo vuol dire che u1−u2 ∈ kerT . Se il nucleo di T contiene il solo elemento0, abbiamo allora u1 − u2 = 0, da cui u1 = u2. �

Un’applicazione e invertibile se e sia iniettiva che suriettiva. Un’applicazione invertibile T : X →Y ammette sempre un’unica applicazione inversa S : Y → X con la proprieta che S ◦ T = idX eT ◦ S = idY . Se X e Y sono spazi vettoriali, e T e lineare, abbiamo mostrato che l’applicazione S eanch’essa necessariamente lineare.

6. DIPENDENZA E INDIPENDENZA LINEARE. BASI.

Se ho alcuni vettori v1, v2, ..., vn in uno spazio vettoriale V , il sottospazio10 W = 〈v1, ..., vn〉 di Vda loro generato e l’insieme di tutte le combinazioni lineari, ovvero dei vettori della forma α1v1 + ...+

αnvn, al variare di α1, ..., αn tra i numeri reali. Non e detto che tutti i vettori siano “necessari” pergenerare W : se ad esempio uno di essi — diciamo v1 — si esprime come combinazione lineare deglialtri, bastano v2, ..., vn a generare W . Se nessuno dei vettori si esprime come combinazione linearedei rimanenti, tutti sono necessari a generare W . In tal caso i vettori si dicono linearmente indipendenti.Una proprieta equivalente, che e quella utilizzata in classe per definire la lineare indipendenza, e chel’unica combinazione lineare dei vettori v1, ..., vn a dare il vettore nullo e quella con tutti coefficientinulli. In altri termini

α1v1 + ...+ αnvn = 0 =⇒ α1 = α2 = ... = αn = 011.

Ovviamente, se ho dei vettori che non sono linearmente indipendenti, diro che sono linearmentedipendenti! Alcune banalita sulla dipendenza lineare:

• Se uno tra v1, ..., vn e il vettore nullo, allora i vettori non sono linearmente indipendenti.

10Il fatto che questo sottoinsieme sia un sottospazio vettoriale e facile da mostrare. E’ quindi anche il minimo sottospazio vettorialedi V contenente i vettori dati.

11Per mostrare che e equivalente all’altra proprieta basta osservare che se una combinazione lineare a coefficienti non tutti uguali azero da il vettore nullo, ognuno dei vettori che vi compaiono si scrive come combinazione lineare dei rimanenti.

Page 8: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

8 ALGEBRA LINEARE I

• Se ho dei vettori linearmente dipendenti, anche aggiungendone degli altri rimangono linear-mente dipendenti.

• Se dei vettori v1, . . . , vn sono linearmente indipendenti, ogni sottoinsieme di v1, . . . , vn eanch’esso linearmente indipendente.

• Un vettore v 6= 0 preso da solo e sempre linearmente indipendente.• Se un vettore si esprime come combinazione lineare di v1, ..., vn in piu maniere diverse, allorav1, ..., vn sono linearmente dipendenti.

• Se un vettore si esprime in maniera unica come combinazione lineare di v1, ..., vn, allora essisono linearmente indipendenti.

Le ultime due proprieta dipendono dal fatto che se le combinazioni lineari α1v1 + ...+αnvn e β1v1 +

...+ βnvn sono entrambe uguali a v, allora la differenza (α1 − β1)v1 + ...+ (αn − βn)vn e il vettorenullo, e viceversa.

E’ importante comprendere che la dipendenza e l’indipendenza lineare sono proprieta collettivedell’insieme di vettori, e non proprieta particolari di ciascuno dei vettori presi singolarmente. Nonposso sapere (a meno che sia zero) se l’insieme di vettori v1, . . . , vn sia linearmente indipendenteconoscendo solo v1, senza conoscere gli altri.

Il concetto di base cattura le proprieta di insiemi di elementi che giocano, in spazi vettoriali che nonsiano i nostri bravi Rn, un ruolo simile a quello degli elementi (1, 0, 0, ..., 0), (0, 1, 0, ..., 0), ecc. . . Laproprieta essenziale di queste n-uple e che ogni vettore di Rn si esprime in modo unico come lorocombinazione lineare. Una base dello spazio vettoriale V e un insieme di vettori di V con la proprietache ogni altro elemento di V si scriva, e si scriva in maniera unica, come loro combinazione lineare. Inaltre parole, i vettori sono linearmente indipendenti, e il sottospazio vettoriale che generano e tutto V .

Costruire basi e facile: si sceglie un vettore (non nullo) a caso in V . Se i suoi multipli esaurisconoV , ovvero se tutti gli elementi di V sono multipli del vettore che abbiamo scelto, abbiamo terminato;altrimenti scegliamo un altro vettore di V al di fuori di questa retta. Se con le combinazioni linearidei primi due vettori raggiungiamo tutti gli elementi di V abbiamo terminato, altrimenti scegliamo unaltro vettore al di fuori, e continuiamo cosı fin quando non riusciamo a generare tutto V . A quel punto12

avremo ottenuto una base di V . Alla stessa maniera, se ho dei vettori di V linearmente indipendenti,posso sempre scegliere altri vettori come appena descritto in modo che tutti insieme formino una basedi V . Si dice che ho completato i vettori ad una base di V . In maniera simile, eliminando di volta in voltai generatori non necessari, si puo mostrare che da ogni insieme di generatori di uno spazio vettorialesi puo estrarre un sottoinsieme che costituisce una base.

Le basi sono inestimabili per lo studio degli spazi vettoriali, come vedremo in seguito. Ho fattovedere a lezione che se uno spazio vettoriale V ha una base di n elementi, non ci puo essere un in-sieme di vettori linearmente indipendenti se questi vettori sono piu di n. La dimostrazione che hodato e stata un po’ macchinosa, e la richiamo qui sotto con tutti i dettagli. Questo fatto ha anche unaltra conseguenza. Se ho una base di V costituita da n vettori, e altri n vettori che sono linearmenteindipendenti, questi ultimi devono essere necessariamente una base di V . Ad esempio, se ho tre vet-tori linearmente indipendenti in R3, questi formano per forza una base. In quello che segue, V e unospazio vettoriale, e v1, ..., vn ne costituiscono una base.

• Un sottospazio di V che contenga i vettori v1, ..., vn e tutto V . La dimostrazione e immedi-ata. Un sottospazio che contiene dei vettori, contiene tutte le loro combinazioni lineari. Sic-come v1, ..., vn sono una base di V , posso ottenere ogni altro vettore come loro combinazionelineare.

• Se w = α1v1 + ... + αnvn e αi 6= 0, il sottospazio generato dai vettori vj , j 6= i insiemea w e tutto V . Anche questo e facile. Il sottospazio generato da alcuni vettori ne contiene lecombinazioni lineari. Il sottospazio generato dai vettori vj , j 6= i e da w contiene sicuramentetutti i vj , j 6= i. Ma contiene anche vi. Infatti la combinazione lineare (w − α1v1 − α2v2 −...− αi−1vi−1 − αi+1vi+1 − ...− αnvn)/αi e esattamente uguale a vi. Il nostro sottospaziocontiene tutti i vettori di una base, e quindi coincide con l’intero V .

• Nelle stesse ipotesi di sopra, i vettori vj , j 6= i e w sono una base di V . Sappiamo gia chequesti vettori generano tutto V . Basta quindi dimostrare che sono linearmente indipendenti.Per semplificare la dimostrazione, faccio finta che i = 1, tanto posso sempre riordinare glin vettori v1, ..., vn in modo che vi venga per primo... Faccio vedere che se w, v2, ..., vn sono

12C’e la possibilita che quel punto non arrivi mai. Se questo accade, di dice che lo spazio vettoriale V ha dimensione infinita.Nonostante ci siano altre maniere di costruire una base di V in questo caso, faremo finta di ignorare questa eventualita e per la maggiorparte del corso considereremo soltanto spazi vettoriali di dimensione finita.

Page 9: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

ALGEBRA LINEARE I 9

linearmente dipendenti v1, ..., vn non possono essere una base di V . Se i vettori w, v2, ..., vn

sono linearmente dipendenti, allora c’e una combinazione lineare a coefficienti non tutti nulliβ1w+β2v2 + ...+βnvn = 0. Il problema e che β1 non puo essere ne uguale a zero, ne diversoda zero. Infatti se e zero, allora la combinazione lineare appena scritta mostra che v2, ..., vn

sono linearmente dipendenti, mentre sappiamo che insieme a v1 formano una base. Se inveceβ1 6= 0 allora possiamo sfruttare l’identita di sopra per scrivere w come combinazione linearedi v2, ..., vn. Ma sapevamo gia come scrivere w come combinazione lineare di v1, v2, ..., vn, eavevamo supposto che il coefficiente di v1 non fosse zero. Quindi w si esprime in due modidiversi come combinazione lineare di v1, ..., vn, che pero sono una base.

Finora abbiamo mostrato che se abbiamo una base v1, ..., vn, ed un vettore w = α1v1 + ... + αnvn,sostituendo w al posto di vi otteniamo di nuovo una base SE αi 6= 0.13

• Se v1, ..., vn e una base di V , e w1, ..., wn sono linearmente indipendenti, allora sono an-ch’essi una base. Subdola applicazione del trucco di prima. Prendo w1. E’ sicuramente diver-so da zero, perche i vettori sono linearmente indipendenti. Esprimo w1 come combinazionelineare dei v1, ..., vn. Uno dei coefficienti non e nullo, allora se sostituisco w1 al posto delcorrispondente vi, sono ancora una base. Passo a w2 e lo sostituisco ad un altro, e faccio cosıanche con w3, ..., wn. Se tutto e andato bene, dopo aver sostituito questi vettori sono rimastocon w1, ..., wn che devono quindi essere una base. Che cosa puo essere andato storto? Ma-gari ho sostituito uno dei vettori wi al posto di un altro wj invece che di uno dei vj . Devocontrollare che posso sempre evitarlo.

Posso sostituire wi al posto dei vettori il cui coefficiente nella combinazione lineare cheesprime wi non sia zero. Ebbene, c’e sempre un vettore tra i vj il cui coefficiente non sia zero.Infatti, se i coefficienti di tutti i vj sono nulli, vuol dire che wi si scrive come combinazionelineare dei soli wj . Questo non puo succedere perche sono linearmente indipendenti.

• Se v1, ..., vn e una base di V , e w1, ..., wh sono linearmente indipendenti, allora h ≤ n. Aquesto punto e facile: se h > n, w1, ..., wn sono una base per quello che abbiamo detto prima.Ma allora wn+1 si scrive come combinazione lineare di w1, ..., wn e quindi w1, ..., wh sonolinearmente dipendenti. Quindi h > n non e possibile.

• Se v1, ..., vn ew1, ..., wm sono due basi di V , alloram = n. Per quanto detto prima, sem > n

avrei piu di n vettori linearmente indipendenti con una base di n elementi. Sem < n scambiole due basi e ripeto l’argomento.

• Se W e un sottospazio di V e dimW = dimV allora W = V . Scelgo una base di W ed unadi V . La base di W e un insieme di vettori linearmente indipendenti. Poiche sono nello stessonumero dei vettori di una base di V , sono anch’essi una base di V . Quindi W deve esseretutto V .

Le basi sono i sistemi di riferimento degli spazi vettoriali. In effetti, se v1, . . . , vn e una base di unospazio vettoriale V , per quanto detto prima possiamo esprimere ogni elemento v ∈ V in maniera unicacome combinazione lineare

v = α1v1 + · · ·+ αnvn.

I coefficienti α1, . . . , αn sono allora le coordinate di v rispetto alla base v1, . . . , vn. E’ importante no-tare che queste coordinate dipendono sia dalla scelta della base che dall’ordine degli elementi v1, . . . , vn.In altre parole ogni base ordinata di V fornisce una maniera di associare a ciascun vettore le suecoordinate.

C’e’ qualcosa di piu profondo in tutto questo. In effetti l’applicazione che associa ad un vettore lesue coordinate in una determinata base e l’inversa dell’applicazione

Rn 3 (α1, . . . , αn) 7→ α1v1 + · · ·+ αnvn ∈ V,

che e lineare, ed e quindi anch’essa lineare. In altre parole ogni base (ordinata) di uno spazio vettorialeV di dimensione finita fornisce un isomorfismo di V con Rn. Vedremo in seguito come fare a tradurrele coordinate in una data base nelle coordinate in un’altra.

7. CAMPI FINITI.

Abbiamo dato a lezione un’applicazione interessante del concetto di dimensione, che riguardavai campi finiti. All’inizio del corso avevo mostrato degli esempi di strutture di campo su un numerofinito di elementi, come i campiFp, con p primo. Vi avevo detto anche che non potevano esservi campi

13Se αi = 0 invece, non c’e speranza che sia una base.

Page 10: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

10 ALGEBRA LINEARE I

con sei elementi, senza darvene la spiegazione. Con le poche cose fatte di algebra lineare, e ora prontauna dimostrazione esauriente di questo fatto. Ve la racconto in dettaglio.

In generale, in un campo K, gli elementi 0, 1, 1 + 1, 1 + 1 + 1, ecc. . . non sono necessariamentedistinti. In questo caso, esistera un piu piccolo intero positivo n con la proprieta che

1 + 1 + · · ·+ 1| {z }nvolte

= 0,

che e detto caratteristica di K. Se invece i multipli di 1 sono tutti distinti, diciamo che la caratteristica diK e 0.

Lemma 7.1. Se la caratteristica di K e non nulla, e allora un numero primo.

Dimostrazione. E’ comodo introdurre la notazione

m.x = x+ x+ · · ·+ x| {z }mvolte

.

Si mostra facilmente che (m.1) · (n.1) = (mn).1. Ma allora il gioco e fatto: sia p la caratteristica di K.Abbiamo sicuramente che p.1 = 0. Se p non e primo, allora possiamo scrivere p = ab, con a, b positivi,strettamente minori di p. Ma allora 0 = p.1 = ab.1 = (a.1)(b.1), e quindi a.1 = 0 oppure b.1 = 0, ilche contraddice la minimalita di p. �

La caratteristica di un campo finito non puo essere zero, altrimenti i multipli di 1 sarebbero unsottoinsieme infinito. Ogni campo finito ha quindi caratteristica prima p. Questo fatto ha conseguenzeimmediate e profonde. In effetti se p.1 = 0, allora p.x = 0 per ogni scelta di x ∈ K. Possiamo quindidefinire su K una struttura di spazio vettoriale su Fp, in cui la somma e data dalla somma in K, ed ilprodotto per [m] ∈ Fp e dato da [m]x = m.x. Tutto funziona, dal momento che p.x = 0 (dimostrateloper esercizio).

L’insieme composto da tutti gli elementi di K lo genera come spazio vettoriale su Fp. Questo none molto illuminante, ma da ogni insieme finito di generatori possiamo estrarre una base! Allora Kammette una base finita (diciamo di n elementi) come spazio vettoriale su Fp. Per quanto detto prima,una base finita fornisce un isomorfismo (Fp-lineare) con (Fp)n, che ha pn elementi. Abbiamo quindifatto vedere che

Teorema 7.2. Se K e un campo finito, la sua caratteristica e un numero primo p, ed il numero dei suoi elementie una potenza di p.

Dal momento che 6 non e potenza di un primo, non esistono campi con esattamente 6 elementi. Conqualche idea in piu, si puo mostrare che per ogni primo p, ed intero n, esiste un campo con esattamentepn elementi.

8. SISTEMI LINEARI E DIPENDENZA LINEARE.

Un sistema di equazioni lineari si dice omogeneo se i termini noti sono tutti nulli, e non omogeneoaltrimenti. Sappiamo gia che le soluzioni di un sistema omogeneo sono un sottospazio vettoriale,perche rappresentano il nucleo dell’applicazione lineare individuata dai primi membri del sistema diequazioni14. Se sto risolvendo invece un sistema non omogeneo, le sue soluzioni non formano unsottospazio vettoriale. In ogni caso, la differenza di due qualsiasi soluzioni e, per linearita, una dellesoluzioni del sistema omogeneo corrispondente (stessi primi membri, termini noti tutti nulli); nellastessa maniera la somma di una soluzione di un sistema non omogeneo e di una del sistema omogeneoassociato e ancora soluzione dello STESSO sistema non omogeneo. Questo ci ha permesso di conclud-ere che, una volta nota una soluzione particolare15 di un sistema non omogeneo, le altre soluzioni sonotutte e sole quelle che si scrivono come somma della soluzione particolare e di una qualche soluzionedel sistema omogeneo associato. Geometricamente, questo vuol dire che le soluzioni di un sistema nonomogeneo si ottengono traslando le soluizoni del sistema omogeneo associato (che e un sottospaziovettoriale) di una traslazione pari ad una soluzione particolare. Dal momento che questo risultato – inrealta immediato – sembra sufficientemente interessante, lo scrivo per bene.

14Ovviamente suppongo di mettere nel primo membro di ciascuna equazione le incognite, e nel secondo membro i termini noti.15Che posso scegliere come mi pare.

Page 11: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

ALGEBRA LINEARE I 11

Proposizione 8.1. Sia L : U → V un’applicazione lineare tra spazi vettoriali, ed u0 ∈ U, f ∈ V elementitali che Lu0 = f . Allora le soluzioni dell’equazione

Lu = f

sono tutte e sole quelle della forma u0 + φ, dove φ appartiene al nucleo di L.

Dimostrazione. Se φ ∈ kerL, allora L(u0 + φ) = Lu0 + Lφ = f , e quindi u0 + φ e soluzionedell’equazione data.

Se viceversa Lu = f , allora L(u−u0) = Lu−Lu0 = f −f = 0 e quindi u−u0 = φ e un elementodel nucleo di L. Ma allora u = u0 + φ. �

Questo ci permette di concludere che gli insiemi di soluzioni hanno tutti la stessa struttura. Se lasoluzione del sistema omogeneo associato e unica, un sistema non omogeneo non puo avere piu di unasoluzione16. Se le soluzioni del sistema omogeneo associato formano una retta, un sistema non omo-geneo ha per insieme delle soluzioni quella stessa retta traslata, e cosı via. Lo studio della molteplicitadelle soluzioni di un sistema si riduce quindi allo studio delle soluzioni del sistema omogeneo associ-ato. Dobbiamo rispondere a due domande fondamentali: quante soluzioni ha un dato sistema lineareomogeneo? Come faccio a capire se un sistema non omogeneo ha soluzioni?

A lezione ho risposto alla prima domanda mostrando che la dimensione del nucleo di una appli-cazione lineare T : V → W (leggi: la dimensione dello spazio delle soluzioni di un sistema lineareomogeneo) e pari a dimV − dim Im T (leggi: il numero di incognite meno il “rango” della matrice deicoefficienti). Vediamo come.

Lemma 8.2. Se u1, . . . , un generano lo spazio vettoriale U , e T : U → V e lineare, allora T (u1), . . . , T (un)generano il sottospazio Im T .

Dimostrazione. Se v ∈ Im T , allora esiste u ∈ U tale che v = T (u). Dal momento che u1, . . . , un sonogeneratori di U , possiamo scrivere u = α1u1 + · · ·+ αnun. Ma allora

v = T (u) = α1T (u1) + · · ·+ αnT (un),

e quindi ogni elemento dell’immagine di T e combinazione lineare di T (u1), . . . , T (un). �

Proposizione 8.3. Sia T : V → W un’applicazione lineare tra spazi vettoriali di dimensione finita. AlloradimV = dim kerT + dim Im T .

Dimostrazione. Prendiamo un’applicazione lineare T : V → W . Il nucleo di T e un sottospaziovettoriale di V . Posso scegliere una base {v1, ..., vn} del nucleo di T (sara formata da vettori di Tlinearmente indipendenti) e completarla ad una base {v1, ..., vn, w1, ..., wr} di V . Siccome ogni vet-tore di V si scrive come combinazione lineare di questi n + r vettori, ogni vettore dell’immagine diT si scrive come combinazione lineare dei vettori T (v1), ..., T (vn), T (w1), ..., T (wr). Ora, i vettoriT (v1), ..., T (vn) sono chiaramente tutti nulli, perche abbiamo scelto v1, ..., vn all’interno del nucleo diT . Percio l’immagine di T e generata dai vettori T (w1), ..., T (wr).

Ora voglio mostrare che questi r vettori sono necessariamente linearmente indipendenti. Prendi-amo una combinazione lineare α1T (w1) + ... + αrT (wr) uguale al vettore nullo. Voglio far vedereche tutti i coefficienti αi sono nulli. T e lineare, e riesco a scrivere 0 = α1T (w1) + ... + αrT (wr) =

T (α1w1 + ... + αrwr) percio il vettore w = α1w1 + ...αrwr appartiene al nucleo di T . Ma siccomev1, ..., vn formano una base del nucleo w si scrive anche come combinazione lineare dei soli v1, ..., vn.Se gli αi non sono tutti nulli, w si scrive in due modi diversi come combinazione lineare dei vettoriv1, ..., vn, w1, ..., wr , il che e impossibile, perche formano una base di V .

Ricapitolando, l’immagine di T e generata dai vettori T (w1), ..., T (wr) che sono linearmente in-dipendenti. Questi vettori sono quindi una base di Im T , e quindi dim Im T = r. Inoltre V hauna base v1, ..., vn, w1, ..., wr costituita da n + r vettori, quindi dimV = n + r. Allo stesso mo-do, il nucleo di T ha una base v1, ..., vn di n vettori, e quindi ha dimensione n. Concludiamo chedimV = n+ r = rg T + dimkerT .17 �

Prima di passare ad altro, concludo con la formula di Grassman.

Proposizione 8.4. Sia U uno spazio vettoriale, e V,W suoi sottospazi vettoriali di dimensione finita. Allora

dimV + dimW = dim(V +W ) + dim(V ∩W ).

16Fermo restando che potrebbe non avere soluzioni. Pero quando ne ha, la soluzione DEVE essere unica.17Gli articoli di ricerca sono solitamente scritti in inglese, e l’abbreviazione tradizionale di “Nucleo” e sorprendentemente ker.

Page 12: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

12 ALGEBRA LINEARE I

Dimostrazione. Scegliamo una base u1, . . . , ur dell’intersezione V ∩W . Possiamo completarla ad unabase u1, . . . , ur, v1, . . . , vm di V . Allo stesso modo, possiamo costruire una base u1, . . . , ur, w1, . . . , wn

di W . Voglio mostrare che u1, . . . , ur, v1, . . . , vm, w1, . . . wn e una base di V +W .Intanto, gli elementi sopra elencati generano V +W . In effetti, ogni elemento di V si scrive come

combinazione lineare di u1, . . . , ur, v1, . . . , vm, mentre ogni elemento di W e combinazione linearedi u1, . . . , ur, w1, . . . , wn di W . Gli elementi di V + W sono quelli che si scrivono come sommadi un elemento di V e di uno di W , e si scrivono quindi come combinazione lineare degli elementiu1, . . . , ur, v1, . . . , vm, w1, . . . wn sommando le due espressioni.

In effetti, sono anche linearmente indipendenti: supponiamo che

α1u1 + · · ·+ αrur + β1v1 + · · ·+ βmvm + γ1w1 + · · ·+ γnwn = 0.

Possiamo allora scrivere

α1u1 + · · ·+ αrur + β1v1 + · · ·+ βmvm = −γ1w1 + · · ·+ γnwn.

Il primo membro e un elemento di V , mentre il secondo giace in W . Di conseguenza, entrambi imembri sono elementi di V ∩W . Ma un elemento di V ∩W si scrive gia come combinazione linearedei soli vettori u1, . . . ur . Se uno tra β1, . . . , βm fosse diverso da zero, avremmo un elemento che siscrive in due modi diversi come combinazione lineare di elementi linearmente indipendenti, e quindiun assurdo. Questo mostra che β1 = · · · = βm = 0. Scambiando i ruoli di V e W , otteniamo ancheche γ1 = · · · = γn = 0. Ma allora abbiamo

α1u1 + · · ·+ αrur = 0,

e per indipendenza lineare di u1, . . . , ur abbiamo anche α1 = · · · = αr = 0.A questo punto dim(V ∩W ) = r, dimV = m + r, dimW = n + r. Ma abbiamo mostrato che

V + W ammette una base di m + n + r elementi. Pertanto dim(V + W ) = m + n + r, da cuidim(V +W ) = dimV + dimW − dim(V ∩W ). �

Chi ha lo sguardo acuto si sara accorto che questa dimostrazione e simile, in spirito, a quelladella proposizione precedente. A lezione abbiamo in effetti dato una dimostrazione diversa, costru-endo un’opportuna applicazione lineare e confrontando le dimensioni di nucleo e immagine di taleapplicazione.

9. IL PROCEDIMENTO DI ELIMINAZIONE DI GAUSS.

In questi appunti presento il procedimento di eliminazione di Gauss alla rovescia, spiegando primacome si fa, e poi a che cosa serva. Il motivo principale e che la tecnica puo essere utilizzata in piu di uncontesto, per ottenere informazioni di tipo diverso codificate in una matrice in modi diversi.

Innanzitutto, l’eliminazione di Gauss si applica ad una matrice, ed e una successione di manipo-lazioni elementari. Le mosse elementari che si utilizzano sono di tre tipi:

• la moltiplicazione di una riga per uno scalare diverso da zero;• lo scambio dell’ordine delle righe;• la somma ad una riga di un multiplo di un’altra.

E’ abbastanza evidente che per mezzo di queste manipolazioni possiamo sommare (o sottrarre) aduna delle righe qualsiasi combinazione lineare delle altre. Non staro a spiegare con precisione comefunzioni l’eliminazione, anche perche in rete si trovano descrizioni piu che dettagliate (provate gliappunti e gli esercizi di Paola Cellini all’indirizzo http://www.sci.unich.it/˜cellini).

Al termine dell’eliminazione di Gauss, la matrice sara in una forma detta “a gradoni”. Il numerodelle righe non nulle e detto rango della matrice iniziale. Il primo coefficiente non nullo (leggendo dasinistra a destra) di ciascuna riga non nulla e detto pivot. Il rango e quindi uguale al numero dei pivot.

Si puo raffinare il procedimento di eliminazione completando l’eliminazione tornando verso l’alto,in maniera da rendere nulli tutti i coefficienti al di sopra di un pivot. In questa maniera la forma finaledella matrice e a gradoni, con le colonne relative ai pivot che contengono un solo coefficiente diversoda zero – il pivot stesso.

Abbiamo mostrato a lezione che le righe non nulle di una matrice a gradoni sono linearmenteindipendenti (era facile).

Page 13: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

ALGEBRA LINEARE I 13

9.1. Risoluzione di sistemi lineari. Se la cosa che interessa e trovare le soluzioni di un sistema di (unnumero finito) di equazioni lineari (in un numero finito di incognite), e sufficientemente evidente chel’insieme delle soluzioni non cambia se riordiniamo le equazioni, moltiplichiamo una delle equazioniper uno scalare diverso da zero, oppure sommiamo ad una delle equazioni un multiplo di un’altra. Sescriviamo, quasi stenograficamente, solo i coefficienti0BB@

a11 a12 . . . a1n b1a21 a22 . . . a2n b2. . .

am1 am2 . . . amn bm

1CCAinvece di scrivere completamente il sistema8>>>><>>>>:

a11x1 + a12x2 + · · ·+ a1nxn = b1

a21x1 + a22x2 + · · ·+ a2nxn = b2

. . .

am1x1 + am2x2 + · · ·+ amnxn = bm

notiamo che le manipolazioni descritte sopra sulle equazioni del sistema corrispondono alle mosse el-ementari dell’eliminazione di Gauss effettuate sulla matrice dei coefficienti. Si puo quindi trasformareil sistema di equazioni lineari dato in un sistema equivalente, di forma a gradoni.

Una cosa balza subito all’occhio: se l’ultimo pivot si trova sulla colonna dei termini noti, una delleequazioni al termine dell’eliminazione di Gauss sara della forma 0 = b 6= 0, che e impossibile da ver-ificare. Il sistema non ammettera quindi soluzione; se invece l’ultimo pivot non si trova sulla colonnadei termini noti, allora per ogni assegnazione di valori alle incognite non relative a colonne contenen-ti pivot corrispondera una ed una sola scelta di valori per le altre incognite. Il sistema e stato infattiridotto, nelle incognite relative alle colonne contenenti un pivot, a forma diagonale. Abbiamo quindiun metodo per decidere se un sistema sia compatibile (se ammetta cioe soluzioni) ed in questo casocalcolarle tutte.

9.2. Il rango. Il procedimento di eliminazione di Gauss su di una matrice puo essere sfruttato ancheper un’altra finalita. In effetti, le mosse elementari del procedimento non cambiano lo spazio vettorialegenerato dalle righe della matrice. Inoltre, a procedimento concluso, le righe non nullo sono linear-mente indipendenti, e costituiscono quindi una base dello spazio vettoriale generato dalle righe dellamatrice iniziale.

L’eliminazione di Gauss e quindi un sistema per calcolare la dimensione dello spazio vettorialegenerato dalle righe di una matrice, nonche una base esplicita di questo spazio vettoriale.

A lezione abbiamo applicato questo doppio utilizzo dell’eliminazione di Gauss per dimostrare unrisultato che ci e servito in seguito nella dimostrazione del teorema dell’orlato.

Proposizione 9.1. SiaA una matricem×n. Il sottospazio di Rm generato dalle colonne diA ed il sottospaziodi Rn generato dalle righe di A hanno la stessa dimensione, che e uguale al rango, cioe al numero dei pivot dellamatrice a gradoni ottenuta da A per mezzo dell’eliminazione di Gauss.

Dimostrazione. Abbiamo appena visto che la dimensione dello spazio generato dalle righe e uguale alrango. Per mostrare che anche lo spazio generato dalle colonne ha la stessa dimensione, risolviamo permezzo dell’eliminazione di Gauss il sistema omogeneo di equazioni lineari la cui matrice dei coeffici-enti sia data da A. Il procedimento di eliminazione e lo stesso, e conduce alla stessa matrice a gradoni.Questa volta, pero, concludiamo che l’insieme delle soluzioni del sistema ha dimensione n − r, ed eparametrizzato linearmente per mezzo delle incognite relative alle colonne nelle quali non e presenteun pivot. In altre parole, abbiamo dimostrato che il nucleo dell’applicazione lineare di matrice A hadimensione n− r.

In precedenza abbiamo mostrato che la somma delle dimensioni del nucleo e dell’immagine diun’applicazione lineare e pari alla dimensione dello spazio vettoriale di partenza. Dal momento cheA rappresenta un’applicazione lineare da Rn a Rm, la dimensione dell’immagine di tale applicazionesara r.

E’ ora sufficiente ricordare che l’immagine di un’applicazione lineare tra spazi Rk e proprio ilsottospazio vettoriale generato dalle colonne della matrice associata. Concludiamo che anche il sot-tospazio di Rm generato dalle colonne della matriceA ha dimensione r, e che quindi le due dimensionicoincidono.

Page 14: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

14 ALGEBRA LINEARE I

9.3. Il teorema di Rouche-Capelli. Il teorema di Rouche-Capelli ci fornisce una condizione necessariae sufficiente affinche un sistema di equazioni lineari ammetta soluzioni. Il criterio e semplice.

Teorema 9.2. Il sistema di equazioni8>>>>><>>>>>:

a11x1 + · · ·+ a1nxn = b1

a21x1 + · · ·+ a2nxn = b2...am1x1 + · · ·+ amnxn = bm

ammette soluzioni esattamente quando i ranghi delle due matrici0BBB@a11 a12 . . . a1n

a21 a22 . . . a2n

...am1 am2 . . . amn

1CCCA0BBB@a11 a12 . . . a1n b1a21 a22 . . . a2n b2

...am1 am2 . . . amn bm

1CCCAcoincidono.

Dimostrazione. E’ bene ricordare che il rango di una matrice coincide con la dimensione dello spaziovettoriale generato dalle sue colonne. Si vede subito che il rango della seconda matrice e uguale aquello della prima quando la colonna dei termini noti e combinazione lineare delle altre, ed e inveceuno in piu del rango della prima quando non lo e . E’ sufficiente ora notare che le soluzioni del sistemadescrivono le maniere in cui la colonna dei termini noti si scrive come combinazione lineare delle altre.Infatti, α1, . . . , αn e una soluzione del sistema se

α1

0BBB@a11

a21

...am1

1CCCA + α2

0BBB@a12

a22

...am2

1CCCA + · · ·+ αn

0BBB@a1n

a2n

...amn

1CCCA =

[email protected]

1CCCA .

E’ chiaro che avremo un metodo veloce per controllare se un sistema abbia soluzioni non appenaavremo un modo rapido per calcolare il rango delle matrici.

10. PERMUTAZIONI.

Iniziamo introducendo il gruppo simmetrico Sn.

Definizione 10.1. Una permutazione (degli elementi) di un insieme X e un’applicazione invertibileσ : X → X .

Il modo piu intuitivo di pensare una permutazione e quello di visualizzare gli elementi dell’insiemeX allineati di fronte a noi. Una permutazione non e altro che un modo di rimescolare gli oggetti cheabbiamo davanti, e l’applicazione σ che la descrive associa a ciascun elemento diX quello che ha presoil suo posto originario. Chiaramente gli oggetti sono gli stessi di prima – e solamente cambiata la loroposizione – e l’applicazione σ e quindi invertibile. Una permutazione che scambi solo due elementi,lasciando gli altri inalterati, e detta trasposizione.

L’insieme delle permutazioni di un’insiemeX e un gruppo rispetto all’operazione di composizione.In effetti la composizione e associativa, e componendo applicazioni invertibili si ottengono applicazioniinvertibili – l’inversa di φ ◦ ψ e ψ−1 ◦ φ−1. L’elemento neutro e chiaramente l’applicazione identicaid : X → X , e l’inversa di un’applicazione invertibile e ancora, chiaramente, invertibile.

Il gruppo di tutte le permutazioni di un’insieme X si indica con SX , ed e un gruppo finito se Xe un insieme finito. E’ frequente abbreviare, e ci adegueremo a questa convenzione, S{1,2,...,n} inSn. Per individuare un elemento σ di Sn e necessario indicare quale sia l’immagine σ(i) di ciascuni = 1, 2, ..., n. Una notazione chiara, ma non molto compatta per fare questo, e quella di scrivere adesempio

σ =

8><>:1 → 2

2 → 3

3 → 1

Page 15: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

ALGEBRA LINEARE I 15

per l’applicazione σ : {1, 2, 3} → {1, 2, 3} tale che σ(1) = 2, σ(2) = 3, σ(3) = 1. La composizione dipermutazioni espresse secondo tale notazione non presenta alcuna difficolta.

Il gruppo Sn possiede n! elementi. Ogni permutazione e infatti determinata dalla successionedelle immagini σ(1), σ(2), ..., σ(n), che devono essere scelte, senza ripetizioni, tra i numeri 1, ..., n. Lepossibilita sono appunto n · (n− 1) · ... · 2 · 1 = n!.

L’ordine di Sn cresce molto rapidamente al crescere di n. Cresce inoltre anche la complessita dellasua struttura, come vedremo in seguito.

Esempio 1. I 3! = 6 elementi di S3 sono le permutazioni

id :

8><>:1 → 1

2 → 2

3 → 3

8><>:1 → 1

2 → 3

3 → 2

8><>:1 → 2

2 → 1

3 → 3

8><>:1 → 2

2 → 3

3 → 1

8><>:1 → 3

2 → 1

3 → 2

8><>:1 → 3

2 → 2

3 → 1

10.1. Parita di una permutazione. Ogni permutazione si puo esprimere18 come prodotto di traspo-sizioni (non disgiunte). Chiameremo una permutazione pari se il numero delle trasposizioni che laesprimono come prodotto e pari, e dispari altrimenti.

Questa definizione presenta in realta qualche problema: e possibile, in teoria, che riusciamo adesprimere una permutazione in modi diversi come prodotto di trasposizioni, e che la parita del numerodei fattori dipenda dalla particolare fattorizzazione. Questo non accade, ma per mostrarlo bisogna unpo’ sudare.

Definizione 10.2. Il segno sgn(σ) di una permutazione σ ∈ Sn e il risultato del rapportoQi<j(xσ(i) − xσ(j))Q

i<j(xi − xj).

Un commento sulla definizione: e chiaro come sia a numeratore che a denominatore ciascun fattorexi − xj compaia – a meno del segno – una ed una sola volta. I due polinomi che vengono divisidifferiscono quindi complessivamente per un segno, ed il risultato sgn(σ) puo essere soltanto 1 o −1.

Proposizione 10.1. Valgono le seguenti proprieta:• sgn(id) = 1;• sgn(τ) = −1, se τ e la trasposizione degli elementi 1 e 2;• sgn(τσ) = sgn(τ)sgn(σ).

Dimostrazione. Le prime due proprieta sono immediate. Per mostrare la terza, basta notare cheQi<j(xστ(i) − xστ(j))Q

i<j(xi − xj)=

Qi<j(xστ(i) − xστ(j))Q

i<j(xτ(i) − xτ(j))·

Qi<j(xτ(i) − xτ(j))Q

i<j(xi − xj).

Il secondo fattore nel secondo membro e sicuramente sgn(τ), mentre il primo lo diventa dopo averrinumerato le variabili xi. Ma questo non puo influire sul risultato, che e una costante. �

Corollario 10.2. Il segno di una permutazione coincide col segno della sua inversa.

Dimostrazione. Da 1 = sgn(id) = sgn(σσ−1) = sgn(σ)sgn(σ−1) segue che sgn(σ−1) = sgn(σ)−1.Ma l’inverso di ogni elemento in {±1} coincide con se stesso. �

Definizione 10.3. Una permutazione σ ∈ Sn si dice pari (rispettivamente dispari) se sgn(σ) = 1

(rispettivamente −1).

Lemma 10.3. Il segno di ogni trasposizione e −1.

Dimostrazione. Abbiamo gia verificato questo fatto per la trasposizione che scambia 1 con 2. Indichi-amo ora con τij la trasposizione degli elementi i e j. E’ chiaro che τ1j = τ2jτ12τ2j . Ma allora

sgn(τ1j) = sgn(τ2j)sgn(τ12)sgn(τ2j) = −sgn(τ2j)2.

Ma il segno di ogni permutazione vale ±1, e quindi il suo quadrato e sicuramente 1. Questo mostrache ogni trasposizione τ1j ha segno −1.

E’ sufficiente ora ripetere l’argomento nel caso di τij = τ1iτ1jτ1i. �

18Dimostratelo per esercizio.

Page 16: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

16 ALGEBRA LINEARE I

Questo mostra la correttezza della definizione inizialmente data della parita di una permutazione:se ogni trasposizione e dispari, la parita del prodotto di trasposizioni sara uguale al numero delletrasposizioni moltiplicate. E’ solo il caso di notare che la meta esatta degli elementi di Sn e pari,mentre l’altra meta e dispari.

11. DEFINIZIONE ASSIOMATICA DEL DETERMINANTE.

Per noi la funzione determinante e una applicazione det : Matn×n(R) → R, dalle matrici al campodegli scalari, che soddisfa le tre proprieta:

• det(id) = 1,• det e separatamente lineare nelle righe,• det e alternante per scambi di righe.

Solitamente, nel definire una funzione, diamo un’espressione esplicita che calcola il valore dati gliargomenti. Questo si puo fare anche per il determinante, per il quale un’espressione esplicita e datada:

(1) detA =X

σ∈Sn

sgn(σ)a1σ1a2σ2 ...anσn .

Tuttavia, questo non e strettamente necessario. Se ho un procedimento di calcolo che mi permette digiungere al valore della mia funzione, dati i suoi argomenti, questa e una definizione perfettamentelegittima della funzione.

Ricapitolando: ho spiegato a lezione per quale motivo mi aspetto che esista una funzione che sod-disfi le tre proprieta di sopra. In effetti questo e il comportamento che ci attendiamo dalla funzioneche calcola l’area del parallelogramma individuata da due vettori in R2 oppure il volume del paral-lelepipedo individuato da tre vettori in R3. Queste tre proprieta mi permettono di calcolare il valoredel determinante della matrice come segue: eseguo l’eliminazione di Gauss sulla matrice che mi vienedata. Ad ogni passaggio so come varia il valore del determinante: se ho scambiato due righe, il de-terminante cambia segno; se ho sommato ad una riga un multiplo di un’altra, il determinante rimaneinvariato. Al termine dell’eliminazione di Gauss possono accadere due cose: se le righe della matriceoriginaria erano linearmente dipendenti, la matrice conclusiva ha (almeno) una riga completamentenulla. In questo caso, per linearita, il valore del determinante e nullo.

Se invece le righe della matrice originaria erano linearmente indipendenti, otterro una matrice conesattamente n pivot. In tal caso il valore del determinante, sempre per linearita, e per la normaliz-zazione fornita sull’identita, e uguale al prodotto degli elementi sulla diagonale principale.

Poiche riusciamo a calcolare il valore della funzione det su qualsiasi matrice a partire solo dalle sueproprieta, ne concludiamo che c’e al piu una applicazione che abbia le tre proprieta riportate. Stiamodando una definizione assiomatica dei determinanti. Questo mostra l’unicita della funzione determinante,ma non la sua esistenza. L’esistenza si mostra, ad esempio, esibendo una funzione che abbia le nostretre proprieta. Questo e il motivo per il quale ho fornito anche l’espressione esplicita del determinantein (1).

Non utilizzero mai questa espressione per calcolare il determinante, perche e scomodissima. Peroe facile mostrare che soddisfa le tre proprieta. A lezione l’ho fatto in maniera un po’ confusa, quindiprovo a fare le cose per bene in questi appunti.

Lemma 11.1. La funzione definita dall’espressione (1) e lineare nelle righe della matrice argomento.

Dimostrazione. Siano A,A′, A′′ le matrici seguenti:

A =

0BBB@a′11 + a′′11 a′12 + a′′12 . . . a′1n + a′′1n

a21 a22 . . . a2n

......

...an1 an2 . . . ann

1CCCA ,

A′ =

0BBB@a′11 a′12 . . . a′1n

a21 a22 . . . a2n

......

...an1 an2 . . . ann

1CCCA , A′′ =

0BBB@a′′11 a′′12 . . . a′′1n

a21 a22 . . . a2n

......

...an1 an2 . . . ann

1CCCA .

Page 17: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

ALGEBRA LINEARE I 17

Dobbiamo mostrare che detA = detA′ + detA′′. Se utilizziamo la definizione data in (1), otteniamo

detA =X

σ∈Sn

sgn(σ)(a′1σ1+ a′′1σ1

)a2σ2 . . . anσn

=X

σ∈Sn

sgn(σ)a′1σ1a2σ2 . . . anσn +

Xσ∈Sn

sgn(σ)a′′1σ1a2σ2 . . . anσn

= detA′ + detA′′.

L’altra parte della linearita – cioe la motiplicazione per uno scalare – e persino piu semplice (fatela peresercizio). �

Lemma 11.2. La funzione definita dall’espressione (1) e alternante per scambio di righe.

Dimostrazione. Sia

A =

0BBB@a11 a12 . . . a1n

a21 a22 . . . a2n

......

...an1 an2 . . . ann

1CCCA ,

ed A′ = (a′ij) la matrice ottenuta da A scambiando la i.esima e la j.esima riga. In questa situazione siha che a′rs = ars se r 6= i, j, a′is = ajs, a

′js = ais. E’ immediato verificare che a′rs = aτr s, dove aon

τ ho indicato la trasposizione di i con j.Applicando la (1) abbiamo:

detA′ =X

σ∈Sn

sgn(σ)a′1σ1. . . a′nσn

=X

σ∈Sn

sgn(σ)aτ1σ1 . . . aτnσn

=X

σ∈Sn

sgn(σ)a1 (σ◦τ)1 . . . an (σ◦τ)n

=X

φ∈Sn

−sgn(φ)a1φ1 . . . anφn = − detA,

dove nell’ultimo passaggio abbiamo indicato con φ il prodotto σ◦τ , ed abbiamo sfruttato che sgn(φ) =

sgn(σ ◦ τ) = sgn(σ)sgn(τ) = −sgn(σ). �

Lemma 11.3. La funzione definita da (1) vale 1 sull’identita.

Dimostrazione. Se id = (aij) e la matrice identita, il prodotto a1σ1a2σ2 . . . anσn vale zero a meno cheσ non sia la permutazione identica. Di conseguenza det id = a11a22 . . . ann = 1. �

Abbiamo quindi dimostrato che

Proposizione 11.4. La funzione definita da (1) e il determinante della matrice A.

Una conseguenza importante di questo risultato e la seguente.

Corollario 11.5. detAt = detA

Dimostrazione. Innanzitutto, vi ricordo che At e la matrice le cui righe sono le colonne di A. In altreparole se A = (aij), allora At = (aji).

La dimostrazione e semplice: sappiamo che detAt =P

σ∈Snsgn(σ)aσ1 1aσ2 2 . . . aσn n. E’ im-

portante notare che in ognuno dei fattori del prodotto aσ1 1aσ2 2 . . . aσn n il secondo indice si ottieneapplicando al primo la permutazione σ−1. Quindi possiamo scrivere

detAt =X

σ∈Sn

sgn(σ)aσ11 aσ22 . . . aσnn =X

σ∈Sn

sgn(σ)a1σ−1

1a2σ−1

2. . . a

nσ−1n.

Se a questo punto scriviamo τ = σ−1 e ricordiamo che sgn(σ−1) = sgn(σ), otteniamo l’espressioneper detA. �

Page 18: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

18 ALGEBRA LINEARE I

Poiche la trasposta di una matrice A ha per colonne le righe della matrice A, da questo segueche ogni affermazione che leghi il determinante di una matrice a proprieta delle sue colonne lo legaanche alla stessa proprieta delle sue righe. Ad esempio, dal momento che il determinante di unamatrice e zero se e solo se le sue righe sono linearmente dipendenti, sappiamo anche che questo accadese e solo se anche le sue colonne sono linearmente dipendenti. Sappiamo anche, senza bisogno diulteriori dimostrazioni, che la funzione determinante e separatamente lineare ed alternante ANCHEcome funzione delle colonne della matrice argomento.

Un’altra proprieta dei determinanti che a lezione vi ho chiesto di dimostrare per esercizio e chedetAB = detAdetB. Il suggerimento che vi ho dato era di far vedere che se detB 6= 0, allora lafunzione A 7→ det(AB)/ detB ha le stesse proprieta di linearita ed alternanza della funzione deter-minante, ed il suo valore sull’identita e 1. Ho dimenticato pero di raccontarvi perche una relazionedel genere dovesse essere vera. In effetti, applicando l’applicazione lineare di matrice A al quadratounitario in R2 si ottiene un parallelogramma che ha per lati le colonne della matrice A, e la cui areae quindi pari a detA. Lo stesso accade per ogni traslato del quadrato unitario. Come conseguenza,ogni quadrato (anche di lato non unitario) viene mandato dall’applicazione lineare di matrice A in unquadrato la cui area e detA volte quella del quadrato originario. Questo fatto e vero anche per altreregioni del piano, anche se non quadrate?

In effetti sı. Per convincersene, basta suddividere la regione del piano alla quale siamo interessatiin tanti quadratini (al diminuire del lato dei quadrati otterremo approssimazioni sempre migliori).L’applicazione lineare di matrice A associera a questi quadratini tanti parallelogrammi che ricopronola regione immagine. Dal momento che l’area complessiva dei parallelogrammi e detA volte quelladei quadrati, un passaggio al limite permette di concludere che l’area della regione immagine si ottieneda quella della regione originaria moltiplicando per detA19. Il succo di quello che abbiamo detto e chel’azione di un’applicazione lineare moltiplica le aree per il determinante della sua matrice. Ma allorala composizione di due applicazioni lineari moltiplichera le aree per il prodotto dei determinanti dellematrici associate alle singole applicazioni...

Per concludere con det(AB) = detAdetB, a lezione non vi ho detto che succede se detB e nullo.In quel caso, le colonne della matrice B sono linearmente dipendenti, e quindi l’applicazione lineareassociata non iniettiva. Ma allora anche AB rappresenta un’applicazione lineare non iniettiva: infatti,tutto cio che B manda a zero viene mandato a zero anche da AB. Se AB non e iniettiva, allora lesue colonne sono linearmente dipendenti, e detAB = 0. Quindi detAB = detAdetB e vera anchequando detB = 0. Se un giorno vi sentite perversamente masochisti, provate a dimostrare detAB =

detAdetB utilizzando direttamente l’espressione (1).

12. LO SVILUPPO DI LAPLACE.

Un’altro sistema per calcolare il determinante di una matrice e quello di utilizzare lo sviluppo diLaplace, che permette di calcolare determinanti (n + 1) × (n + 1) una volta che si sappiamo calcolaredeterminanti n × n. Il sistema e questo: si sceglie una colonna (ad esempio la j.esima), e si calcolal’espressione

(2)nX

i=1

(−1)i+jaijAij ,

dove Aij e il cosiddetto complemento algebrico: e il determinante della matrice n × n che si ottiene daA cancellando l’i.esima riga e la j.esima colonna. Per far vedere che l’espressione (2) calcola effettiva-mente il determinante della matrice A, abbiamo mostrato a lezione che questa espressione verifica letre proprieta caratterizzanti del determinante che abbiamo dato. Il fatto che faccia uno se calcolata sul-l’identita e una sciocchezza. La linearita rispetto alle righe l’abbiamo fatta vedere (convincentemente) alezione. Mancava solo l’alternanza, che avevo mostrato, con un po’ di confusione, nel caso di scambiodella prima riga con la seconda.

Lemma 12.1. L’espressione in (2) e alternante per scambio di righe nella matrice A.

Dimostrazione. Lo faccio vedere soltanto per scambio di righe adiacenti, dal momento che ogni traspo-sizione si ottiene come composizione di (un numero dispari di) trasposizioni di elementi adiacenti.

Sia A′ = (a′ij) la matrice che si ottiene da A scambiando la r.esima e la r + 1.esima riga. Sei 6= r, r + 1, allora l’espressione a′ijA

′ij e uguale ad −aijAij : in effetti a′ij = aij perche lo scambio

19In effetti c’e qualche problema in quello che ho detto. I dettagli si possono sistemare, comunque, se le regioni di cui parliamo sonomisurabili.

Page 19: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

ALGEBRA LINEARE I 19

di righe non tocca la i.esima riga, mentre A′ij = −Aij perche il complemento algebrico della matrice

A′ si ottiene dall’altro scambiando due righe, e cambia quindi segno. Entrambe le espressioni sonomoltiplicate in (2) per (−1)i+j , e quindi questi addendi cambiano segno passando da detA a detA′.

Per quanto riguarda invece il contributo della r.esima e della r + 1.esima riga, bisogna essere piuprecisi: in effetti, a′rj = ar+1,j ed anche A′

rj = Ar+1,j (perche?). Allo stesso modo a′r+1,j = arj eA′

r+1,j = Arj . Ma allora,

(−1)r+ja′rjA′rj + (−1)r+1+ja′r+1,jA

′r+1,j

=(−1)r+1+jarjArj + (−1)r+jar+1,jAr+1,j

=− ((−1)r+jarjArj + (−1)r+1+jar+1,jAr+1,j).

Questo termina la dimostrazione di detA′ = − detA. �

Come esercizio su quello che sappiamo dei determinanti, vi mostro come calcolare il determinantedi Vandermonde, e cioe il determinante della matrice

(3)

0BBBBBB@1 1 . . . 1

a0 a1 . . . an

(a0)2 (a1)2 . . . (an)2

... . . ....

(a0)n (a1)n . . . (an)n

1CCCCCCA .

Nulla di piu facile. Sottraiamo dall’ultima riga a0 volte la penultima, dalla penultima a0 la terz’ultimae cosı via. La matrice cosı ottenuta avra chiaramente lo stesso determinante della matrice di partenza.Ma tramite queste manipolazioni avremo ottenuto la matrice0BBBBBBBB@

1 1 . . . 1

0 a1 − a0 . . . an − a0

0 (a1)2 − a0a1 . . . (an)2 − a0an

0 (a1)3 − a0(a1)2 . . . (an)3 − a0(an)2

... . . ....

0 (a1)n − a0(a1)n−1 . . . (an)n − a0(an)n−1

1CCCCCCCCA,

che possiamo riscrivere come0BBBBBBBB@

1 1 . . . 1

0 (a1 − a0) . . . (an − a0)0 (a1 − a0) · a1 . . . (an − a0) · an

0 (a1 − a0) · (a1)2 . . . (an − a0) · (an)2

... . . ....

0 (a1 − a0) · (a1)n−1 . . . (an − a0) · (an)n−1

1CCCCCCCCA.

A questo punto puo valere la pena di sviluppare col metodo di Laplace secondo la prima colonna.Otteniamo che il determinante di Vandermonde della matrice (3) di ordine n + 1 e (a1 − a0) · (a2 −a0) · ... · (an − a0) volte il determinante di Vandermonde della matrice0BBBBBB@

1 1 . . . 1

a1 a2 . . . an

(a1)2 (a2)2 . . . (an)2

... . . ....

(a1)n−1 (a2)n−1 . . . (an)n−1

1CCCCCCA .

Ripetendo il ragionamento, si concludera che il determinante della matrice di partenza e il prodotto ditutti i fattori (ai − aj), i > j presi ognuno una ed una sola volta.

E’ importante osservare che, dal momento che il determinante di una matrice e uguale a quellodella sua trasposta, lo sviluppo di Laplace si potra eseguire anche rispetto ad una riga, invece che aduna colonna.

Page 20: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

20 ALGEBRA LINEARE I

13. IL METODO DI CRAMER.

Possiamo talvolta evitare i controlli del teorema di Rouche-Capelli, ad esempio quando il rangodella matrice dei coefficienti dei primi membri e uguale al numero delle righe, cioe delle equazioni.Poiche il rango della seconda matrice non potra essere superiore al numero delle righe, il sistema saranecessariamente compatibile.

Il caso piu eclatante di questo fenomeno si ha per i sistemi quadrati, queli cioe per i quali il nu-mero delle equazioni e pari al numero delle incognite. Se le colonne della matrice dei coefficienti sonolinearmente indipendenti, allora le condizioni del teorema di Rouche-Capelli sono automaticamentesoddisfatte. In questo caso pero, oltre all’esistenza delle soluzioni, abbiamo anche l’unicita. Infatti,un’applicazione lineare da Rn a Rn e iniettiva se e solo se e suriettiva.

Il metodo di Cramer ci fornisce una descrizione esplicita della soluzione unica che abbiamo:

Teorema 13.1. Sia A la matrice 0BBB@a11 a12 . . . a1n

a21 a22 . . . a2n

...an1 an2 . . . ann

1CCCA .

Allora, se detA 6= 0, l’unica soluzione del sistema di equazioni lineari:8>>>>><>>>>>:

a11x1 + · · ·+ a1nxn = b1

a21x1 + · · ·+ a2nxn = b2...am1x1 + · · ·+ amnxn = bm

e data da:

x1 =

0BBB@b1 a12 . . . a1n

b2 a22 . . . a2n

...bn an2 . . . ann

1CCCAdetA

, x2 =

0BBB@a11 b1 . . . a1n

a21 b2 . . . a2n

...an1 bn . . . ann

1CCCAdetA

, . . . , xn =

0BBB@a11 a12 . . . b1a21 a22 . . . b2

...an1 an2 . . . bn

1CCCAdetA

.

Dimostrazione. Sia α1, . . . , αn la soluzione del sistema. Questo vuol dire che:[email protected]

1CCCA = α1

0BBB@a11

a21

...am1

1CCCA + α2

0BBB@a12

a22

...am2

1CCCA + · · ·+ αn

0BBB@a1n

a2n

...amn

1CCCA .

Possiamo allora calcolare i determinanti a numeratore sottraendo alla colonna dei termininoti la som-ma delle colonne, nella combinazione lineare appena scritta, diverse dalla prima, seconda, . . . , n-esimarispettivamente. Questa manipolazione non cambia il valore del determinante, ma lo rende manifesta-mente uguale ad αi volte detA. Pertanto la formula di Cramer fornisce il risultato desiderato:

xi =αi detA

detA= αi.

14. RANGO E DETERMINANTI.

Abbiamo visto come in una matrice quadrata le colonne sono linearmente indipendenti se e solo sele righe sono linearmente indipendenti se e solo se il determinante della matrice non e nullo. Questo eun caso particolare di un fenomeno piu generale, che ho mostrato a lezione. In generale

Teorema 14.1. Il rango di una matrice e uguale all’ordine del piu grande minore non nullo.

Invece di dimostrare questo risultato, ne ho dimostrato uno piu preciso:

Teorema 14.2 (dell’orlato). Se una matrice possiede un minore r×r non nullo, e tutti i minori (r+1)×(r+1)che lo contengono sono nulli, allora il rango della matrice e r.

Page 21: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

ALGEBRA LINEARE I 21

Se il Teorema 14.2 e vero, il Teorema 14.1 segue immediatamente: sia infatti r l’ordine del piugrande minore non nullo. Tutti i minori (r + 1) × (r + 1) che lo contengono saranno nulli, in quantotutti i minori di ordine maggiore di r sono nulli. Ma allora il rango della matrice e proprio r, grazie alTeorema 14.2. La proposizione e piu precisa perche ci permette di stabilire la nullita di tutti i minori diun dato ordine controllandone solo alcuni (in generale molti meno!).

Passiamo alla dimostrazione che ho dato a lezione.

Dimostrazione del Teorema 14.2: Spezzo la dimostrazione in tanti passi elementari, che ci danno infor-mazioni sempre piu precise dimostrando l’enunciato in casi sempre piu generali. Si utilizza in piupunti che il rango di una matrice e uguale sia alla dimensione del sottospazio generato dalle righe chea quella del sottospazio generato dalle colonne.

(1) Se una matrice r × r ha determinante non nullo, le sue righe e le sue colonne sono linear-mente indipendenti. Questo lo sapevamo gia, e dipende dalle proprieta del determinante.

(2) Se una matrice r × n, con n ≥ r + 1 ha un minore r × r non nullo, allora le colonne fuoridal minore sono combinazione lineare delle altre. Semplice: le r colonne che passano per ilminore sono linearmente indipendenti, e costituiscono quindi una base di Rr . Ma allora ognialtra colonna e loro combinazione lineare.

(3) Se una matrice r × n, con n ≥ r + 1, ha un minore r × r non nullo, allora le righe sono lin-earmente indipendenti. Applicando il punto precedente, si ottiene che il rango della matricee r e quindi le r righe devono essere linearmente indipendenti.

(4) Se una matrice m× r, con m ≥ r + 1, ha un minore r × r non nullo, allora le colonne sonolinearmente indipendenti. Basta applicare il punto precedente alla trasposta della matrice.

(5) Se una matrice (r + 1) × (r + 1) di determinante nullo ha un minore r × r non nullo,allora la riga fuori dal minore e combinazione lineare delle altre, che sono linearmenteindipendenti. Le r righe che passano per il minore r× r sono linearmente indipendenti per ilpunto precedente. Se l’r+1.esima riga non appartenesse al sottospazio di Rr+1 generato dallealtre r righe, allora genererebbe insieme a queste ultime un sottospazio di dimensione r + 1,cioe tutto Rr+1. Ma sappiamo che le r+ 1 righe sono invece linearmente dipendenti perche ildeterminante della matrice e zero. Quindi la riga non passante per il minore e combinazionelineare delle altre.

(6) Se una matrice m× (r + 1), con m > r + 1, ha un minore r × r non nullo, ma tutti i minori(r + 1) × (r + 1) che lo orlano nulli, allora ogni riga fuori dal minore e combinazione lin-eare di quelle che passano per il minore, che sono linearmente indipendenti. Basta ripeterel’argomento precedente alle sottomatrici (r + 1)× (r + 1).

(7) Se una matrice m× (r + 1), con m > r + 1, ha un minore r × r non nullo, ma tutti i minori(r+1)×(r+1) che lo orlano nulli, allora la colonna fuori dal minore e combinazione linearedi quelle che passano per il minore, che sono linearmente indipendenti. Per il punto 4 le rcolonne che passano per il minore sono linearmente indipendenti. Per il punto precedente, ilrango della matrice e r.

(8) Se una matricem×n, conm,n > r+1, ha un minore r× r non nullo, ma tutti i minori (r+1)× (r+1) che lo orlano nulli, allora ogni colonna fuori dal minore e combinazione linearedi quelle che passano per il minore, che sono linearmente indipendenti. Basta applicare ilpunto precedente alle sottomatrici m× (r + 1).

(9) Se una matrice ha un minore r × r non nullo, ma tutti i minori (r + 1) × (r + 1) che loorlano nulli, allora il rango della matrice e r. Se la matrice non ha minori (r + 1) × (r + 1),l’enunciato segue dal punto 1 per matrici r × r e dal punto 2, applicato alla matrice o alla suatrasposta, per matrici rettangolari. Per le altre segue dai punti 5, 6, 8.

Esercitatevi un po’ su problemi di questo tipo. Vi ho fatto anche vedere come risolvere in generaleun sistema di equazioni lineari, utilizzando i determinanti. I passi fondamentali sono:

• Applicate il teorema di Rouche-Capelli, calcolando i ranghi delle due matrici – quella deicoefficienti e quella dei coefficienti allargata inserendo come ultima colonna la colonna deitermini noti. Se i due ranghi sono uguali, andate avanti. Se sono diversi, non ho soluzione.

• Nel corso del primo passo, avete trovato un minore di determinante non nullo di ordine mas-simo. Ignorate le equazioni non contenute nel minore, e spostate a secondo membro tutte leincognite non contenute nel minore, che considererete parametri.

Page 22: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

22 ALGEBRA LINEARE I

• Risolvete il sistema quadrato cosı ottenuto col metodo preferito (se non e troppo grande,Cramer e una garanzia...). In questo modo avrete ottenuto tutte le soluzioni.

15. PRODOTTO VETTORIALE E PRODOTTO MISTO.

Non abbiamo ancora detto molto. La cosa piu importante che ho spiegato e la definizione: ilprodotto vettoriale v × w di due vettori v = (b1, b2, b3) e w = (c1, c2, c3) e dato da20 :

det

0@ i j k

b1 b2 b3c1 c2 c3

1A ,

dove per i, j,k intendo i vettori (1, 0, 0), (0, 1, 0) e (0, 0, 1) di R3.Definito cosı il prodotto vettoriale v×w, il prodotto misto di tre vettori u, v e w sara u · (v×w). Se

u = (a1, a2, a3) e v w w sono come prima, il prodotto misto u · (v × w) sara:

det

0@a1 a2 a3

b1 b2 b3c1 c2 c3

1A .

Dal momento che una matrice con due righe uguali ha sempre determinante nullo, ne deduciamo chev · (v×w) = w · (v×w) = 0. Percio il vettore v×w e ortogonale sia a v che a w. La seconda proprietadel prodotto vettoriale e che la lunghezza di v × w e uguale all’area del parallelogramma di lati v e w.Per far vedere questo, dimostro prima l’identita:

(4) |v × w|2 + (v · w)2 = |v|2|w|2.

La dimostrazione e vagamente tediosa, ma immediata. Se v e w sono come prima, abbiamo: v · w =b1c1 + b2c2 + b3c3, |v|2 = b21 + b22 + b23, |w|2 = c21 + c22 + c23. Inoltre v × w = (b2c3 − c2b3, c1b3 −b1c3, b1c2 − c1b2). Sostituiamo tutto in (4). Il primo membro diventa:

(b2c3 − c2b3)2 + (c1b3 − b1c3)2 + (b1c2 − c1b2)2 + (b1c1 + b2c2 + b3c3)2,

mentre il secondo e(b21 + b22 + b23)(c21 + c22 + c23).

Basta sviluppare i quadrati nella prima espressione per ottenere esattamente la seconda. Questa iden-tita mi permette di concludere che la lunghezza di v × w e esattamente l’area del parallelogramma dilati v ew. Infatti, poiche v ·w = |v||w| cos θ, dove θ e l’angolo tra v ew, sostituendo nella (4) otteniamoche |v × w| = |v||w| sin θ. Il prodotto dei lati di un parallelogramma per il seno dell’angolo compresotra i due lati e esattamente uguale all’area del parallelogramma. Sempre per esercizio fate vedere aquesto punto che il prodotto misto di tre vettori, e cioe il determinante della matrice che li ha per righe,rappresenta il volume del parallelepipedo individuato dai tre vettori: a lezione l’ho spiegato agitandole mani, ma se ve ne convincete riflettendoci, e meglio.

Vi riassumo brevemente le proprieta interessanti del prodotto vettoriale:

• a× (b+ b′) = a× b+ a× b′,• (a+ a′)× b = a× b+ a′ × b,• a× (λb) = λ(a× b) = (λa)× b,• a× b = −b× a,• a · (b× c) = (a× b) · c,• a× (b× c) = (a · c)b− (a · b)c.

Dell’ultima di queste non abbiamo ancora dato la motivazione – ho provato a lezione, ma senzariscuotere grande successo. Riassumo qui quello che ho detto.

Innanzitutto, se a e perpendicolare sia a b che a c, entrambi i membri si annullano, e non c’e nullada dimostrare. Lo stesso accade se b e c sono linearmente dipendenti, e possiamo quindi supporre chenon lo siano. Ma allora a × (b × c) e ortogonale a b × c, e giace quindi nel piano generato da b e c.Sappiamo quindi che e una combinazione lineare del tipo

a× (b× c) = βb+ γc.

20Il determinante che segue, ovviamente, non ha alcun senso: alcuni dei suoi coefficienti non sono numeri ma vettori! In ogni casocome regola mnemonica funziona piu che bene...

Page 23: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

ALGEBRA LINEARE I 23

Per avere informazioni piu precise sui coefficienti β e γ, notiamo che, grazie alle proprieta elencateprima, abbiamo

0 = (a× a) · (b× c) = a · (a× (b× c)) = β(a · b) + γ(a · c) =

˛a · c β

−(a · b) γ

˛.

Possiamo concludere che (β, γ) e un multiplo di (a · c,−a · b) e quindi che a × (b × c) e un multiplodi (a · c)b − (a · b)c. Questo non dimostra esattamente l’ultima delle proprieta che ho elencato, ma civa molto vicino. Per dimostrarla completamente, si fanno i conti (fatelo per esercizio: e semplice manoioso). Vale la pena di notare che quanto appena detto e compatibile con

|b× c|2 = (b× c) · (b× c) = b · (c× (b× c)) = b · ((c · c)b− (c · b)c) = |b|2|c|2 − (b · c)2,

che abbiamo mostrato precedentemente.Ricapitolando, il prodotto vettoriale di elementi di R3 ci permette di ottenere rapidamente un vet-

tore perpendicolare agli argomenti, la cui lunghezza coincide con l’area del parallelogramma individ-uato dagli argomenti. Nel caso in cui servano queste informazioni, abbiamo trovato un metodo veloceper calcolarle.

16. APPLICAZIONI GEOMETRICHE.

Abbiamo sviluppato il macchinario dell’algebra lineare per riuscire a descrivere gli spazi lineari,cioe gli oggetti geometrici diritti. Nel piano e nello spazio, questi sono punti, rette e piani, con i qualiabbiamo sempre descritto i fenomeni geometrici che ci sono familiari.

Il nostro compito attuale e quello di capire quali siano le descrizioni che siamo in grado di fornire diquesti spazi, e come utilizzare queste descrizioni per ricavare informazioni geometriche. In altre parole,vogliamo dare un nome ai nostri oggetti geometrici, e ricavare informazioni dal nome che abbiamoassegnato. Per non cadere nell’esoterismo piu spinto, inizio subito a spiegare quali siano gli oggettigeometrici, e che tipo di nomi siamo in grado di assegnare.

16.1. Spazi e sottospazi affini. Gli spazi geometrici che meglio conosciamo, e che abbiamo trattatofinora, sono gli spazi vettoriali. Chiamiamo rette quelli di dimensione uno, piani quelli di dimensionedue, ed indichiamo con la loro dimensione – in mancanza di terminologia migliore – gli altri. Abbiamovisto che i sottospazi vettoriali di R2 ed R3 corrispondono a rette e piani per l’origine; tuttavia hannointeresse geometrico anche rette e piani che non passano per l’origine.

In realta, con R3, abbiamo indicato all’inizio dell’anno l’insieme delle traslazioni dello spazio tridi-mensionale piuttosto che quello dei suoi punti21. In questo contesto + e l’operazione di composizionedelle traslazioni, ed abbiamo verificato che definiva, assieme al prodotto per scalare, una struttura dispazio vettoriale sull’insieme di tutte le traslazioni. Abbiamo anche notato che una traslazione eradeterminata una volta che fosse noto l’effetto su un qualche punto P . Ad esempio, esiste un’unicatraslazione che manda il puntoP in un altro puntoQ, e la notazione che abbiamo utilizzato rappresentaquesta traslazione con la freccia che unisce P con Q.

Qual e la corrispondenza che lega un piano per l’origine nello spazio tridimensionale con gli insiemidi traslazioni? Sia π un piano per l’origine. Tra tutte le traslazioni che posso effettuare sullo spaziotridimensionale, prendiamo soltanto quelle che mandano i punti di π in altri punti di π. In altre parole,consideriamo tutte le traslazioni dello spazio tridimensionale che conservano π. Se indichiamo questetraslazioni per mezzo di frecce centrate nell’origine, otterremo tutte e sole le frecce che arrivano inpunti del piano π. La particolare rappresentazione geometrica che abbiamo utilizzato fa corrisponderei punti del piano con le traslazioni che lo conservano.

Facciamo la stessa cosa con un piano che non passi per l’origine, prendendo un piano π′ paralleloa π. Quali sono le traslazioni dello spazio tridimensionale che conservano π′? Sono ovviamente lestesse di prima. In altre parole, anche se π′ non passa per l’origine, l’insieme delle traslazioni che loconservano, cioe che operano su di esso, sono uno spazio vettoriale, ed esattamente quello che abbiamoidentificato con il suo traslato π per l’origine.

Uno spazio affine e un insieme le cui traslazioni hanno la struttura di spazio vettoriale. I sottospaziaffini di Rn sono, per quanto detto prima, tutti e soli quelli che si ottengono traslandone i sottospazivettoriali. Se un sottospazio affine di Rn contiene lo 0, allora e un sottospazio vettoriale. Esistono delledefinizioni piu intrinseche di queste nozioni, ma rischiano di farci perdere la comprensione intuitivadi quello che sta succedendo.

21Si sta diffondendo l’uso di “piuttosto che”nel senso di “come anche”. Per me continua ad avere significato avversativo...

Page 24: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

24 ALGEBRA LINEARE I

La nostra interpretazione delle cose e la seguente: ad ogni punto di uno spazio vettoriale (ad esem-pio R3) sappiamo associare il vettore (la freccia) che lo congiunge con l’origine. Sappiamo eseguire leoperazioni di somma e prodotto sulle frecce (che rappresentano traslazioni, che sappiamo sommare,cioe comporre) e non sui i punti. Se i nostri punti appartengono ad un sottospazio vettoriale, la sommadei corrispondenti vettori congiunge l’origine ad un altro punto del sottospazio vettoriale. Se invece inostri punti appartengono ad un sottospazio affine, questo non accade, perche lo spazio vettoriale delletraslazioni soggiacente non unisce i nostri punti all’origine, ma ad altri punti del sottospazio affine.Quindi, sommando vettori che traslano punti del sottospazio affine in altri punti del sottospazio affine,otterremo come risultato un vettore che fa la stessa cosa. E’ piu semplice fare un disegno che spiegarlo,ma visto che disegno male, sono costretto a raccontarlo a parole.

In conclusione, un sottospazio affine dello spazio n-dimensionale e un sottoinsieme π per il qualei vettori che cominciano e finiscono su π formano un sottospazio vettoriale dello spazio vettorialeRn di tutte le traslazioni dello spazio n-dimensionale. I sottospazi affini si ottengono tutti traslandosottospazi affini che passano per l’origine, che spesso abbiamo identificato con i sottospazi vettorialidi Rn. Gli oggetti geometrici che vogliamo poter descrivere sono esattamente i sottospazi affini dellospazio n-dimensionale, e cioe i traslati dei sottospazi vettoriali di Rn.

16.2. Equazioni parametriche di sottospazi vettoriali ed affini. Degli spazi vettoriali abbiamo giaimparato a descrivere gli elementi in maniera compatta ed irridondante. Se v1, . . . , vn e una base diV , allora la combinazione lineare α1v1 + · · · + αnvn descrive, al variare di α1, . . . , αn ∈ R, tutti glielementi di V una ed una sola volta. Abbiamo fornito una parametrizzazione lineare degli elementi diV .

Sono in principio possibili altre parametrizzazioni, che dipendono dai parametri in maniera nonlineare (o addirittura nemmeno continua), ma queste non sono interessanti dal nostro punto di vista,perche nascondono la natura lineare dei nostri spazi geometrici.

La parametrizzazione di uno sottospazio affine π′ di Rn avviene in modo simile. Sappiamo chel’insieme delle traslazioni che conservano π sono uno sottospazio vettoriale π di Rn, del quale sap-piamo dare una parametrizzazione scegliendo una base. I punti di π′ si otterranno scegliendoneun punto qualsiasi P = (p1, p2, . . . , pn), ed applicando a questo punto le traslazioni di π. Se unaparametrizzazione di π e data da:

α1v1 + · · ·+ αrvr,

una parametrizzazione di π′ sara data da

P + α1v1 + · · ·+ αrvr.

Ad esempio, una tipica parametrizzazione di un piano nello spazio tridimensionale e data da:8><>:x = 2 +3t +2s

y = 1 −2t +s

z = −5 +t −3s

che indica come il nostro piano si ottenga dal punto P di coordinate P ≡ (2, 1, 5) muovendolo permezzo delle traslazioni generate da v1 = (3,−2, 1) e v2 = (2, 1,−3), cioe dalle loro combinazionilineari. La parametrizzazione si puo scrivere anche come

(x, y, z) = P + tv1 + sv2,

che ne svela meglio la natura lineare.Se siamo interessati a descrivere la geometria del piano e dello spazio, ci limitiamo soltanto allo

studio di rette e piani. Per ricapitolare, una retta in R2 ha rappresentazione parametrica del tipo(x = x0 + at

y = y0 + bt

dove P = (x0, y0) e un punto appartenente alla retta, e v = (a, b) un vettore parallelo alla retta; allostesso modo, una retta in R3 e descritta da8><>:

x = x0 + at

y = y0 + bt

z = z0 + ct

dove P = (x0, y0, z0) e il punto sulla retta, e v = (a, b, c) il vettore parallelo (anche detto vettoredirettore).

Page 25: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

ALGEBRA LINEARE I 25

Un piano in R3 e invece dato da

8><>:x = x0 + at+ a′s

y = y0 + bt+ b′s

z = z0 + ct+ c′s

dove ancoraP = (x0, y0, z0) e un punto del piano, ed i vettori (a, b, c), (a′, b′, c′) sono i vettori direttoridel piano, ovvero vettori linearmente indipendenti paralleli al piano.

Notiamo che per una retta abbiamo bisogno di un parametro, mentre per un piano di due, cosache testimonia il fatto che una retta ha dimensione uno, mentre un piano ha dimensione due. In gen-erale, un sottospazio affine di dimensione r avra espressione parametrica che utilizza linearmente rparametri, ed r vettori direttori linearmente indipendenti.

16.3. Equazioni cartesiane di sottospazi vettoriali ed affini. Un’altra maniera di individuare un sot-tospazio vettoriale o affine e quella di fornire delle relazioni soddisfatte esclusivamente dalle coordi-nate dei punti che appartengono al sottospazio. Ad esempio, i soli punti P ≡ (x, y) del piano chesoddisfano l’equazione x− y = 0 sono quelli della forma (t, t), t ∈ R, che costituiscono un sottospaziovettoriale di dimensione 1, e cioe una retta per l’origine. Anche in questo caso conviene limitarsi adequazioni di primo grado, perche equazioni di altra forma nasconderebbero la natura lineare deglioggetti che vogliamo descrivere.

In generale, le equazioni necessarie ad individuare un sottospazio affine saranno piu di una. Adesempio un’equazione (di primo grado) che lega le coordinate di un punto nello spazio tridimensionaleindividua (ne abbiamo gia parlato) un piano in R3. Se vogliamo descrivere una retta, un’equazione nonpuo bastare. Possiamo pero individuare una retta intersecando due piani, dando due equazioni.

Che tipo di insieme si ottenga prendendo le soluzioni comuni di un sistema di equazioni linearie stato l’argomento principale delle lezioni passate. A volte non ci sono soluzioni, ed allora le nostreequazioni cartesiane non descrivono nulla (descrivono l’insieme vuoto, il che non e che ci interes-si granche...). A volte il sistema possiede invece soluzioni, ed abbiamo mostrato qualche tempo fache queste soluzioni si ottengono sempre sommando ad una qualche soluzione comunque scelta (lasoluzione particolare) le soluzioni dell’equazione omogenea corrispondente.

Questo suona familiare. I primi membri delle equazioni cartesiane date descrivono un’applicazionelineare tra Rm ed Rn. Se i termini noti sono tutti uguali a zero, le soluzioni delle equazioni cartesianesono gli elementi del nucleo dell’applicazione lineare, e le equazioni descrivono quindi un sottospaziovettoriale. Se invece i termini noti non sono tutti uguali a zero, le soluzioni si ottengono traslandouna soluzione particolare per mezzo delle traslazioni contenute nel nucleo. Un insieme di equazionicartesiane individua quindi sempre un sottospazio affine di Rn.

Puo essere comodo trovare un modo per passare dalle equazioni cartesiane ad una rappresen-tazione parametrica. Questo modo e dato dalla risoluzione del sistema, che abbiamo ottenuto insvariati modi (eliminazione di Gauss, Rouche-Capelli seguito da Cramer, ecc. . . ). In effetti, ciascunmetodo di risoluzione fornisce soluzioni come espressione lineare in un numero di parametri parialla dimensione del sottospazio affine individuato. Da questo punto di vista, passare da equazionicartesiane a parametriche e un gioco da ragazzi.

Non e ancora tuttavia evidente se ogni sottospazio affine possieda equazioni cartesiane. La rispostae ovviamente sı, e dipende dal fatto che e facile passare anche da un’espressione parametrica allecorrispondenti equazioni cartesiane.

Ad esempio, le coordinate dei punti di un sottospazio affine π espresso parametricamente da:8>>>><>>>>:x1 = a1 + v11t1 + · · ·+ vr

1tr

x2 = a2 + v12t1 + · · ·+ vr2tr

. . .

xn = an + v1nt1 + · · ·+ vrntr

sono tali che (x1 − a1, x2 − a2, . . . , xn − an) e combinazione lineare degli r vettori linearmenteindipendenti

vi = (vi1, . . . , v

in).

Page 26: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

26 ALGEBRA LINEARE I

Ma allora (x1, x2, . . . , xn) e un punto dello sottospazio affine π se e solo se

rg

0BBBBBB@x1 − a1 x2 − a2 . . . xn − an

v11 v12 . . . v1nv21 v22 . . . v2n...vr1 vr

2 . . . vrn

1CCCCCCA = r.

Abbiamo imparato a calcolare il rango per mezzo dei determinanti. Il teorema dell’orlato ci dice che lacondizione affinche il rango della matrice sia r e fornito dall’annullarsi degli n−rminori (r+1)×(r+1)che orlano uno dei minori r × r non nulli. Ciascuno di questi minori da origine ad un’equazione diprimo grado in x1, . . . xn, ed ottieniamo quindi un sistema di n−r equazioni lineari, che costituisconole equazioni cartesiane di π.

Vale soltanto la pena di accennare al fatto che ne le equazioni cartesiane, ne la rappresentazioneparametrica di un sottospazio affine sono uniche. I metodi descritti esibiscono una particolare rappre-sentazione parametrica ed una particolare equazione cartesiana, non l’unica a disposizione.

16.4. Equazioni cartesiane ed ortogonalita. Prima di concludere, un breve commento su un’infor-mazione che e facile estrarre dalle equazioni cartesiane di un sottospazio affine di Rn. Inizio con unesempio, che e pero tipico.

L’equazione cartesiana di un piano in R3 e del tipo

ax+ by + cz + d = 0.

Se il piano passa per l’origine, d = 0. In questo caso, l’equazione si puo scrivere anche come

(a, b, c) · (x, y, z) = 0,

ed e evidente come le soluzioni di tale equazione siano i punti la cui congiungente all’origine e per-pendicolare al vettore (a, b, c). Il piano di equazione cartesiana ax + by + cz = 0 e quindi il pianoper l’origine perpendicolare al vettore (a, b, c). In questo caso l’equazione cartesiana mi fornisce unadescrizione geometrica immediata del sottospazio affine (anzi, vettoriale) corrispondente.

Per il discorso fatto prima, e chiaro che i sottospazi di equazione ax+ by+ cz+ d = 0 si ottengonotraslando il sottospazio vettoriale precedentemente considerato. La traslazione non cambia la proprietadi ortogonalita, ed anche questo piano e quindi perpendicolare al vettore (a, b, c).

In generale, ciascuna equazione dell’espressione cartesiana di un sottospazio affine fornisce unvettore ortogonale al sottospazio affine corrispondente. Ad esempio, la retta in R3 di equazioni(

2x+ y − 3z = 5

x− y + 4z = 1

sara perpendicolare ai vettori (2, 1,−3) e (1,−1, 4) e a tutte le loro combinazioni lineari.

17. COSE NON FATTE.

Ci sono alcune cose che sarebbe stato necessario spiegare, e che non abbiamo invece avuto il tempodi fare.

• La somma diretta di sottospazi. Abbiamo visto come, da spazi vettoriali V e W , si possacostruire un nuovo spazio vettoriale definendo, sul prodotto cartesiano V ×W , delle oper-azioni di somma e prodotto per scalare componente per componente. Lo spazio vettorialerisultante si indica con V ⊕ W . Lievemente piu sofisticato e il concetto di decomposizionedi uno spazio vettoriale U in somma diretta di suoi sottospazi V e W . Essendo V e W sot-tospazi di U , le loro immersioni in U forniscono delle applicazioni lineari ιV : V → U eιW : W → U . Ma allora possiamo definire un’applicazione ι = (ιV , ιW ) : V ⊕W → U taleche ι(v, w) = ιV (v) + ιW (w). Allora si dice che V e W decompongono U in somma direttase ι e un isomorfismo di spazi vettoriali. Detta cosı e orribile, e serve a poco. E’ piu sempliceverificare delle proprieta equivalenti: U e somma diretta dei sottospazi V e W se U = V +W

e V ∩W = (0).• Proprieta dei proiettori. Strettamente connesso al concetto di decomposizione in somma diret-

ta e quello di proiettore. Un’applicazione lineare P : V → V si dice proiettore se P 2 = P , cioese applicare P due volte fornisce lo stesso risultato che applicare una volta. Intuitivamente,una volta effettuata la proiezione, non c’e piu niente da proiettare. E’ facile mostrare che ogniproiettore P : V → V decompone V nella somma diretta dei suoi sottospazi kerP e Im P .

Page 27: ALGEBRA LINEARE: LEZIONI DAL 27 SETTEMBRE AL 1 … · Matrice` associata ad un’applicazione lineare. • 4 Ott: Lezione 4. La corrispondenza tra applicazioni lineari e matrici.

ALGEBRA LINEARE I 27

• Gruppi classici. Sarebbe stato interessante anche introdurre alcuni gruppi di applicazioni lin-eari invertibili. Ad esempio l’insieme di tutte le applicazioni lineari T : V → V e un grupporispetto all’operazione di composizione, e detto gruppo lineare dello spazio vettoriale V , e siindica con GL(V ). Nello stesso spirito si definisce il gruppo ortogonale che contiene tutte leapplicazioni lineari invertibili che conservano il prodotto scalare – abbiamo parlato a lezionedi matrici ortogonali...

Nei corsi annuali, o nei secondi moduli, riuscivo a far vedere che gli elementi di O(3) checonservano l’orientazione sono tutte rotazioni, ma con i pochi strumenti del primo moduloera decisamente impossibile.

• Esempi mancati. Alcune applicazioni della linearizzazione – derivate, massimi e minimi, teo-rema delle funzioni implicite – trovano il loro posto piu in un corso di geometria che in unodi analisi. Un bell’esempio poteva essere quello di funzioni su un reticolo che soddisfano laproprieta della media: far vedere che ogni dato al bordo di un quadrato individua un’unicafunzione armonica. Allo stesso modo sono rimasti lettera morta gli esempi sulle successioni diFibonacci: sarebbe bastato un giorno in piu per far vedere come ricavare una formula chiusaper l’espressione del termine n.esimo di una successione di Fibonacci generalizzata...

Quando avro tempo – e ce ne sara abbastanza a Gennaio – provero a scrivere di queste cose. Se dateun’occhiata alla pagina web, potreste trovare qualcosa di interessante.

DIPARTIMENTO DI MATEMATICA, UNIVERSITA DEGLI STUDI DI ROMA – “LA SAPIENZA”E-mail address: [email protected]