Algebra Lineare e Geometria Ottimo

235
Algebra Lineare e Geometria dispense del corso Prof. Ernesto Dedò Dipartimento di Matematica Politecnico di Milano [email protected] II edizione febbraio 2011

Transcript of Algebra Lineare e Geometria Ottimo

Page 1: Algebra Lineare e Geometria Ottimo

Algebra Lineare e Geometriadispense del corso

Prof. Ernesto DedòDipartimento di Matematica

Politecnico di [email protected]

II edizionefebbraio 2011

Page 2: Algebra Lineare e Geometria Ottimo
Page 3: Algebra Lineare e Geometria Ottimo

Queste dispense sono state composte con LATEX.Sono coperte da licenza Creative Commonshttp://creativecommons.org/licenses/by-nc/3.0/legalcode in particolare non ne èpermesso l’uso commerciale

Page 4: Algebra Lineare e Geometria Ottimo
Page 5: Algebra Lineare e Geometria Ottimo

Indice

Prefazione xi

I. Algebra lineare 1

1. Richiami di nozioni essenziali 31.1. Gli insiemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2. Relazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.3. Il simbolo di sommatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.4. Il principio di induzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.5. Un po’ di calcolo combinatorio . . . . . . . . . . . . . . . . . . . . . . . . 7

1.5.1. Permutazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.5.2. Permutazioni con ripetizione . . . . . . . . . . . . . . . . . . . . . 81.5.3. Combinazioni e disposizioni . . . . . . . . . . . . . . . . . . . . . 8

2. I sistemi lineari: teoria elementare 112.1. Concetti introduttivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112.2. Risoluzione di un sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

3. Matrici 153.1. Nomenclatura e prime operazioni . . . . . . . . . . . . . . . . . . . . . . 153.2. Operazioni sulle matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.2.1. Somma di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183.2.2. Prodotto per uno scalare . . . . . . . . . . . . . . . . . . . . . . . . 193.2.3. Combinazioni lineari di matrici . . . . . . . . . . . . . . . . . . . . 193.2.4. Prodotto tra matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . 203.2.5. Potenza di una matrice quadrata . . . . . . . . . . . . . . . . . . . 22

3.3. Polinomi di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233.4. Matrici a blocchi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233.5. Applicazioni ai sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . 25

3.5.1. Equivalenza di matrici . . . . . . . . . . . . . . . . . . . . . . . . . 253.5.2. Risoluzione di un sistema . . . . . . . . . . . . . . . . . . . . . . . 26

3.6. L’algoritmo di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

4. Spazi vettoriali 334.1. Definizioni e prime proprietà . . . . . . . . . . . . . . . . . . . . . . . . . 334.2. Sottospazi e basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

Page 6: Algebra Lineare e Geometria Ottimo

ii Indice

5. Determinante e rango di una matrice. Matrice inversa 435.1. Definizioni di determinante . . . . . . . . . . . . . . . . . . . . . . . . . . 43

5.1.1. Definizione ricorsiva . . . . . . . . . . . . . . . . . . . . . . . . . . 435.1.2. Definizione classica . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

5.2. Proprietà del determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . 465.3. Rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

5.3.1. Calcolo del rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . 495.4. Matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

5.4.1. Definizione e proprietà . . . . . . . . . . . . . . . . . . . . . . . . . 51

6. Teoria dei sistemi lineari 536.1. Teoremi sui sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

7. Applicazioni lineari, prodotto scalare 577.1. Generalità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

7.1.1. Applicazioni lineari, matrici, sistemi . . . . . . . . . . . . . . . . . 607.2. Prodotto scalare, norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

7.2.1. Norma di un vettore in R2 o R3 . . . . . . . . . . . . . . . . . . . . 617.2.2. Prodotto scalare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

7.3. Generalizzazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

8. Matrici simili. Autovalori ed autovettori di una matrice quadrata 718.1. Matrici simili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 718.2. Autovalori ed autovettori di una matrice . . . . . . . . . . . . . . . . . . 72

9. Diagonalizzazione, matrici ortogonali 779.1. Diagonalizzazione di una matrice quadrata . . . . . . . . . . . . . . . . . 779.2. Martici ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 799.3. Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 839.4. Matrici hermitiane e matrici unitarie . . . . . . . . . . . . . . . . . . . . . 86

10. Polinomi di matrici 8710.1. Teorema di Cayley Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . 87

10.1.1. Applicazioni del Teorema di Cayley–Hamilton . . . . . . . . . . . 8910.2. Polinomio minimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

II. Geometria piana 93

11. La retta nel piano 9511.1. Preliminari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9511.2. Altri tipi di equazione della retta . . . . . . . . . . . . . . . . . . . . . . . 9611.3. Distanze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

11.3.1. Distanza di due punti . . . . . . . . . . . . . . . . . . . . . . . . . 9811.3.2. Distanza di un punto da una retta . . . . . . . . . . . . . . . . . . 99

Page 7: Algebra Lineare e Geometria Ottimo

Indice iii

11.4. Fasci di rette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9911.5. Coordinate omogenee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10011.6. I sistemi di riferimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

11.6.1. Cambiamento del sistema di riferimento . . . . . . . . . . . . . . 10111.6.2. Altri sistemi di riferimento . . . . . . . . . . . . . . . . . . . . . . 104

12. La circonferenza nel piano 10512.1. Generalità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

12.1.1. Tangenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10712.2. Fasci di circonferenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10812.3. Circonferenza ed elementi impropri . . . . . . . . . . . . . . . . . . . . . 110

13. Le coniche 11313.1. Coniche in forma generale . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

13.1.1. Riconoscimento di una conica . . . . . . . . . . . . . . . . . . . . . 11813.2. Tangenti ad una conica in forma canonica . . . . . . . . . . . . . . . . . . 12113.3. Conica per cinque punti . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12113.4. Le coniche in coordinate omogenee . . . . . . . . . . . . . . . . . . . . . . 12213.5. Fasci di coniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

13.5.1. Generalità sui fasci di coniche . . . . . . . . . . . . . . . . . . . . . 12413.6. Fasci e punti impropri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

III. Polarità piana 127

14. Proiettività ed involuzioni 12914.1. Proiettività . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12914.2. Involuzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

15. Polarità piana 13515.1. Polare di un punto rispetto ad una conica irriducibile . . . . . . . . . . . 13515.2. Principali proprietà della polarità piana . . . . . . . . . . . . . . . . . . . 13715.3. Elementi coniugati rispetto ad una conica irriducibile . . . . . . . . . . . 13915.4. Triangoli autopolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

16. Centro ed assi 14316.1. Centro e diametri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14316.2. Assi di una conica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

IV. Geometria dello spazio 149

17. Rette e piani nello spazio 15117.1. Equazioni parametriche della retta nello spazio . . . . . . . . . . . . . . . 15117.2. Equazione di un piano nello spazio . . . . . . . . . . . . . . . . . . . . . . 152

Page 8: Algebra Lineare e Geometria Ottimo

iv Indice

17.3. Parallelismo e perpendicolarità nello spazio . . . . . . . . . . . . . . . . . 15317.4. La retta intersezione di due piani . . . . . . . . . . . . . . . . . . . . . . . 15417.5. Fasci di piani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15617.6. Altri problemi su rette e piani . . . . . . . . . . . . . . . . . . . . . . . . . 157

17.6.1. Intersezione tra retta e piano . . . . . . . . . . . . . . . . . . . . . 15717.6.2. Rette sghembe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15817.6.3. Distanze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15917.6.4. Angoli tra rette, tra piani, tra rette e piani . . . . . . . . . . . . . . 162

17.7. Simmetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16317.7.1. Simmetrie rispetto ad un punto . . . . . . . . . . . . . . . . . . . . 16317.7.2. Simmetrie rispetto ad un piano . . . . . . . . . . . . . . . . . . . . 16417.7.3. Simmetrie rispetto ad una retta . . . . . . . . . . . . . . . . . . . . 167

17.8. Coordinate omogenee nello spazio . . . . . . . . . . . . . . . . . . . . . . 168

18. Sui sistemi di riferimento 17118.1. Rototraslazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17118.2. Coordinate polari e coordinate cilindriche . . . . . . . . . . . . . . . . . . 173

19. Linee e Superfici nello spazio 17719.1. Superfici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17719.2. Linee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179

20. Sfera e circonferenza nello spazio 18320.1. La sfera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18320.2. Piani tangenti ad una sfera . . . . . . . . . . . . . . . . . . . . . . . . . . . 18320.3. Circonferenze nello spazio . . . . . . . . . . . . . . . . . . . . . . . . . . . 18420.4. Fasci di sfere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

21. Superfici rigate e di rotazione 18721.1. Superfici rigate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18721.2. Superfici di rotazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188

22. Cilindri , coni e proiezioni 19122.1. Coni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19122.2. Cilindri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19422.3. Proiezioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195

22.3.1. Riconoscimento di una conica nello spazio . . . . . . . . . . . . . 197

23. Superfici quadriche 19923.1. Prime proprietà delle quadriche . . . . . . . . . . . . . . . . . . . . . . . . 19923.2. Quadriche in forma canonica e loro classificazione . . . . . . . . . . . . . 20023.3. Natura dei punti e riconoscimento di una quadrica . . . . . . . . . . . . . 206

23.3.1. Riduzione a forma canonica . . . . . . . . . . . . . . . . . . . . . . 20823.3.2. I punti impropri delle quadriche . . . . . . . . . . . . . . . . . . . 209

Page 9: Algebra Lineare e Geometria Ottimo

Indice v

Indice analitico 212

Page 10: Algebra Lineare e Geometria Ottimo
Page 11: Algebra Lineare e Geometria Ottimo

Elenco delle figure

4.1. Matrici triangolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

7.1. Un sistema di riferimento cartesiano ortogonale . . . . . . . . . . . . . . 627.2. Un sistema di riferimento cartesiano ortogonale nello spazio . . . . . . . 637.3. La regola del parallelogrammo per la somma di vettori . . . . . . . . . . 63

11.1. Distanza di due punti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9811.2. Traslazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10211.3. Rotazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10311.4. Coordinate polari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

12.1. Tangente da P ad una circonferenza . . . . . . . . . . . . . . . . . . . . . 10812.2. Fascio di circonferenze tangenti ad una retta . . . . . . . . . . . . . . . . 110

13.1. Le coniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11313.2. L’ellisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11413.3. L’iperbole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11513.4. La parabola . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11613.5. Esempio 13.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12013.6. Esempio 13.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12313.7. Esempio 13.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

15.1. Tangenti da un punto ad una conica . . . . . . . . . . . . . . . . . . . . . 13815.2. Involuzione dei punti reciproci . . . . . . . . . . . . . . . . . . . . . . . . 14015.3. Triangolo autopolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

16.1. Centro di simmetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14416.2. Centro graficamente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14516.3. Diametro coniugato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14516.4. Diametri e tangenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

17.1. Distanza di due punti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15917.2. Distanza di un punto da un piano . . . . . . . . . . . . . . . . . . . . . . 16017.3. Distanza di un punto da una retta . . . . . . . . . . . . . . . . . . . . . . . 16117.4. Simmetrica di una retta rispetto ad un piano . . . . . . . . . . . . . . . . 16517.5. Simmetrico di un piano rispetto ad un piano . . . . . . . . . . . . . . . . 16617.6. Simmetrico di un piano rispetto ad un piano parallelo . . . . . . . . . . . 16717.7. Simmetrica di una retta rispetto ad un altra retta . . . . . . . . . . . . . . 167

Page 12: Algebra Lineare e Geometria Ottimo

viii Elenco delle figure

18.1. Coordinate polari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17418.2. Coordinate cilindriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175

20.1. Circonferenza nello spazio . . . . . . . . . . . . . . . . . . . . . . . . . . . 184

21.1. Superficie di rotazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189

22.1. Cono . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19122.2. Cilindro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19422.3. Proiezione centrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19622.4. Proiezione parallela . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196

23.1. Ellissoide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20423.2. Gli iperboloidi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20423.3. Paraboloide ellittico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20523.4. Paraboloide iperbolico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205

Page 13: Algebra Lineare e Geometria Ottimo

Elenco delle tabelle

1. Lettere greche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xiii2. Simboli matematici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xiv

1.1. Relazioni di equivalenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2. Relazioni d’ordine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

3.1. Particolari matrici quadrate . . . . . . . . . . . . . . . . . . . . . . . . . . 173.2. Proprietà della somma di matrici . . . . . . . . . . . . . . . . . . . . . . . 183.3. Proprietà del prodotto per uno scalare . . . . . . . . . . . . . . . . . . . . 193.4. Proprietà del prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . 21

4.1. Proprietà degli spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . 33

7.1. Proprietà della norma di un vettore . . . . . . . . . . . . . . . . . . . . . . 657.2. Proprietà della distanza di due punti . . . . . . . . . . . . . . . . . . . . . 657.3. Proprietà del prodotto scalare . . . . . . . . . . . . . . . . . . . . . . . . . 667.4. Proprietà delle forme bilineari . . . . . . . . . . . . . . . . . . . . . . . . . 69

13.1. Le forme canoniche dell’equazione di una conica . . . . . . . . . . . . . . 119

23.1. Forma canonica delle quadriche specializzate . . . . . . . . . . . . . . . . 20123.2. Forma canonica delle quadriche non specializzate . . . . . . . . . . . . . 20223.3. Riconoscimento di una quadrica non degenere . . . . . . . . . . . . . . . 207

Page 14: Algebra Lineare e Geometria Ottimo
Page 15: Algebra Lineare e Geometria Ottimo

Prefazione

MATHEMATICSis one of essential emanations of thehuman spirit – a thing to be valued inand for itself – like art or poetery1.

Oswald Veblen-19242

Queste dispense contengono elementi di algebra lineare, con particolare riguardoall’algebra delle matrici ed agli spazi vettoriali e di geometria analitica nel piano e nellospazio in particolare lo studio delle coniche e delle quadriche, vi sono inoltre dei cennidi geometria proiettiva; esse rispecchiano fedelmente il corso da me tenuto presso lasede di Cremona del Politecnico di Milano. Sono corredate da numerosi esempi: alcunidi applicazione della teoria svolta, altri di approfondimento della stessa.

In questa seconda edizione, oltre a correggere numerosi errori, sono stati aggiuntii capitoli sulla polarità piana e sulle proprietà di centro ed assi di una conica; è statoinoltre aggiunto l’indice analitico.

Consigli per affrontare meglio i corsi universitari di MatematicaCOSE DA non FARE:

i) non studiare su appunti presi da altri: generalmente ciascuno prendeappunti a modo suo, mettendo in luce le cose che per lui sono più importantio più difficili: di solito queste non coincidono con quelle che a noi sembranopiù importanti o per noi sono più difficili;

ii) non studiare sui testi di scuola superiore: per bene che vada sono impostatiin maniera diversa e/o incompleti;

iii) non imparare a memoria le formule o le dimostrazioni dei teoremi: lamemoria tradisce molto più frequentemente del ragionamento: imparare aricostruirle;

iv) non aver paura di fare domande, ovviamente nei momenti opportuni: sietequi apposta per imparare;

2LA MATEMATICA è una delle essenziali emanazioni dello spirito umano, una cosa che va valutata in sèe per sè, come l’arte o la poesia.

2Oswald Veblen- 24 June 1880 Decorah, Iowa, USA–10 Aug 1960 Brooklyn, Maine, USA.

Page 16: Algebra Lineare e Geometria Ottimo

xii Prefazione

v) durante le lezioni non prendere freneticamente appunti: quello che spiegail docente di solito c’è sui libri o sulle dispense, viceversa prendendo malegli appunti c’è un alto rischio di perdere il filo della lezione;

vi) durante le esercitazioni non ricopiare pedissequamente la risoluzione degliesercizi;

vii) non scoraggiarsi se, soprattutto all’inizio, sembra di non capire o sembrache il docente “vada troppo in fretta,” seguendo i consigli si acquista prestoil ritmo;

viii) non perdere tempo: il fatto che all’università non ci siano compiti in classee interrogazioni è una grande tentazione per rimandare il momento in cui“mettersi sotto” a studiare.

COSE DA FARE:

i) Precedere sempre la lezione: cercare di volta in volta sui libri gli argomentiche il docente tratterà nella prossima lezione e cominciare a leggerli peravere un’idea di che cosa si parlerà. In questo modo la lezione sarà piùefficace e chiarirà molti dei dubbi e delle perplessità rimaste.

ii) Iniziare a studiare dal primo giorno. La Matematica, soprattutto all’inizio,necessita di una lunga “digestione”: di un ripensamento critico che non sipuò fare all’ultimo momento.

iii) Studiare sempre con carta e penna a portata di mano, per poter rifare conti,dimostrazioni, figure ecc.

iv) Se proprio si vuole farlo imparare a prendere appunti senza perdere il filo deldiscorso: appuntare solo i concetti base su cui poi riflettere e ricostruire dasoli l’argomento; a esercitazioni appuntare solo il testo dell’esercizio ed ilrisultato finale e rifarlo per conto proprio.

v) Imparare a rifare le dimostarzioni dei teoremi soffermandosi a riflettere sulruolo che giocano le varie ipotesi del teorema, magari creando controesempidi situazioni in cui una o più delle ipotesi non valgono.

vi) Ricordarsi che per imparare la matematica occorre far funzionare il cervello,e questo costa sempre un certo sforzo.

La tabella 1 a pagina xiii fornisce un elenco di tutte le lettere greche, maiuscolee minuscole, con il loro nome in italiano

Mentre la tabella 2 a pagina xiv elenca i simboli maggiormente usati nel testo

BUON LAVORO!

Page 17: Algebra Lineare e Geometria Ottimo

xiii

Tabella 1. Lettere greche

minuscole maiuscole nomeα A alfaβ B betaγ Γ gammaδ ∆ delta

ε o ε E epsilonζ Z zetaη H eta

θ o ϑ Θ thetaι I iotaκ K kappaλ Λ lambdaµ M miν N niξ Ξ csio O omicronπ Π pi

ρ o $ R roσ o ς Σ sigma

τ T tauυ Υ ipsilon

φ o ϕ Φ fiχ X chiψ Ψ psiω Ω omega

Page 18: Algebra Lineare e Geometria Ottimo

xiv Prefazione

Tabella 2. Simboli matematici

N insieme dei numeri naturaliZ insieme dei numeri interiQ insieme dei numeri razionaliR insieme dei numeri realiC insieme dei numeri complessi∀ per ogni∃ esiste∃! esiste un unico∈ appartiene ad un insieme∪ unione di insiemi∩ intersezione di insiemi∑ somma∏ prodotto⊥ perpendicolare〈·, ·〉 prodotto scalare

∞ infinito℘ insieme delle parti< minore> maggiore≤ minore o uguale≥ maggiore o uguale⊂ sottoinsieme proprio⊆ sottoinsieme⊕ somma diretta di insiemiØ insieme vuoto

Page 19: Algebra Lineare e Geometria Ottimo

Parte I.

Algebra lineare

Page 20: Algebra Lineare e Geometria Ottimo
Page 21: Algebra Lineare e Geometria Ottimo

1. Richiami di nozioni essenziali

In questo capitolo richiamiamo alcuni concetti e proprietà fondamentali, di cuifaremo largo uso nel seguito e che dovrebbero essere noti ed acquisiti dagli studiprecedenti. Pertanto questo capitolo va letto con attenzione e non saltato a pie’pari. Se sussiste anche il minimo dubbio, lo studente deve correre rapidamenteai ripari, riprendendo in mano i testi della scuola superiore.

1.1. Gli insiemi

Il concetto di insieme è un concetto primitivo. Diciamo che l’elemento a appar-tiene all’insieme A e scriviamo a ∈ A se a è un elemento di A. Indichiamo conil simbolo ∅ l’insieme vuoto cioè privo di elementi.1 Due insiemi sono uguali sesono formati dagli stessi elementi, indipendentemente dall’ordine.

Si dice che B è sottoinsieme di A e si scrive B ⊆ A se tutti gli elementi di B sonoanche elementi di A, in simboli

B ⊆ A ⇐⇒ ∀a ∈ B : a ∈ B⇒ a ∈ A (1.1)

Se B 6= A e vale la (1.1), B si chiama sottoinsieme proprio di A e si scrive B ⊂ A.È noto che l’insieme vuoto si considera sottoinsieme di ogni insieme, cioè che

∅ ⊆ A ∀A

Se A e B sono sottoinsiemi di uno stesso insieme U, si definisceunione di A e B l’insieme C = A ∪ B tale che ∀a ∈ A e ∀b ∈ B sia

C ≡ c| c ∈ A oppure c ∈ Bcioè C è formato dagli elementi che appartengono ad Aoppure a B.

intersezione di A e B l’insieme C = A ∩ B tale che

C ≡ c| sia c ∈ A, sia c ∈ Bcioè C è l’insieme degli elementi che appartengono sia adA sia a B.

differenza tra A e B è l’insieme C = A \ B se C = c| c ∈ A, c 6∈ B cioèl’insieme degli elementi di A che non appartengono a B.

Due insiemi tali che A ∩ B = ∅ si chiamano disgiunti.1Attenzione, questo simbolo è quello dell’insieme vuoto e non va usato per indicare lo 0 zero!’

Page 22: Algebra Lineare e Geometria Ottimo

4 Richiami di nozioni essenziali

1.2. Relazioni

Ricordiamo che in un insieme A è definita una relazione di equivalenza < se,qualsiansi siano gli elementi a, b, c ∈ A, valgono le proprietà elencate nellatabella 1.1

Tabella 1.1. Relazioni di equivalenza

a< a riflessivaa< b ⇐⇒ b< a simmetricaa< b e b< c ⇒ a< c transitiva

Per esempio è di equivalenza la relazione di parallelismo tra rette nel piano,pur di considerare parallele anche due rette coincidenti, mentre non lo è quelladi perpendicolarità. (perché?)

Se in un insieme A è definita una relazione di equivalenza < chiamiamoclasse di equivalenza dell’elemento a l’insieme di tutti gli elementi di A che sonoequivalenti ad a. L’insieme di tutte le classi di equivalenza di A si chiama insiemequoziente di A rispetto a <.

Esempio 1.1. Per esempio, nell’insieme delle frazioni, la relazione

ab< ka

kb(k 6= 0)

è una relazione di equivalenza. I numeri razionali si possono definire come l’insiemequoziente dell’insieme delle frazioni rispetto a < nel senso che il numero 0.5 rappresentatutta la classe di frazioni equivalenti ad 1

2 .

Esempio 1.2. La relazione di parallelismo definisce una direzione: passando al quoziente,nell’insieme delle rette, rispetto alla relazione di parallelismo, si ottiene la direzione diuna retta.

In un insieme A è definita una relazione di ordine se per ogni a, b, c ∈ Avalgono le proprietà della tabella 1.2.

Tabella 1.2. Relazioni d’ordine

1. a b oppure b a proprietà di dicotomia2. a a proprietà riflessiva3. a b e b a⇒ a = b proprietà antisimmetrica4. a b e b c⇒ a c proprietà transitiva

Page 23: Algebra Lineare e Geometria Ottimo

1.3 Il simbolo di sommatoria 5

Un insieme in cui valgono tutte le proprietà elencate nella tabella 1.2 nellapagina precedente si chiama totalmente ordinato; in esso, data una qualunquecoppia a e b di elementi, in virtù della proprietà di dicotomia, si può sempre direse a b oppure b a cioè, come si suol dire, tutti gli elementi sono confrontabili.Esistono, però, insiemi in cui è definita una relazione d’ordine cosiddetta parziale,in cui non vale la proprietà 1 di dicotomia, cioè in cui non tutte le coppie dielementi sono confrontabili, come mostra il seguente

Esempio 1.3. Nell’insieme N dei numeri naturali, diciamo che a b se a divide b.Questa è una relazione d’ordine parziale, infatti valgono le proprietà 2.. . . 4. –verificarloper esercizio– ma non è totale perché esistono coppie di numeri non confrontabili, adesempio 3 e 5 non sono confrontabili, perché nè 3 divide 5, nè, viceversa, 5 divide 3.

1.3. Il simbolo di sommatoria

Spesso in Matematica una somma di più addendi viene indicata con il simbolo

∑,

in cui gli addendi sono indicati da una lettera dotata di un indice numericoarbitrario, ad esempio

5

∑1

ai = ∑5j=1 aj.

Le seguenti scritture sono equivalenti:

6

∑i=3

xi,6

∑k=3

xk,7

∑n=4

xn−1,

e rappresentano la somma x3 + x4 + x5 + x6.L’indice di sommatoria può essere sottinteso, quando è chiaro dal contesto.

Dalle proprietà formali delle operazioni di somma e prodotto seguono subitoqueste uguaglianze:

n

∑i=1

mxi = mn

∑i=1

xi en

∑i=1

(xi + yi) =n

∑i=1

xi +n

∑i=1

yi.

Si considerano spesso anche somme su più indici, per esempio

∑i=1...2k=1...3

aik

che equivale aa11 + a12 + a13 + a21 + a22 + a23

Page 24: Algebra Lineare e Geometria Ottimo

6 Richiami di nozioni essenziali

e si verifica subito che è

∑i=1...2k=1...3

aik =2

∑i=1

(3

∑k=1

aik

)=

3

∑k=1

(2

∑i=1

aik

)

1.4. Il principio di induzione

Un procedimento di dimostrazione molto usato in Matematica, ed a cui ricor-reremo diverse volte, è quello basato sul principio di induzione. Esso è soprattuttoadatto per dimostrare proprietà che dipendono dai numeri naturali.

DEFINIZIONE 1.1. Sia Pn una proposizione che dipende da un numero naturalen. Se

i) P1 è verificata

ii) Pn è vera

iii) Pn+1 è vera ogni volta che è vera Pn

allora Pn è vera per qualunque numero naturale n.

Vediamo qualche semplicissimo esempio.

Esempio 1.4. Consideriamo i primi n numeri dispari e verifichiamo che per ogni interon si ha

1 + 3 + 5 + · · ·+ (2n− 1) = n2. (1.2)

La ( 1.2) è ovviamente vera per n = 1, quindi P1 è vera. Supponiamo ora che essa sia veraper un certo n = k, cioè che la somma dei primi k numeri dispari sia k2 e dimostriamoche in questo caso è vera anche per k + 1. Per n = k + 1 la ( 1.2) diventa

1 + 3 + 5 + · · ·+ (2(k + 1)− 1) = (1 + 3 + 5 + · · ·+ 2k− 1)︸ ︷︷ ︸k2

+2k + 1 1.2=

k2 + 2k + 1 = (k + 1)2.

Dunque abbiamo fatto vedere che se la somma di k numeri dispari è k2 ne segue chequella di k + 1 è (k + 1)2. Essendo vera per k = 1 lo è per k = 2 quindi per k = 3 e cosìvia per ogni n.

Esempio 1.5. Vogliamo far vedere che

1 + 2 + 3 + · · ·+ n =n(n + 1)

2(1.3)

Page 25: Algebra Lineare e Geometria Ottimo

1.5 Un po’ di calcolo combinatorio 7

Per n = 2 la (1.3) è ovviamente vera; supponiamo che sia vera per n = k e dimostriamoche in tal caso è vera anche per n = k + 1. Infatti si ha:

1 + 2 + 3 + · · ·+ k + (k + 1) =k(k + 1)

2+ k + 1 =

=k(k + 1) + 2k + 2

2=

k2 + 3k + 22

=(k + 1)(k + 2)

2.

1.5. Un po’ di calcolo combinatorio

Come è noto, si chiama fattoriale di n (n > 1) e si scrive n! il prodotto dei primin interi

n! = 1 · 2 · 3 · · · (n− 1) · ne si pone, per definizione, 1! = 1 = 0!

1.5.1. Permutazioni

DEFINIZIONE 1.2. Si chiama permutazione di n oggetti un qualsiasi allineamen-to di questi oggetti.

Per esempio contiamo quante sono le permutazioni delle tre lettere a, b, c;elenchiamole:

abc acb bac bca cab cba quindi P3 = 6

Generalizzando, quante sono le permutazioni Pn di n oggetti? Osserviamo cheil primo oggetto si può scegliere in n modi diversi, mentre per il secondo, unavolta scelto il primo, posso operare n− 1 scelte, per il terzo le scelte sono n− 2 ecosì via, quindi

Pn = n! (1.4)

Consideriamo ora un’insieme I di n elementi. Scegliamo una permutazione fdegli elementi di I che considereremo fondamentale. Sia ora p = x1, x2, . . . , xnun’altra permutazione. Se accade che due elementi si succedano in p in ordineinverso rispetto a come si succedono in f diciamo che essi formano una inversioneo uno scambio rispetto ad f . Una permutazione p si dice di classe pari rispettoalla permutazione scelta come fondamentale f , se presenta un numero pari discambi, di classe dispari in caso opposto.OSSERVAZIONE 1.1. Poiché scambiando due elementi si passa da una permu-tazione di classe pari ad una di classe dispari, il numero delle permutazioni diclasse pari è uguale a quello delle permutazioni di classe dispari, cioè n!

2 . Si puòanche notare che se una permutazione p è di classe pari rispetto ad una permuta-zione fondamentale f , essa è di classe pari rispetto a qualunque permutazione qa sua volta di classe pari rispetto ad f . 2

Page 26: Algebra Lineare e Geometria Ottimo

8 Richiami di nozioni essenziali

1.5.2. Permutazioni con ripetizione

Consideriamo ora il caso in cui gli n oggetti non siano tutti distinti, per esempioconsideriamo i 7 oggetti a1, a2, b1, b2, b3, c, d. Le permutazioni sono 7! = 5040 masei i tre oggetti b coincidono avremo 3! permutazioni non distinguibili, quindi

il numero diminuirà a7!3!

=5040

6= 840; se inoltre sono uguali anche i due

elementi a abbiamo7!

3! · 2!= 420.

Generalizzando, consideriamo l’insieme X ≡ x1, x2, . . . , xm se sappiamo chel’oggetto x1 è ripetuto n1 volte, l’oggetto x2 è ripetuto n2 volte e così via (conm∑

i=1ni = n) si ha

P∗ =n!

n1!n2! · · · nm!(1.5)

Nel caso particolare in cui fra gli n oggetti ce ne siano k uguali tra loro e gli altrin− k pure uguali tra loro (ma non ai precedenti) la formula ( 1.5) diventa

P∗n!

k!(n− k)!

1.5.3. Combinazioni e disposizioni

Se abbiamo n oggetti e vogliamo suddividerli in gruppi di k oggetti ognuno diquesti raggruppamenti si chiama combinazione di n oggetti a k a k se due di questiraggruppamenti sono diversi quando differiscono per almeno un oggetto. Sichiama invece disposizione di n oggetti a k a k ognuno di questi raggruppamentiquando consideriamo diversi due di essi non solo se differiscono per almenoun oggetto, ma anche se contengono gli stessi oggetti in ordine differente. Seindichiamo rispettivamente con Cn,k e Dn,k il numero delle combinazioni e quellodelle disposizioni di n oggetti a k a k, dalla definizione segue subito che si ha

Dn,k = k!Cn,k

Ripetendo il ragionamento fatto per determinare il numero delle permutazioni,si ricava immediatamente che

Dn,k = n(n− 1)(n− 2) · · · (n− k + 1)

e di conseguenza

Cn,k =n(n− 1)(n− 2) · · · (n− k + 1)

k!

Page 27: Algebra Lineare e Geometria Ottimo

1.5 Un po’ di calcolo combinatorio 9

moltiplicando numeratore e denominatore per (n− k)! si ottiene

Cn,k =n!

k!(n− k)!=

(nk

)che, come è noto, è il k–esimo coefficiente nello sviluppo della n–esima potenzadi un binomio e prende perciò il nome di coefficiente binomiale.

Page 28: Algebra Lineare e Geometria Ottimo
Page 29: Algebra Lineare e Geometria Ottimo

2. I sistemi lineari: teoria elementare

2.1. Concetti introduttivi

In questo capitolo supporremo sempre, salvo esplicito avviso contrario, ditrovarci nel campo reale R.

Un’equazione di primo grado è anche detta lineare; se è in una sola incognitaessa si può sempre porre nella forma

ax + b = 0 (2.1)

A questo punto notiamo che:

Se a 6= 0 essa ammette sempre l’unica soluzione x = −ba

;

se a = 0 e b 6= 0 non ammette soluzioni, mentrese a = 0 e b = 0 essa è soddisfatta da ogni valore di x, quindi è più propriamente

un’identità.

Se, invece, un’equazione lineare ha due variabili le soluzioni sono in generaleinfinite; per esempio consideriamo l’equazione

x + y = 1 (2.2)

essa ammette come soluzione la coppia x = 1, y = 0, la coppia x = 0, y = 1,la coppia x = 1

2 , y = 12 . . . , e quindi, in generale, tutte le infinite coppie tali che

x = t, y = 1− t ∀t ∈ R. Questa scrittura significa che per ogni valore delparametro t esiste una soluzione1.

Sappiamo anche che una tale equazione rappresenta, nel piano riferito ad unacoppia di assi cartesiani ortogonali, una retta, i cui infiniti punti hanno coordinateche sono le soluzioni dell’equazione.

Se ora consideriamo, accanto alla (2.2) anche l’equazione x− y = 1 e ci propo-niamo di trovare, se esistono, dei valori di x e y che soddisfanno entrambe le equa-zioni, abbiamo quello che si chiama un sistema lineare che si indica abitualmentecon la scrittura

x + y = 1x− y = 0

. (2.3)

1Attenzione, ogni soluzione è formata da una coppia ordinata di numeri reali.

Page 30: Algebra Lineare e Geometria Ottimo

12 I sistemi lineari: teoria elementare

Quindi un sistema di equazioni è, in generale, un insieme di equazioni di cuisi cercano le eventuali soluzioni comuni; un sistema si chiama lineare se tutte leequazioni da cui è composto sono lineari.

Nel caso del sistema (2.3) si vede facilmente che la coppia

x = 12 , y = 1

2

soddisfa entrambe le equazioni, quindi è una soluzione del sistema. Non èdifficile rendersi conto che essa è unica2.

Possono però accadere altri casi: consideriamo per esempio il sistemax + y = 1x + y = 2

(2.4)

È chiaro che le due equazioni si contraddicono l’una con l’altra, quindi il sistemaè impossibile. Nell’interpretazione geometrica data nella nota 2, le due rette lecui equazioni formano il sistema (2.4) sono parallele, di conseguenza non hannoalcun punto in comune.

Un altro caso è rappresentato, per esempio, dal sistemax + y = 1

2x + 2y = 2(2.5)

In questo sistema appare chiaro che le due equazioni coincidono nel sensoche tutte le coppie soluzione della prima equazione lo sono anche della seconda,quindi questo sistema ammette infinite soluzioni3.

Queste considerazioni si possono generalizzare al caso di sistemi con unnumero qualunque (finito) di incognite. Parleremo allora, nel caso generale, diun sistema di m equazioni in n incognite4.

a11x1 + a12x2 + · · ·+ a1nxn = b1

a21x1 + a22x2 + · · ·+ a2nxn = b2

. . . . . . . . .am1x1 + am2x2 + · · ·+ amnxn = bm

(2.6)

La notazione che abbiamo usato nella (2.6) è la cosiddetta notazione a doppioindice. Le incognite sono x1 . . . xn i termini noti sono b1 . . . bm.

Dagli esempi visti si può concludere che un sistema lineare di m equazioni inn incognite può appartenere ad una ed una sola delle seguenti categorie:

2 Dal punto di vista geometrico basta pensare che in un sitema di riferimento cartesiano ortogonale leequazioni lineari rappresentano rette, quindi esse, se si incontrano, hanno esattamente un punto incomune.

3Qui le due rette coincidono.4L’interpretazione geometrica, nel caso di più di due incognite non è così immediata.

Page 31: Algebra Lineare e Geometria Ottimo

2.2 Risoluzione di un sistema 13

sistema possibile questo a sua volta presenta due possibilità:una sola soluzione costituita da una n–pla di valori.

infinite soluzioni dipendenti ciascuna da uno o più pa-rametri, soluzioni che si possono deter-minare assegnando opportuni valori aiparametri.5

sistema impossibile non esistono soluzioni comuni alle varie equazioni.

Ci proponiamo, oltre che di imparare a risolvere un sistema lineare, anche diimparare a discuterlo, cioè a scoprire a priori (quindi senza doverlo risolvere), se èrisolubile o no, e quante sono le sue soluzioni.

2.2. Risoluzione di un sistema

Nelle scuole superiori avete imparato a risolvere semplici sistemi lineari convari metodi, che si basano tutti sull’idea di fondo che è quella di trovare unsistema che abbia le stesse soluzioni di quello dato ma sia scritto in una formapiù semplice.

DEFINIZIONE 2.1. Due sistemi lineari di m equazioni in n incognite si diconoequivalenti se hanno le stesse soluzioni, cioè se ogni n–pla che è soluzione dell’unolo è anche dell’altro.

Ad esempio i sistemix + 3y = 72x− y = 0

(1 + 6)x = 7

y = 2x

x = 1y = 2

sono equivalenti, come si verifica facilmente.Un’ottima tecnica per risolvere un sistema lineare è quella di trovare un si-

stema equivalente a quello dato ma con una struttura più semplice. Vedremonei prossimi capitoli come si possa passare da un sistema lineare ad uno equiva-lente basandoci sull’osservazione che un sistema è definito quando sono dati ivari coefficienti nelle rispettive posizioni: per far questo nel prossimo capitolointrodurremo il concetto di matrice.

5Talvolta chiamato impropriamente sistema indeterminato; locuzione che può trarre in inganno in quanto lesoluzioni, pur essendo infinite, possono essere determinate.

Page 32: Algebra Lineare e Geometria Ottimo
Page 33: Algebra Lineare e Geometria Ottimo

3. Matrici

Esistono molti metodi per applicare la strategia esposta alla fine del capitolo 2,per la maggior parte dei quali è comodo introdurre uno strumento matematicomolto potente ed utilizzato nei più svariati campi della Matematica e di tutte leScienze: il calcolo matriciale.

3.1. Nomenclatura e prime operazioni

Osserviamo che un sistema è completamente determinato quando siano dati icoefficienti ed i termini noti, nelle loro rispettive posizioni. Ad esempio, riferendocial sistema ( 2.6 a pagina 12), per tener conto dei coefficienti e delle loro posizionipossiamo scrivere la tabella:

A =

a11 a12 . . . a1na21 a22 . . . a2n...

......

...am1 am2 . . . amn

(3.1)

che chiamiamo matrice dei coefficienti e i termini noti possiamo incolonnarli

B =

b1b2...

bm

ottenendo la matrice (o vettore) dei termini noti.

È anche importante, come vedremo, la matrice

C =

a11 a12 . . . a1n b1a21 a22 . . . a2n b2...

......

......

am1 am2 . . . amn bm

(3.2)

detta anche matrice completa, costruita a partire dalla A accostandole a destra lacolonna B dei termini noti, possiamo anche scrivere C = [A|B].

Più in generale chiamiamo matrice di tipo (m, n) una tabella di numeri, reali ocomplessi, organizzata in m righe e n colonne. Indicheremo sempre, da ora in

Page 34: Algebra Lineare e Geometria Ottimo

16 Matrici

poi, le matrici con lettere latine maiuscole e gli elementi con lettere minuscoledotate eventualmente di due indici che ne individuano la posizione nella tabella,ad esempio scriveremo A = [aik] dove 1 ≤ i ≤ m e 1 ≤ k ≤ n. L’elemento aiksarà allora l’elemento che appartiene alla i–esima riga e alla k–esima colonna.

Ad esempio nella matrice A =

1 2 33 4 55 6 7

si ha a32 = 6, in quanto il numero 6

è nella posizione (3, 2) cioè appartiene alla terza riga ed alla seconda colonna,allo stesso modo si ha: a23 = a31 = 5.

Osserviamo che in alcuni testi le matrici sono indicate con(

a bc d

)cioè con le

parentesi tonde, anzichè con[

a bc d

].

Due matrici sono uguali quando sono dello stesso tipo e sono formate daglistessi elementi nelle stesse posizioni; formalmente scriviamo che se A = [aik]e B = [bik] sono due matrici, A = B se e solo se sono dello stesso tipo e seaik = bik ∀i, k.

Come controesempio consideriamo le matrici[

1 23 4

]e[

2 13 4

]; esse, pur essen-

do formate dagli stessi elementi, non sono uguali.

Una matrice di tipo (m, n) in cui m = n, cioè in cui il numero delle righe èuguale a quello delle colonne, si chiama quadrata di ordine n.

Se A = [aik] è una matrice di tipo (m, n) chiamiamo trasposta di A la matriceAT, di tipo (n, m) ottenuta scambiando ordinatamente le righe con le colonne1,dunque B è la trasposta di A se bik = aki ∀i, k.

Ad esempio se A =

1 23 45 6

si avrà AT =

[1 3 52 4 6

]; ovviamente la trasposta

di una matrice di tipo (m, n) è una matrice di tipo (n, m) e la trasposta di unamatrice quadrata di ordine n è ancora quadrata dello stesso ordine. Sussisteanche la proprietà (AT)T = A, cioè la trasposta della trasposta di una matrice Aè ancora la matrice A. La semplice dimostrazione di questa proprietà è lasciatacome esercizio al lettore.

Se A = AT (il che implica che A sia quadrata, dimostrarlo per esercizio)diciamo che A è simmetrica; se invece A = −AT diciamo che A è emisimmetrica2.

1La notazione AT per la trasposta di una matrice A non è univoca: a volte la trasposta viene indicata conAt o con t A o anche con At o in altri modi. Noi useremo sempre la notazione AT .

2Qui, come faremo d’ora in poi, abbiamo indicato con −A (leggere, ovviamente, meno A) la matrice che siottiene da A cambiando segno a tutti i suoi elementi.

Page 35: Algebra Lineare e Geometria Ottimo

3.1 Nomenclatura e prime operazioni 17

Gli elementi aik con i = k si chiamano elementi principali o elementi appartenentialla diagonale principale e la loro somma si chiama traccia della matrice, si indicacon trA e si ha quindi

trA =n

∑1

aii.

Per esempio se A è la matrice[

1 02 −3

]la sua traccia è trA = 1− 3 = −2.

Sia ora A una matrice quadrata di ordine n; nella tabella 3.1 definiamo alcuneparticolari matrici quadrate.

Tabella 3.1. Particolari matrici quadrate

diagonale se aik = 0 per ogni i 6= k;scalare se è diagonale e gli elementi principali (cioè gli

elementi aii) sono uguali tra loro;unità se è scalare e ∀i, aii = 1; la indicheremo con I,

sottintendendo l’ordine quando non c’è ambiguità;triangolare inferiore se ∀i > k si ha aik = 0 cioè se tutti gli elementi al di

sopra della diagonale principale sono nulli;triangolare superiore se ∀i < k si ha aik = 0 cioè se tutti gli elementi al di

sotto della diagonale principale sono nulli.

Osserviamo esplicitamente che non si fà nessuna ipotesi sugli elementi princi-pali di una matrice diagonale o triangolare: essi potrebbero a loro volta esseretutti o in parte nulli.

Esempio 3.1. La matrice A =

1 0 00 0 00 0 9

è una matrice diagonale, mentre la ma-

trice B =

−2 0 00 −2 00 0 −2

è una matrice scalare e C =

3 0 01 2 00 2 0

è una matrice

triangolare.

Osserviamo anche che una matrice diagonale è sia triangolare inferiore siatriangolare superiore.

Page 36: Algebra Lineare e Geometria Ottimo

18 Matrici

3.2. Operazioni sulle matrici

Ci proponiamo, in questo paragrafo, di introdurre un’“Algebra delle matrici”,cioè di imparare a fare dei conti con le matrici; iniziamo con la somma di duematrici.

3.2.1. Somma di matrici

Se A = [aik] e B = [bik] sono due matrici dello stesso tipo, diciamo che C = [cik](dello stesso tipo di A e B) è la somma di A e B e scriviamo C = A + B se ognielemento di C è la somma degli elementi corrispondenti di A e B, cioè se si ha,

cik = aik + bik; ∀i, k.

La somma di matrici gode delle proprietà elencate nella tabella 3.2 nella quale

Tabella 3.2. Proprietà della somma di matrici

i) A + (B + C) = (A + B) + C proprietà associativaii) A + B = B + A proprietà commutativaiii) A + 0 = A esistenza elemento neutroiv) A + (−A) = 0 esistenza oppostov) (A + B)T = AT + BT

A e B sono matrici dello stesso tipo, e dove abbiamo indicato con 0 la matrice cheha tutti gli elementi nulli che chiameremo matrice nulla. La verifica delle proprietàdella somma di matrici è quasi immediata e costituisce un utile esercizio per illettore volenteroso.

OSSERVAZIONE 3.1. Attenzione! non confondere il numero zero 0 con la matri-ce zero (o matrice nulla), che noi indicheremo sempre col simbolo 0 (in grassetto);osserviamo però che in alcuni testi ma soprattutto nella scrittura a mano, essaviene spesso indicata con 0. 2

A proposito di simbologia ricordiamo che il simbolo ∅ indica l’insieme vuoto — cioèl’insieme privo di elementi — ed unicamente a tale scopo va riservato e non ilnumero 0, come invece molti hanno l’abitudine di fare. Questa confusione tra simbolidiversi rappresenta una pessima abitudine da perdere nel minor tempo possibile.

OSSERVAZIONE 3.2. La somma di matrici si estende facilmente al caso di unnumero qualsiasi di matrici, ed in modo analogo si estendono le proprietàelencate nella tabella 3.2.2

Page 37: Algebra Lineare e Geometria Ottimo

3.2 Operazioni sulle matrici 19

3.2.2. Prodotto per uno scalare

Si introduce anche un prodotto esterno o prodotto per3 uno scalare, prodotto traun numero ed una matrice: se α è un numero (o più precisamente uno scalare4) eA = [aik] è una matrice, si ha B = αA se

bik = αaik, ∀i, k.

Ovviamente, per il prodotto per uno scalare, valgono le proprietà elencate nellatabella 3.3.

Tabella 3.3. Proprietà del prodotto per uno scalare

i) α0 = 0 = 0A;ii) 1A = A;iii) (αβ)A = α(βA) = β(αA);iv) (α + β)A = αA + βA;v) α(A + B) = αA + βB;vi) αA = 0 =⇒ α = 0 oppure A = 0.

3.2.3. Combinazioni lineari di matrici

Le due operazioni di somma e di prodotto per uno scalare si combinanonella definizione di combinazione lineare di matrici del tutto analoga a quella dicombinazione lineare di vettori che riprenderemo nel capitolo 4.

DEFINIZIONE 3.1. Siano date n matrici dello stesso tipo A1, A2, . . . , An ed nscalari. α1, α2, . . . , αn. Diciamo che la matrice B è combinazione lineare delle Ai concoefficienti αi se

B =n

∑i=1

αi Ai (3.3)

Ovviamente la combinazione lineare (3.3) dà la matrice nulla se tutti gli αisono nulli.

DEFINIZIONE 3.2. Se una combinazione lineare di n matrici dà la matrice nullaanche se non sono tutti nulli i coefficienti, cioè se

0 =n

∑i=1

αi Ai con qualche αi 6= 0

3Attenzione, esiste anche il prodotto scalare –v. § 7.2.2 a pagina 65– da non confondere con quello cheintroduciamo qui

4Il termine “scalare” nasce dal fatto che, generalizzando, le matrici si possono definire su un campoqualsiasi K, non necessariamente un campo numerico come R o C e da qui il nome di scalare, che indicaun elemento del campo K.

Page 38: Algebra Lineare e Geometria Ottimo

20 Matrici

diciamo che le matrici sono linearmente indipendenti. In caso contrario, cioè seposso ottenere la matrice nulla solo se tutti i coefficienti sono nulli, diciamo chele matrici sono linearmente dipendenti.

Sul concetto di dipendenza lineare sussiste il fondamentale

Teorema 3.1. Siano A1, A2, . . . , Ak k matrici dello stesso tipo, esse sono linearmentedipendenti se e solo se almeno una di esse si può scrivere come combinazione lineare dellealtre.

Dimostrazione. Se le matrici A1, . . . , Ak sono linearmente dipendenti, allora esisteuna loro combinazione lineare che dà la matrice nulla senza che tutti i coefficientisiano nulli, cioè α1A1 + α2A2 + · · ·+ αk Ak = 0. In virtù della proprietà commu-tativa, possiamo supporre, senza ledere la generalità, che almeno α1 6= 0; allora

possiamo scrivere A1 = − 1α1

(α2A2 + · · · + αk Ak), quindi A1 è combinazione

lineare delle rimanenti, e si ha: A1 = −k

∑i=2

αi

α1Ai.

Viceversa supponiamo che A =k∑

i=2αi Ai, allora la combinazione lineare

A− α2A2 − · · · − αk Ak = 0

dà la matrice nulla, ed almeno il primo coefficiente, quello di A, è diverso dazero, dunque le matrici sono linearmente dipendenti.

3.2.4. Prodotto tra matrici

Il prodotto di matrici è un operazione meno intuitiva delle due precedenti.Siano A e B, prese nell’ordine dato, due matrici di tipi rispettivamente (m, p) e(p, n); diciamo prodotto righe per colonne o semplicemente prodotto delle matriciA e B, nell’ordine dato, la matrice C = AB = [cik] di tipo (m, n) se l’elementogenerico cik è la somma dei prodotti degli elementi della i–esima riga di A pergli elementi della k–esima colonna di B cioè

cik =p

∑j=1

aijbjk

OSSERVAZIONE 3.3. La definizione di prodotto di una matrice A per una matriceB implica che il numero delle colonne della prima matrice deve coincidere con ilnumero delle righe della seconda; diciamo, in tal caso, che A è conformabile conB.2

Page 39: Algebra Lineare e Geometria Ottimo

3.2 Operazioni sulle matrici 21

Esempio 3.2. Siano A(2, 2) =[

a bc d

]e B(2, 3) =

[x y zu v w

]allora A è conformabile

con B e si ha

C(2, 3) = AB =

[ax + bu ay + bv az + bwcx + du cy + dv cz + dw

]OSSERVAZIONE 3.4. Si vede subito che, in generale, se A è di tipo (m, p) e B èdi tipo (p, n) il prodotto AB è una matrice di tipo (m, n), mentre il prodotto BAnon ha senso, perché B non è conformabile con A. Se A è di tipo (n, p) e B di tipo(p, n) il prodotto si può fare nei due sensi, ma dà luogo a due matrici quadratecertamente diverse: infatti una è di ordine n ed una di ordine p. Infine, anche nelcaso in cui A e B siano entrambe quadrate dello stesso ordine n il prodotto ABed il prodotto BA, pur essendo entrambe matrici quadrate ancora di ordine n,non sono, in generale, uguali, come mostra il seguente

Esempio 3.3. Se A =

[0 00 1

]e B =

[0 01 0

]si verifica subito che è

AB =

[0 01 0

]ma BA =

[0 00 0

]= 0 (3.4)

OSSERVAZIONE 3.5. La ( 3.4) mette in luce, oltre alla non commutatività delprodotto di matrici, anche il fatto che per le matrici non vale la legge di annullamentodel prodotto cioè che il prodotto di due matrici può dare la matrice nulla senza chenessuna delle due sia la matrice nulla.

Dunque per il prodotto di matrici non vale, in generale, la proprietà commutati-va, tuttavia esistono coppie di matrici A e B tali che AB = BA: esse si chiamanopermutabili o si dice anche che commutano. Ad esempio la matrice I commuta contutte le matrici del suo stesso ordine.

Per il prodotto tra matrici valgono invece le proprietà elencate nella tabella 3.4;

Tabella 3.4. Proprietà del prodotto di matrici

i) A(BC) = (AB)C associativaii) (A + B)C = AC + BC C(A + B) = CA + CB distributiveiii) α(AB) = (αA)B = AαB = (AB)α associatività mistaiv) AI = IA = A esistenza elemento neutrov) A0 = 0A = 0vi) (AB)T = BT AT

dove, ovviamente, in ciascun caso si sottintende che le uguaglianze valgono solose sono rispettate le conformabilità.

Page 40: Algebra Lineare e Geometria Ottimo

22 Matrici

OSSERVAZIONE 3.6. Osserviamo che il prodotto righe per colonne è in un certosenso “privilegiato” rispetto agli altri analoghi (di ovvio significato) colonne perrighe, colonne per colonne o righe per righe, perché è l’unico dei quattro chegode della proprietà associativa, come si verifica facilmente su esempi che illettore è invitato a trovare come utile esercizio5.

Applicando la definizione di prodotto tra matrici si vede anche che, peresempio, il sistema 2.6 a pagina 12 si può scrivere nella forma, più comoda

Ax = b

dove A è la matrice, di tipo (m, n), A =

a11 a12 . . . a1na21 a22 . . . a2n...

......

...am1 am2 . . . amn

, x è una matrice di

tipo (n, 1) (matrice colonna), x =

x1x2...

xn

e b una matrice di tipo (m, 1), b =

b1b2...

bm

.

3.2.5. Potenza di una matrice quadrata

DEFINIZIONE 3.3. Si chiama potenza ennesima An (n ∈ Z) di una matricequadrata A la matrice

An =

A · A · · · · · A︸ ︷︷ ︸

n volte

se n ≥ 2

A se n = 1I se n = 0

Per la potenza di matrici valgono le usuali proprietà delle potenze, con l’at-tenzione alla non commutatività del prodotto; in particolare, per esempio, siavrà

Am · An = Am+n (Am)n = Am·n;

ma in generale(AB)n 6= An · Bn

così come per esempio (A ± B)2 sarà in generale diverso da A2 ± 2AB + B2,a meno che, naturalmente, A e B non commutino; lo stesso si può dire per il

5Il prodotto elemento per elemento non è soddisfacente, per esempio perché considerando i determinanti(v. def. 5.2 a pagina 44) non sarebbe più vero il teorema 5.5 a pagina 47 che dice che il determinante diun prodotto di matrici è uguale al prodotto dei determinanti.

Page 41: Algebra Lineare e Geometria Ottimo

3.3 Polinomi di matrici 23

prodotto (A + B)(A− B) che, nella forma A2− B2 dipende essenzialmente dallacommutatività.

Segnaliamo anche che esistono matrici non banali tali che A2 = A e Ak = 0;esse si chiamano, rispettivamente, matrici idempotenti e matrici nilpotenti. Per

esempio la matrice[

1 10 0

]è idempotente, mentre la matrice

[0 03 0

]è nilpotente:

verificarlo per esercizio.

3.3. Polinomi di matrici

Dato un polinomio di grado n

a0xn + a1x2 + · · ·+ an−1x + an

possiamo ora formalmente sostituire alla variabile x una matrice A ottenendo ilpolinomio matriciale

a0An + a1A2 + · · ·+ an−1A + an I.

Osserviamo che il “termine noto” di un polinomio corrisponde al coefficiente deltermine x0, da qui la sostituzione con A0 = I. I polinomi di matrici sono moltousati nella teoria delle matrici ed anche nelle altre Scienze.

3.4. Matrici a blocchi

Una matrice A può essere divisa, mediante linee orizzontali e/o verticali, insottomatrici che prendono il nome di blocchi. Naturalmente ogni matrice puòessere decomposta in blocchi in parecchi modi diversi, ad esempio la matrice

A =

[a b cd e f

]si può suddividere in blocchi, tra gli altri, nei seguenti modi:

[a b cd e f

] [a b c

d e f

] [a b c

d e f

]

Se A e B sono due matrici dello stesso tipo posso sempre suddividere entrambein blocchi dello stesso tipo, più precisamente possiamo supporre

A =

A11 A12 . . . A1nA21 A22 . . . A2n

......

......

Am1 Am2 . . . Amn

e B =

B11 B12 . . . B1nB21 B22 . . . B2n

......

......

Bm1 Bm2 . . . Bmn

Page 42: Algebra Lineare e Geometria Ottimo

24 Matrici

dove le matrici Aik sono rispettivamente dello stesso tipo delle matrici Bik ∀i, k.A questo punto è ovvio, dalla definizione di somma tra matrici, che

A + B =

A11 + B11 A12 + B12 . . . A1n + B1n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Am1 + Bm1 Am2 + Bm2 . . . Amn + Bmn

Allo stesso modo si può eseguire il prodotto per uno scalare a blocchi, moltipli-cando ogni blocco per lo scalare.

Per il prodotto a blocchi, invece, occorre che le matrici siano decomposte inblocchi a due a due conformabili, come illustra il seguente

Esempio 3.4. Siano A e B due matrici (A conformabile con B) divise a blocchi comesegue

A =

a b cd e f

g h k

B =

x uy v

z w

e chiamiamo

A1 =

[a bc d

]A2 =

[cf

]A3 =

[g h

]A4 =

[k]

B1 =

[xy

]B2 =

[uv

]B3 =

[z]

B4 =[w]

allora possiamo scrivere

A =

[A1 A2A3 A4

]e B =

[B1 B2B3 B4

]ed il prodotto si può eseguire a blocchi in questo modo:

AB =

[A1B1 + A2B3 A1B2 + A2B4A3B1 + A4B3 A3B2 + A4B4

]come se i singoli blocchi fossero elementi delle matrici.

In generale se le matrici A e B sono decomposte in blocchi nel modo seguente

A =

A11 A12 . . . A1nA21 A22 . . . A2p

......

......

Aq1 Aq2 . . . Aqp

e B =

B11 B12 . . . B1rB21 B22 . . . B2r

......

......

Bp1 Bp2 . . . Bpr

ed i blocchi Aij sono conformabili con i blocchi Bjk ∀i, j, k allora si può eseguire ablocchi il prodotto AB come se i singoli blocchi fossero elementi delle matrici.

Page 43: Algebra Lineare e Geometria Ottimo

3.5 Applicazioni ai sistemi lineari 25

OSSERVAZIONE 3.7. Il prodotto a blocchi è utile quando, per esempio, nellematrici A e/o B si possono individuare blocchi che formano la matrice nullaoppure la matrice unità o anche nei seguenti casi:

i) Se A(m, p) e B(p, m) sono due matrici tali che A sia conformabile con B e seindichiamo con B1, B2, . . . , Bn le colonne di B, possiamo scrivere B a blocchicome B =

[B1 B2 . . . Bn

]e quindi il prodotto AB si può scrivere

AB =[AB1 AB2 . . . ABn

]ii) Se ancora B =

[B1 B2 . . . Bn

]e D = diag(d1, d2, . . . , dn) allora

BD = DB =[d1B1 d2B2 . . . dnBn

]iii) Siano A e B quadrate e dello stesso ordine decomposte in blocchi nel modo

seguente

A =

[A1 A30 A2

]e B =

[B1 B30 B2

]dove A1 e B1 sono quadrate dello stesso ordine, allora si ha

AB =

[A1B1 A1B3 + A3B1

0 A2B2

]in particolare, se A3 = B3 = 0 si ha[

A1 00 A2

] [B1 00 B2

]=

[A1B1 0

0 A2B2

].

3.5. Applicazioni ai sistemi lineari

3.5.1. Equivalenza di matrici

Si chiamano operazioni elementari sulle righe (rispettivamente sulle colonne) diuna matrice le seguenti operazioni

i) scambio di due righe (colonne);

ii) moltiplicazione di una riga (colonna) per una costante k 6= 0;

iii) sostituzione di una riga (colonna) con la somma della riga (colonna) stessacon un’altra moltiplicata per una costante k.

Page 44: Algebra Lineare e Geometria Ottimo

26 Matrici

DEFINIZIONE 3.4. Due matrici A e B si dicono equivalenti per righe (rispet-tivamente per colonne) se B si ottiene da A eseguendo un numero finito dioperazioni elementari sulle righe (colonne).

Scriveremo che A ∼ B. È facile dimostrare –farlo come esercizio– che se A ∼ Ballora B ∼ A e che se A ∼ B e B ∼ C allora A ∼ C, cioè che la relazione ∼ è unarelazione di equivalenza.

Ed è importante il

Teorema 3.2. Se le matrici complete di due sistemi lineari sono equivalenti per righeallora i sistemi sono equivalenti, cioè hanno le stesse soluzioni.

3.5.2. Risoluzione di un sistema

Vediamo ora, su un esempio, come si possa utilizzare il Teorema 3.2 per larisoluzione di un sistema lineare.

Esempio 3.5. Consideriamo il sistemax + y + z− t = 1

2x + y + z + 3t = 2x− y− z = 0

x + y + z− 3t = −1

(3.5)

La matrice completa è la matrice

A =

1 1 1 −1 12 1 1 3 21 −1 −1 0 01 1 1 −3 −1

.

Se sommiamo alla II riga di A la prima moltiplicata per −2, alla II la I moltiplicata per−1 ed alla IV la I moltiplicata per −1 otteniamo

1 1 1 −1 10 −1 −1 5 00 −2 −2 1 −10 0 0 −2 −2

;

ora se in questa nuova matrice sommiamo alla III riga la seconda moltiplicata per −2troviamo

1 1 1 −1 10 −1 −1 5 00 0 0 −9 −10 0 0 −2 −2

.

Page 45: Algebra Lineare e Geometria Ottimo

3.5 Applicazioni ai sistemi lineari 27

Infine se sommiamo alla IV riga la II moltiplicata per −29

risulta

B =

1 1 1 −1 10 −1 −1 5 00 0 0 −9 −1

0 0 0 0 −169

.

La matrice B è ottenuta mediante operazioni elementari dalla A quindi è ad essa equiva-lente, allora, in virtù del Teorema 3.2 il sistema (3.5) ha le stesse soluzioni del sistemache ha la B come matrice completa; cioè equivale al sistema

x + y + z− t = 1−y− z + 5t = 0

−9t = −1

0 = −169

che è palesemente impossibile.

Nella risoluzione data nell’esempio 3.5 abbiamo “ridotto” la matrice A ad unamatrice equivalente “più semplice” nel senso precisato dalla seguente

DEFINIZIONE 3.5. Una matrice A di tipo (m, n) di elemento generico aij si diceridotta (per righe) se in ogni riga che non contiene solo zeri esiste un elementoaij 6= 0 tale che per ogni k con i < k ≤ m si ha akj = 0.

Il procedimento illustrato è sempre possibile in quanto sussiste il

Teorema 3.3. Sia A una matrice qualsiasi, allora esiste una matrice B ridotta per righeequivalente alla A.

Possiamo ora introdurre ora il fondamentale concetto di rango di una matrice6.

DEFINIZIONE 3.6. Si dice rango (o caratteristica) di una matrice A il numerodelle righe di una matrice ridotta A1 equivalente alla A che non contengono solozeri.

Scriveremo r(A) per indicare il rango della matrice A; notiamo che r(A) è unnumero intero positivo (nullo se e solo se A = 0) ed è tale che, se A è di tipo(m, n), vale la relazione r(A) ≤ min(m, n).

Siccome la matrice ridotta per righe equivalente alla matrice A dipende dalleoperazioni elementari effettuate, essa non è unica, dunque la definizione (3.6)

6Vedremo più avanti, a pagina 48, che il concetto di rango qui anticipato può essere definito in manieraformalmente molto diversa a partire dalla definizione di determinante di una matrice quadrata.

Page 46: Algebra Lineare e Geometria Ottimo

28 Matrici

è ben posta solo se il numero delle righe che non contengono solo zeri di unamatrice ridotta Ai equivalente ad A non dipende dalle operazioni elementarieffettuate sulla matrice Ai. Infatti si può dimostrare il

Teorema 3.4. Siano A1 e A2 due matrici ridotte equivalenti alla stessa matrice A.Allora il numero delle righe che non contengono solo zeri è lo stesso in A1 e A2, cioèr(A) = r(A1) = r(A2).

Con i concetti introdotti possiamo enunciare il fondamentale

Teorema 3.5 (di Rouché-Capelli). 7 Sia A la matrice dei coefficienti di un sistemalineare e sia B la matrice completa, allora il sistema è possibile se e solo se

r(A) = r(B).

Una dimostrazione del Teorema 3.5 verrà data più avanti, a pagina 54.Una soluzione di un sistema lineare di m equazioni in n incognite è costituita,

come abbiamo visto, da una n–pla ordinata di numeri. Abbiamo chiamato talen–pla vettore; possiamo pensare ad un vettore come una matrice di tipo (1, n)(vettore riga) o (n, 1) (vettore colonna).

3.6. L’algoritmo di Gauss

Ricordiamo che un sistema lineare è costituito da un certo numero m di equa-zioni in un certo numero n di incognite.8 Una soluzione di un sistema lineareè quindi costituita da una n–pla ordinata di valori che sostituita alle incognitesoddisfa tutte le m equazioni.

Come abbiamo visto, un sistema lineare può ammettere una o infinite soluzionioppure non esssere risolubile. Per risolvere un sistema lineare esistono vari metodielementari, ben noti, ma che diventano scomodi quando il numero delle incogniteè superiore a 2 o 3.

Un algoritmo spesso usato, che funziona sempre, è il cosiddetto algoritmo diGauss9.

L’agoritmo si basa sul seguente

Teorema 3.6 (di Gauss). Se un sistema lineare è ottenuto da un altro con una delleseguenti operazioni:

i) scambio di due equazioni

ii) moltiplicazione di ambo i membri di un’equazione per una costante non nulla7Eugene ROUCHE’, 1832, Somméres, Gard (Francia) – 1910, Lunelle (Francia).

Alfredo CAPELLI, 1855, Milano – 1910, Napoli.8Non si esclude, a priori, che possa essere m = n.9Karl Fredrich Gauss 1777 (Brunswick) - 1855 (Göttingen) uno dei più grandi matematici di tutti i tempi.

Page 47: Algebra Lineare e Geometria Ottimo

3.6 L’algoritmo di Gauss 29

iii) un’equazione è sostituita dalla somma di se stessa con un multiplo di un’altra.

allora i due sistemi hanno le stesse soluzioni.

e verrà illustrato mediante alcuni esempi.

Esempio 3.6. Sia da risolvere il sistema3x3 = 9

x1 + 5x2 − 2x3 = 213

x1 + 2x2 = 3

Possiamo effettuare le seguenti operazioni:

i) scambiamo la prima riga con la terza:13

x1 + 2x2 = 3

x1 + 5x2 − 2x3 = 23x3 = 9

;

ii) moltiplichiamo la prima riga per 3:x1 + 6x2 = 9

x1 + 5x2 − 2x3 = 23x3 = 9

;

iii) aggiungiamo la prima riga moltiplicata per −1 alla seconda:x1 + 6x2 = 9−x2 − 2x3 = −7

3x3 = 9.

Ormai il sistema è risolto: dalla terza equazione si ha x3 = 3 da cui x2 = 1 e x1 = 3.

L’algoritmo di Gauss funziona anche quando il numero delle equazioni èdiverso dal numero delle incognite m 6= n

Esempio 3.7. Sia dato il sistema x + 3y = 12x + y = −3

2x + 2y = −2

Page 48: Algebra Lineare e Geometria Ottimo

30 Matrici

in cui m > n. Aggiungendo alla seconda ed alla terza riga la prima moltiplicata per −2si ha il sistema equivalente

x + 3y = 1−5y = −5−4y = −4

.

A questo punto è già chiaro che l’unica soluzione è x = −2 e y = 1. In ogni caso,proseguendo l’algoritmo si può aggiungere alla terza riga la seconda moltiplicata per −4

5ottenendo

x + 3y = 1−5y = −5

0 = 0.

L’ultima uguaglianza è un’identità a riprova del fatto che le equazioni sono ridondanti.

Nel caso in cui il sistema fosse impossibile procedendo con l’algoritmo si arrivaad una contraddizione.

Esempio 3.8. Sia dato il sistema x + 3y = 12x + y = −3

2x + 2y = 0

Sempre aggiungendo alla seconda ed alla terza riga la prima moltiplicata per −2 si ha ilsistema equivalente

x + 3y = 1−5y = −5−4y = −2

;

a questo punto, però, aggiungendo alla terza riga la seconda moltiplicata per −45 si

ottiene x + 3y = 1−5y = −5

0 = 2.

Quindi una palese contraddizione: possiamo concludere dunque che il sistema datonon ammette soluzioni, o, come più comunemente ma meno propriamente si dice, èimpossibile.

Un sistema lineare può anche avere infinite soluzioni:

Page 49: Algebra Lineare e Geometria Ottimo

3.6 L’algoritmo di Gauss 31

Esempio 3.9. Consideriamo il sistema

x + y = 42x + 2y = 8

ed applicando l’algoritmo di

Gauss (sommando alla seconda riga la prima moltiplicata per−2) si ottiene

x + y = 40 = 0

da cui si vede che la seconda equazione è inutile, quindi la soluzione è data da tutte leinfinite coppie di numeri che hanno come somma 4, che possiamo scrivere, ad esempio,come x = t y = 4− t.

Page 50: Algebra Lineare e Geometria Ottimo
Page 51: Algebra Lineare e Geometria Ottimo

4. Spazi vettoriali

Avete già sentito parlare di vettori, probabilmente avrete visto i vettori inFisica, visualizzati come segmenti orientati. Completiamo e formalizziamo orale nozioni viste.

4.1. Definizioni e prime proprietà

In generale diamo la seguente

DEFINIZIONE 4.1. Chiamiamo spazio vettoriale su R e indichiamo con Rn l’in-sieme delle n–ple ordinate di numeri reali ed indichiamo con~v ciascuna di questen–ple, cioè ~v = [x1, x2, . . . , xn], chiediamo inoltre che in Rn siano definite dueoperazioni: la somma componente per componente cioè

[x1, x2, . . . , xn] + [y1, y2, . . . , yn] = [x1 + y1, x2 + y2, . . . , xn + yn]

ed un prodotto esterno o prodotto per uno scalare

α[x1, x2, . . . , xn] = [αx1, αx2, . . . , αxn]

dove α è un numero reale qualsiasi. Chiamiamo vettori le n–ple e scalari i numerida cui essi sono formati.

Le proprietà di queste due operazioni sono elencate nella Tabella 4.1, in cui α eβ sono numeri reali e ~v e ~w sono n–ple di numeri reali.

Tabella 4.1. Proprietà degli spazi vettoriali

i) ~v + (~w + ~u) = (~v + ~w) + ~u associatività della sommaii) ~v + ~w = ~w +~v commutatività della sommaiii) 0 +~v = ~v esistenza del vettore nulloiv) ~v + (−~v) = 0 esistenza del vettore oppostov) α(~v + ~w) = α~v + α~w distributività rispetto alla somma di vettorivi) (α + β)~v = α~v + β~v distributività rispetto alla somma di scalarivii) α(β~v) = (αβ)~v associatività mistaviii) 1 ·~v = ~v esistenza dell’unitàix) 0 ·~v = 0

Page 52: Algebra Lineare e Geometria Ottimo

34 Spazi vettoriali

Si verifica immediatamente che lo spazio vettoriale Rn soddisfa alle proprietàindicate in Tabella 4.1 nella pagina precedente, in cui abbiamo indicato con 0 ilvettore nullo, cioè quello che ha tutte le componenti uguali a 0 e con−~v il vettoreopposto di ~v cioè quello le cui componenti sono gli opposti delle componenti di~v.

Si può generalizzare il concetto di spazio vettoriale su un campo qualsiasi K

dando la seguente

DEFINIZIONE 4.2. Uno spazio vettoriale V su K è costituito da un insieme V eda un campo K; sugli elementi1 di V sono definite due operazioni, una sommaed un prodotto esterno, che godono delle proprietà i) . . . vii), elencate nellatabella 4.1 nella pagina precedente in cui ~v e ~w sono elementi di V e α, β ∈ K.Gli elementi di uno spazio vettoriale V si chiamano vettori, e scalari gli elementidel campo su cui esso è costruito.

Esempi di spazi vettoriali diversi da Rn sono (verificarlo per esercizio2):

• Le matrici di tipo (m, n) rispetto alle operazioni di somma e prodotto peruno scalare definite nel capitolo 3.

• I polinomi in una indeterminata sul campo reale, rispetto alle usuali sommae prodotto per uno scalare.

Riprendiamo ora un concetto fondamentale, già introdotto per le matrici nel§ 3.2.3 a pagina 19

DEFINIZIONE 4.3. Come per le matrici, si dice che il vettore ~w è combinazionelineare dei k vettori ~v1,~v2, . . . ,~vk se esistono k scalari α1, α2, . . . , αk tali che

~w =k

∑i=1

αi~vi. (4.1)

Fissiamo ora k vettori e consideriamo la loro combinazione lineare

0 =k

∑i=1

αi~vi. (4.2)

È ovvio che la (4.2) è verificata quando tutti gli αi sono nulli. Può però accadereche una combinazione lineare di vettori dia il vettore nullo senza che tutti icoefficienti siano nulli. In tal caso i vettori si chiamano linearmente dipendenti incaso contrario, cioè se la (4.2) vale solo quando tutti gli αi sono nulli, si dice che ivettori sono linearmente indipendenti, quindi diamo la seguente

1Sulla natura degli elementi di V non si fa nessuna ipotesi.2Per verificare che un insieme V è uno spazio vettoriale bisogna verificare anzitutto che la somma di due

elementi di V appartenga ancora a V e che il prodotto di un elemento di V per uno scalare sia ancora unelemento di V, poi che valgano le proprietà i)—vii) della tabella 4.1 nella pagina precedente.

Page 53: Algebra Lineare e Geometria Ottimo

4.2 Sottospazi e basi 35

DEFINIZIONE 4.4. n vettori si dicono linearmente dipendenti se esiste una lorocombinazione lineare

n

∑i=1

αi~vi

uguale al vettore nullo, senza che siano tutti nulli i coefficienti αi

Ad esempio i vettori ~v = [1, 2, 1], ~w = [2, 0,−1] e ~u = [3, 2, 0] sono linearmentedipendenti, infatti si ha ~v + ~w− ~u = 0. Invece i vettori~e1 = [1, 0, 0],~e2 = [0, 1, 0]e ~e3 = [0, 0, 1], che chiameremo anche vettori fondamentali, sono linearmenteindipendenti.

Sul concetto di dipendenza lineare sussiste il fondamentale

Teorema 4.1. Siano ~v1,~v2, . . .~vk k vettori, essi sono linearmente dipendenti se e solo sealmeno uno di essi si può scrivere come combinazione lineare degli altri.

Esso è del tutto analogo al Teorema 3.1 a pagina 20 e si dimostra allo stessomodo.

Valgono, per la dipendenza ed indipendenza lineare, le seguenti proprietà:

i) Se un insieme di vettori contiene il vettore nullo, esso è un insieme dipen-dente, infatti, ad esempio, 0 ·~v + 1 · 0 è una combinazione lineare non banale chegenera il vettore nullo.

ii) Aggiungendo un vettore qualsiasi ad un insieme linearmente dipendente,si ottiene ancora un insieme linearmente dipendente, infatti, se, per esempio,v1, v2 . . . , vk sono linearmente dipendenti significa che ∑k

1 αi~vi = 0 con qualcheαi 6= 0 e quindi la combinazione lineare α1~v1 + α2~v2 + · · ·+ αk~vk + 0 ·~vk+1 dàil vettore nullo qualunque sia ~vk+1 sempre con gli stessi coefficienti non nulli.

iii) Togliendo da un insieme indipendente un vettore qualsiasi si ottiene ancoraun insieme indipendente, infatti se ~v1, . . . ,~vn sono indipendenti, significa che∑n

1 αi~vi = 0 solo quando ∀i, αi = 0 quindi, a maggior ragione si ha ∑n−11 αi~vi = 0

solo quando ∀i, αi = 0.

4.2. Sottospazi e basi

DEFINIZIONE 4.5. Sia V uno spazio vettoriale. Un sottoinsieme W ⊆ V sichiama sottospazio di V se, rispetto alle stesse operazioni definite in V, è a suavolta uno spazio vettoriale.

Page 54: Algebra Lineare e Geometria Ottimo

36 Spazi vettoriali

In altre parole W è sottospazio di V se in esso continuano a valere le proprietàdelle operazioni definite in V.

Ad esempio in R3 il sottoinsieme W formato dai vettori le cui componenti sononumeri dispari non è un sottospazio, perché la somma di due vettori cosiffatti èun vettore le cui componenti sono numeri pari e dunque non appartiene a W.Mentre invece lo è quello dei vettori che hanno, per esempio, la terza componentenulla.

In generale per verificare che un certo sottoinsieme W di uno spazio vettorialeV sia un sottospazio basta verificare che sia soddisfatta la seguente proprietà

• W è “chiuso” rispetto alle combinazioni lineari, cioè ogni combinazione linearedi vettori di W è ancora un vettore di W.

Infatti le proprietà degli spazi vettoriali (quelle elencate nella Tabella 4.1 apagina 33) valgono in W in quanto valgono in V e W ⊆ V.

Si osserva subito che una immediata conseguenza di questa proprietà è cheil vettore nullo 0 appartiene a qualunque sottospazio (infatti si ha 0 · ~v = 0qualunque sia ~v).

Se ora consideriamo un certo numero k di vettori ~v1,~v2, . . . ,~vk di uno spaziovettoriale V e formiamo tutte le loro possibili combinazioni lineari otteniamo,come è facile verificare, uno spazio vettoriale W sottospazio di V, cioè W ⊆ V. Ivettori ~vi si chiamano, in questo caso, generatori di W.

DEFINIZIONE 4.6. Un insieme di generatori linearmente indipendenti di unospazio vettoriale V prende il nome di base di V.

Sulle basi è fondamentale il teorema

Teorema 4.2. Se V è uno spazio vettoriale e B è una sua base, ogni vettore di V si puòscrivere in maniera unica come combinazione lineare dei vettori di B.

Dimostrazione. Sia B ≡ ~e1, . . . ,~en la base considerata, allora ogni vettore ~v ∈V si scrive come combinazione lineare degli ~ei in quanto questi ultimi sonogeneratori, inoltre, se, per assurdo,~v si potesse scrivere in due modi diversi come

combinazione lineare dei vettori di B, si avrebbe sia ~v =n∑1

αi~ei sia ~v =n∑1

βi~ei

con qualche αi 6= βi, in tal caso, sottraendo membro a membro, si avrebbe lacombinazione lineare

0 = ∑(αi − βi)~ei (4.3)

ma poichè, per ipotesi, gli ~ei in quanto vettori di una base, sono linearmenteindipendenti, si ha che tutti i coefficienti della combinazione (4.3) devono esserenulli, e quindi ∀i, αi = βi.

Page 55: Algebra Lineare e Geometria Ottimo

4.2 Sottospazi e basi 37

Se in uno spazio vettoriale esiste una base B formata da n vettori, allorapossiamo sostituire p ≤ n vettori di B con altrettanti vettori indipendenti edottenere ancora una base, come precisa il

Teorema 4.3. Sia V uno spazio vettoriale e B = ~e1,~e2, . . .~en una sua base. Se~v1,~v2, . . .~vp sono p ≤ n vettori indipendenti, allora si possono scegliere n− p vettoridi B in modo che l’insieme ~v1,~v2, . . . ,~vp,~ep+1, . . . ,~en sia ancora una base per V.

Dimostrazione. Dobbiamo far vedere che i vettori

~v1,~v2, . . . ,~vp,~ep+1, . . . ,~ensono indipendenti e che generano tutto V. Poiché i ~vi sono indipendenti, fra diessi non c’è il vettore nullo. Inoltre ~v1 è un vettore di V quindi

~v1 =n

∑1

αi~ei (4.4)

in quanto gli ~ei formano una base. Mostriamo che ~v1,~e2, . . . ,~en formano aloro volta una base: consideriamo una loro combinazione lineare che dia ilvettore nullo, sia β1~v1 + β2~e2 + · · · + βn~en = 0. Se β1 = 0 allora si ha β2~e2 +· · ·+ βn~en = 0 e dall’indipendenza dei vettori~ei segue che ∀i, βi = 0. Se fosse

invece β1 6= 0 potrei scrivere ~v1 = − 1β1

n∑2

βi~ei ma ricordando che vale la (4.4) e

per l’unicità della rappresentazione di un vettore mediante gli elementi di unabase, concludiamo che i vettori sono indipendenti. Allo stesso modo si procedesostituendo di volta in volta un’altro vettore ~vi ad uno della base.

Dalla definizione 4.6 segue inoltre che qualunque insieme di vettori indipen-denti generatori V costituisce una base per V, quindi che uno stesso spaziovettoriale V ha infinite basi; di più sussiste anche il

Teorema 4.4. Sia V uno spazio vettoriale, se una base di V è formata da n vettori, alloraqualunque base è formata da n vettori.

Dimostrazione. Infatti è facile vedere che qualunque (n− k)–pla di vettori nonpuò generare tutto V e viceversa che ogni insieme di n + 1 vettori è formato davettori linearmente dipendenti in quanto ogni vettore di V si esprime, in virtùdel Teorema 4.2, come combinazione lineare degli n vettori della base, quindil’n + 1–esimo non può essere indipendente dagli altri.

Il numero n dei vettori di una base non dipende allora dalla scelta della basestessa, ma caratterizza lo spazio V e prende il nome di dimensione di V.

Lo spazio vettoriale costituito dal solo vettore nullo ha, per convenzione,dimensione 0. Si può anche osservare che se V è uno spazio vettoriale di di-mensione n allora qualsiasi insieme di k < n vettori indipendenti può esserecompletato ad una base di V aggiungendo altri n− k vettori indipendenti.

Page 56: Algebra Lineare e Geometria Ottimo

38 Spazi vettoriali

OSSERVAZIONE 4.1. Da quanto detto si deduce anche che in uno spazio vet-toriale V di dimensione n, qualunque n–pla di vettori indipendenti forma unabase per V.

OSSERVAZIONE 4.2. Tutti gli spazi vettoriali fin qui considerati hanno dimensio-ne n finita, ma è facile rendersi conto che esistono spazi vettoriali che non hannodimensione finita, per esempio se V = P(x) è l’insieme dei polinomi in unaideterminata sul campo reale con le usuali operazioni di somma e di prodotto peruno scalare si vede subito che V è uno spazio vettoriale; tuttavia se si supponeche esistano p polinomi che generano V e se n è il grado massimo di questipolinomi, è ovvio che nessun polinomio di grado m > n può essere generatoda questi. Quindi V = P(x) rappresenta un’esempio di spazio vettoriale didimensione infinita. Noi ci occuperemo quasi esclusivamente di spazi vettorialidi dimensione finita.

Sorge il problema di come si possa, in uno stesso spazio vettoriale V, passareda una base ad un’altra, cioè quali siano le relazioni che legano i vettori di unabase a quelli di un’altra. Siano B~e1, . . . ,~en e B′~f1, . . . , ~fn due basi distintedi uno stesso spazio vettoriale V. I vettori ~fi, in quanto vettori di V si esprimonocome combinazione lineare dei vettori~ei di B, quindi si ha il sistema lineare:

~f1 = a11~e1 + a12~e2 + · · ·+ a1n~en

~f2 = a21~e1 + a22~e2 + · · ·+ a2n~en

. . . . . . . . . . . . . . . . . . . . . . . . . . .~fn = an1~e1 + an2~e2 + · · ·+ ann~en

(4.5)

La matrice dei coefficienti del sistema (4.5)

A =

a11 a12 · · · a1na21 a22 · · · a2n...

......

...an1 an2 · · · ann

costituisce la matrice di passaggio dalla base B alla base B′.

È facile verificare che l’intersezione insiemistica V ∩W di sottospazi è a suavolta un sottospazio (dimostrarlo per esercizio); due spazi vettoriali V e Whanno sempre in comune almeno il vettore nullo, nel caso in cui questo sial’unico vettore in comune si dice che sono disgiunti e si scrive V ∩W = 0:abbiamo già osservato che l’insieme formato dal solo vettore nullo è consideratouno spazio vettoriale. Invece l’unione di due sottospazi non è detto sia unsottospazio: infatti potrebbe non essere chiusa rispetto alle combinazioni lineari,come mostra il seguente

Page 57: Algebra Lineare e Geometria Ottimo

4.2 Sottospazi e basi 39

Esempio 4.1. Consideriamo in R3 i due sottospazi V = [x, y, z] | x = y formatodai vettori di R3 che hanno le prime due componenti uguali e W = [x, y, z] | z = 0,formato dai vettori di R3 che hanno la terza componente nulla, allora si ha

V ∪W = [x, y, z] | x = y oppure z = 0e se prendiamo ~v = [0, 0, 1] ∈ V e ~w = [1, 0, 0] ∈ W osserviamo che sia ~v sia ~wappartengono a V ∪W, ma il vettore ~v + ~w = [1, 0, 1] non ha uguali le prime duecomponenti nè ha la terza componente nulla, quindi ~v + ~w 6∈ V ∪W. Dunque l’insiemeV ∪W non è chiuso rispetto alla somma e di conseguenza non è un sottospazio di R3.

Sulla dimensione dei sottospazi di uno spazio vettoriale sussiste anche il

Teorema 4.5. Sia V uno spazio vettoriale di dimensione n e sia W un suo sottospazioallora

i) W ha dimensione finita

ii) dim(W) ≤ dim(V)

iii) se dim(W) = dim(V) allora W = V

Dimostrazione. Se W = 0 la i) e la ii) sono ovvie. Sia quindi ~w 6= 0 esia ~w1 un vettore di W, se ~w1 genera W allora dimW = 1 e poiché in V vi èalmeno un vettore indipendente segue che dimV ≥ 1 e quindi la i) e la ii) sonodimostrate. Se invece ~w1 non genera W allora esiste in W almeno un altro vettore~w2 indipendente da ~w1. Se ~w1 e ~w2 generano W allora dim(W) = 2 e, comenel caso precedente dim(V) ≥ 2 e così via. Il procedimento ha termine perun certo numero m ≤ n grazie al fatto che in V non possono esserci più di nvettori indipendenti. Se inoltre dim(W) = dim(V) significa che W è generatoda n vettori indipendenti, che per l’oservazione 4.1 generano anche V, quindi èdimostrata anche la iii).

Un’altra operazione tra sottospazi è la somma di sottospazi.

DEFINIZIONE 4.7. Se V e U sono due sottospazi di uno stesso spazio vettorialediciamo che W è somma di U e V se i vettori di W sono tutti e soli quelli che siesprimono come somma di un vettore di U e di uno di V cioè

W = U + V = ~w|~w = ~u +~v, con ~u ∈ U, ~v ∈ V

Si dimostra facilmente (farlo per esercizio) che la somma di sottospazi è asua volta un sottospazio. Naturalmente non è detto che la scomposizione delvettore w sia unica, questo avviene, però, se e solo se i due spazi sono disgiunti;in questo caso diciamo che la somma è diretta e scriviamo

U ⊕V.

Sussiste infatti il

Page 58: Algebra Lineare e Geometria Ottimo

40 Spazi vettoriali

Teorema 4.6. Siano U e W due sottospazi di V, e sia ~v ∈ V; allora la scomposizione~v = ~u + ~w con ~u ∈ U e ~w ∈W è unica se e solo se V = U ⊕W.

Dimostrazione. Sia V = U ⊕W; per definizione di somma di sottospazi esisteuna coppia di vettori ~u ∈ U e ~w ∈ W tali che ~v = ~u + ~w; dobbiamo dimostrareche tale coppia è unica, infatti se fosse anche ~v = ~u′ + ~w′ (con ~u′ ∈ U e ~w′ ∈W)si avrebbe ~u + ~w = ~u′ + ~w′ e quindi ~u− ~u′ = ~w′ − ~w, da cui segue che il vettore~u− ~u′ appartenendo sia a U che a W e di conseguenza alla loro intersezione è ilvettore nullo; dunque dev’essere ~u = ~u′ e ~w = ~w′.

Viceversa supponiamo che sia ~v = ~u + ~w in un unico modo e facciamo vedereche U ∩W = 0. Supponiamo per assurdo che esista un vettore ~z ∈ U ∩Wdiverso dal vettore nullo, allora anche i vettori ~u +~z e ~w −~z, appartenentirispettivamente a U e W avrebbero come somma ~v contro l’ipotesi dell’unicitàdella decomposizione.

Sulla dimensione dello spazio somma di due sottospazi vale la relazione (diGrassmann3)

dim(U + V) = dimU + dimV − dim(U ∩V), (4.6)

che diventa, se la somma è diretta,

dim(U ⊕V) = dimU + dimV.

cioè la dimensione della somma diretta di due sottospazi è uguale alla sommadelle loro dimensioni.

•• •• • •• • • •

︸ ︷︷ ︸

n elementi

Figura 4.1. Matrici triangolari

Esempio 4.2. Sia Tn lo spazio vettoriale delle matrici triangolari alte e sia Tn quellodelle triangolari basse. Vogliamo verificare la (4.6). Osserviamo che Tn ∩ Tn = Dn dovecon Dn abbiamo indicato lo spazio vettoriale delle matrici diagonali e che Mn = Tn + Tnlo spazio vettoriale delle matrici quadrate è somma (non diretta) di quello delle matricitriangolari basse e di quello delle matrici triangolari alte. Dalla figura 4.1 si vede subitoche gli elementi non certamente nulli in Tn ed in Tn sono: 1 nella prima riga 2 nella

3Herrmann Günther GRASSMANN, 1809, Stettino (Germania-odierna Polonia) – 1877, Stettino (Germania-odierna Polonia).

Page 59: Algebra Lineare e Geometria Ottimo

4.2 Sottospazi e basi 41

seconda ecc. quindi in totale si ha 1 + 2 + · · ·+ n =n(n + 1)

2; dunque possiamo dire

che dim(Tn) = dim(Tn) =n(n + 1)

2, inoltre dim(Dn) = n e dim(Mn) = n2 ed

infatti, applicando la ( 4.6 a fronte), si ha

n2 =n(n + 1)

2+

n(n + 1)2

− n.

Page 60: Algebra Lineare e Geometria Ottimo
Page 61: Algebra Lineare e Geometria Ottimo

5. Determinante e rango di una matrice.Matrice inversa

Sia Mn l’insieme delle matrici quadrate di ordine n ed A ∈Mn. Il determinantedi A è il valore di una funzione che ha come dominio Mn e come codominio R

o C (a seconda che gli elementi di A siano numeri reali o complessi1), quindidet : Mn 7→ R oppure det : Mn 7→ C.

5.1. Definizioni di determinante

Definiremo il determinante di una matrice quadrata prima in maniera ricorsivapoi in maniera classica.

5.1.1. Definizione ricorsiva

Definiamo il determinante in maniera ricorsiva, cominciando con il definire ildeterminante di una matrice di ordine 2 ed osservando come si può estenderequesta definizione al caso di una matrice di ordine qualsiasi.

DEFINIZIONE 5.1. Sia A =

[a bc d

]quadrata di ordine 2, allora il determinante

di A è det(A) = ad− bc.

Esempio 5.1. Il determinante della matrice A =

[1 −23 1

]è det(A) =

∣∣∣∣1 −23 1

∣∣∣∣ =1 · 1− (−2) · 3 = 7.

Osserviamo che il determinante della matrice A =

[x yz t

]si può indicare in

uno qualsiasi dei seguenti modi: det A, det(A), |A|,∣∣∣∣x yz t

∣∣∣∣.Diamo ora una definizione ricorsiva che permette di calcolare il determinante

di una matrice di ordine qualsiasi quando si sappia calcolare il determinante diuna matrice di ordine 2.

Per far questo introduciamo prima una notazione: se A è quadrata di ordine nchiameremo minore complementare dell’elemento aik e lo indicheremo con Mik il

1Se le matrici sono definite su un campo qualsiasi K il codominio sarà K.

Page 62: Algebra Lineare e Geometria Ottimo

44 Determinante e rango di una matrice. Matrice inversa

determinante della sottomatrice che si ottiene da A cancellando la i–esima rigae la k–esima colonna. Chiamiamo poi complemento algebrico dell’elemento aik (elo indicheremo con Aik) il determinante della sottomatrice (di ordine n− 1) chesi ottiene da A cancellando la i–esima riga e la k–esima colonna, con il propriosegno se i + k è pari, col segno opposto se i + k è dispari, cioè

Aik = (−1)i+k Mik.

Esempio 5.2. Se A =

a b c1 2 3x y z

allora il complemento algebrico dell’elemento a11 = a

è A11 =

∣∣∣∣2 3y z

∣∣∣∣ = 2z − 3y e quello dell’elemento a23 = 3 è A23 = −∣∣∣∣a bx y

∣∣∣∣ =

−(ay− bx) = bx− ay.

DEFINIZIONE 5.2. Sia A una matrice quadrata di ordine n: si ha

det(A) =n

∑k=1

aik Aik (5.1)

cioè il determinante è la somma dei prodotti degli elementi di una linea (riga ocolonna) per i rispettivi complementi algebrici.

La definizione 5.2 ci dice, in sostanza, che per calcolare il determinante di unamatrice quadrata di ordine n, possiamo calcolare un certo numero (al massimon) di determinanti di matrici di ordine n− 1, a loro volta questi si determinanocalcolando al più n− 1 determinanti di matrici di ordine n− 2 e così via, quindi,in pratica, basta saper calcolare il determinante di una matrice di ordine 2 conla definizione 5.1 nella pagina precedente ed applicare la ricorsione data nelladefinizione 5.2.

Esempio 5.3. Sia da calcolare il determinante di A =

1 0 −12 1 30 −1 1

; prendiamo in

considerazione la prima riga: abbiamo che il determinante di A è uguale a

1 ·∣∣∣∣ 1 3−1 1

∣∣∣∣− 0 ·∣∣∣∣2 30 1

∣∣∣∣+ (−1) ·∣∣∣∣2 10 −1

∣∣∣∣ = 1 · 4− 0 · 2 + (−1)(−2) = 6. Avremmo

potuto pervenire allo stesso risultato scegliendo un’altra qualsiasi riga o colonna (siconsiglia di provare per esercizio).

5.1.2. Definizione classica

DEFINIZIONE 5.3. Se A è una matrice quadrata di ordine n, chiamiamo prodottoassociato ad A il prodotto di n elementi di A presi in modo tale che in ciascuno diessi non ci siano due elementi appartenenti alla stessa riga od alla stessa colonna.

Page 63: Algebra Lineare e Geometria Ottimo

5.1 Definizioni di determinante 45

Esempio 5.4. Se A =

a b c1 2 3x y z

sono prodotti associati, per esempio i prodotti a2z e

b1z ma non a1y e neppure c3x

Se consideriamo la generica matrice di ordine n

A =

a11 a12 . . . a1na21 a22 . . . a2n...

......

...an1 an2 . . . ann

un prodotto associato può essere indicato con a1k1 a2k2 · · · ankn che abbiamo or-dinato in ordine crescente rispetto ai primi indici e dove k1k2 . . . kn è unaopportuna permutazione dei secondi indici.

Possiamo ora dare la definizione classica di determinante

DEFINIZIONE 5.4. Si chiama determinante della matrice quadrata A la sommadi tutti i possibili prodotti associati ad A, presi ciascuno con il proprio segnoo con il segno opposto a seconda che la permutazione dei secondi indici sia diclasse pari o di classe dispari, cioè, formalmente

det A = ∑(−1)t · a1k1 a2k2 · · · ankn

dove la somma è estesa a tutte le permutazioni dei secondi indici e t è il numerodegli scambi che la permutazione dei secondi indici presenta rispetto alla prima.

Con questa impostazione la definizione 5.2 a fronte diventa un teorema cheprende il nome di

Teorema 5.1 (Primo teorema di Laplace2). Sia A una matrice quadrata di ordine n:si ha

det(A) =n

∑k=1

aik Aik (5.1)

cioè il determinante è la somma dei prodotti degli elementi di una linea (riga o colonna)per i rispettivi complementi algebrici.

Faremo uso anche del

Teorema 5.2 (Secondo teorema di Laplace). La somma dei prodotti degli elementidi una linea (riga o colonna) per i complementi algebrici degli elementi di una lineaparallela è nulla, cioè

∑j

aij Akj = 0. (5.2)

2Pierre-Simon Laplace,23 Marzo 1749 in Beaumont-en-Auge, Normandia, Francia-5 March 1827 in Parigi,Francia

Page 64: Algebra Lineare e Geometria Ottimo

46 Determinante e rango di una matrice. Matrice inversa

5.2. Proprietà del determinante

Dalla definizione 5.2 si ricava, come già detto, che calcolare il determinantedi una matrice di ordine n equivale a calcolare al più n determinanti di ordinen− 1 e quindi al più n(n− 1) di ordine n− 2 e così via. È possibile ridurre esemplificare di molto questi calcoli applicando alcune proprietà dei determinantiche si dimostrano facilmente e che sono elencate nel:

Teorema 5.3. Sia A una matrice quadrata di ordine n, allora sussistono le seguentiproprietà:

i) det(A) = det(AT).; cioè il determinante di una matrice è uguale a quello dellasua trasposta.

ii) Scambiando tra loro due colonne3 di A si ottiene una matrice B tale che det(B) =−det(A).

iii) Se una colonna di A è nulla, allora det(A) = 0 e la matrice si chiama singolare.

iv) Se ad una colonna di A si somma una combinazione lineare di altre colonne, siottiene una matrice B tale che det(B) = det(A).

v) Se due colonne di A sono uguali allora A è singolare, cioè det(A) = 0.

vi) Moltiplicando per un numero α una colonna di A si ottiene una matrice B tale chedet(B) = α det(A).

vii) Se due colonne di A sono proporzionali allora A è singolare.

viii) Se B = αA allora det(B) = αn det(A).

ix) Il determinante di una matrice triangolare (in particolare diagonale) è il prodottodei suoi elementi principali.

Dimostrazione. Diamo un cenno della dimostrazione di alcune delle proprietà: i)è insita nella definizione 5.2; per quanto riguarda la ii) si osserva che scambiandotra loro due colonne cambia la parità di i + k e quindi il segno del determinante;per la iii) basta pensare di sviluppare il determinante rispetto alla colonna nulla;la v) è conseguenza della ii) (perché?); per la vi) basta sviluppare il determinanterispetto alla colonna moltiplicata per α; la vii) è conseguenza della vi) e della v);la viii) segue dalla vi) notando che ogni colonna è moltiplicata per α la ix) derivadalla definizione classica e dal fatto che nelle matrici triangolari l’unico prodottoassociato non certamente nullo è quello formato dagli elementi principali.

3In forza della proprietà i), tutto quello che da qui in poi diciamo sulle colonne vale anche sulle righe.

Page 65: Algebra Lineare e Geometria Ottimo

5.2 Proprietà del determinante 47

Osserviamo che applicazioni successive della proprietà iv) del Teorema 5.3ci permettono di passare dalla matrice A ad un altra matrice avente lo stessodeterminante di A e che ha una linea formata da elementi tutti nulli tranne al più uno.Dunque per calcolare det(A) possiamo limitarci a calcolare un solo determinantedi ordine n− 1; iterando il procedimento possiamo calcolare il determinante diA calcolando un solo determinante di ordine 2.

Esempio 5.5. Consideriamo la matrice A =

1 1 −11 2 −11 1 1

; se alla seconda riga sot-

traiamo la prima otteniamo la matrice B =

1 1 −10 1 01 1 1

che ha lo stesso determinan-

te di A e che possiamo sviluppare secondo gli elementi della seconda riga ottenendo

det(A) = det(B) = 1∣∣∣∣1 −11 1

∣∣∣∣ = 2

Dal Teorema 5.3 nella pagina precedente si ricava anche l’importante risultatodato dal

Teorema 5.4. Una matrice è singolare se e solo se le sue colonne (righe) formano unsistema di vettori linearmente dipendenti.

Dimostrazione. Se i vettori colonna sono linearmente dipendenti allora uno diessi è combinazione lineare degli altri, quindi la matrice è singolare per la pro-prietà. . . , viceversa se det(A) = 0 allora, per le proprietà. . . i vettori che formanole colonne di A. . .

Per il prodotto di matrici vale il seguente teorema, di cui diamo solo l’enunciato

Teorema 5.5 (di Binet4). Se A e B sono due matrici quadrate dello stesso ordine, allora

det(A · B) = det(A) · det(B). (5.3)

Il teorema 5.5 si estende facilmente ad un numero qualsiasi di matrici quadratedello stesso ordine.ATTENZIONE l’analogo del Teorema di Binet per la somma di matrici in generalenon vale cioè si ha che, in generale,

det(A + B) 6= det(A) + det(B). (5.4)

Come esercizio verificare la ( 5.4) su qualche esempio.

4Jacques Philippe Marie BINET,2 Feb 1786 in Rennes, Bretagne, France–12 May 1856 in Paris, France

Page 66: Algebra Lineare e Geometria Ottimo

48 Determinante e rango di una matrice. Matrice inversa

Consideriamo ora il determinante

V(a1, . . . , an) =

∣∣∣∣∣∣∣∣1 a1 a2

1 . . . an−11

1 a2 a22 . . . an−1

2. . . . . . . . . . . . . . .1 an a2

n . . . an−1n

∣∣∣∣∣∣∣∣in cui la prima colonna è formata da tutti 1 (a0

i ∀i) e le altre colonne sono lesuccessive potenze della seconda colonna; esso prende il nome di determinante diVandermonde5; si verifica molto facilmente (farlo, come esercizio) che:

V(a1, . . . , an) = (a2 − a1)(a3 − a1) . . .. . . (a3 − a2) . . .. . . . . .. . . . . . (an − an−1).

Dunque il

Teorema 5.6. Il determinante di Vandermonde è uguale a zero se e solo se almeno duedei suoi argomenti sono uguali.

5.3. Rango di una matrice

Siamo ora in grado di dare un’altra definizione di rango, formalmente diversadalla definizione 3.6 a pagina 27, ma che si dimostra facilmente essere ad essaequivalente. Per far ciò dobbiamo premettere una definizione

DEFINIZIONE 5.5. Se A è di tipo (m, n) (quindi non necessariamente quadrata),si chiama minore di ordine k (k ≤ min(m, n)) il determinante di una qualunquesottomatrice quadrata di A formata da k righe e k colonne di A.

ATTENZIONE non è richiesto che le k righe e le k colonne siano adiacenti.

Esempio 5.6. Se A =

a b c1 2 3x y z

allora sono minori del secondo ordine i determinanti∣∣∣∣2 3y z

∣∣∣∣ oppure∣∣∣∣a cx z

∣∣∣∣ invece il determinante∣∣∣∣a b1 3

∣∣∣∣ non lo è.

DEFINIZIONE 5.6. [di rango] Si chiama rango o caratteristica di una matrice ditipo (m, n) l’ordine massimo dei minori non nulli che si possono estrarre da A.

5Alexandre-Théophile Vandermonde, 28 Feb 1735 in Paris, France – 1 Jan 1796 in Paris, France

Page 67: Algebra Lineare e Geometria Ottimo

5.3 Rango di una matrice 49

Osserviamo esplicitamente che la definizione di rango si applica ad una matricequalsiasi, non necessariamente quadrata, mentre si parla di determinante solo per lematrici quadrate.

La definizione 5.6 nella pagina precedente significa dunque che se dalla matriceA possiamo estrarre un minore di ordine k non nullo e tutti i minori di ordinepiù grande di k sono nulli, allora r(A) = k.

Dalla definizione segue subito che se A è quadrata di ordine n allora essa harango n se e solo se è non singolare, e che, se A è di tipo (m, n), vale la relazione,già vista, r(A) ≤ min(m, n).

Esempio 5.7. sia A =

1 2 3 40 1 0 33 1 4 2

; si osserva subito che r(A) ≤ 3, ma si vede

anche che il minore formato dalle prime tre colonne è diverso da 0, dunque r(A) = 3.

Osserviamo che per il rango di una matrice valgono, tra le altre, le seguentiproprietà, che si ricavano immediatamente dal Teorema 5.3 a pagina 46 e dalTeorema 5.4 a pagina 47.

Teorema 5.7. Due importanti proprietà del rango di una matrice sono:

i) Due matrici ottenute una dall’altra mediante uno scambio di righe o colonne hannolo stesso rango,

ii) Il rango di una matrice è uguale al numero di righe o di colonne linearmenteindipendenti presenti nella matrice stessa.

Sempre dalle proprietà dei determinanti e da quelle del rango (Teoremi 5.3 apagina 46, 5.4 a pagina 47 e 5.7, rispettivamente) segue l’importante

Teorema 5.8. Se la matrice A ha rango r e b è un vettore colonna, allora la matrice A|b,ottenuta completando la A con la colonna b, ha rango r se e solo se b è combinazionelineare delle colonne di A.

Dimostrazione. l’aggiunta di una colonna non può far diminuire il rango e loaumenta se e solo se la colonna è indipendente dalle altre.

5.3.1. Calcolo del rango

Per calcolare il rango di una matrice di tipo (m, n) dobbiamo esaminare tutti iminori di ordine k = min(m, n): se ce n’è uno non nullo il rango è k, se invecesono tutti nulli passeremo ad esaminare quelli di ordine k− 1 e così via; oppure,se “vediamo” un minore di ordine p < k non nullo esamineremo tutti quelli diordine p + 1: se sono tutti nulli il rango è p altrementi sarà r ≥ p + 1 e così via.

Questo procedimento può essere molto abbreviato applicando il Teorema diKroneker 5.9 nella pagina successiva, al quale dobbiamo però premettere la

Page 68: Algebra Lineare e Geometria Ottimo

50 Determinante e rango di una matrice. Matrice inversa

DEFINIZIONE 5.7. Sia A una matrice qualsiasi e sia M una sua sottomatrice;orlare M significa completare la sottomatrice M con una riga ed una colonna diA non appartenenti a M.

Ovviamente la sottomatrice M non è detto sia formata da righe o colonne chein A sono adiacenti, pertanto la riga e la colonna che completano possono ancheessere “interne” come nel seguente

Esempio 5.8. Se A è la matrice

1 2 3 4 5a b c d ex y z k t

, una sua sottomatrice è M =

[3 5z t

]

che può essere orlata con la seconda riga e la quarta colonna di A ottenendo

3 4 5c d ez k t

oppure con la seconda riga e, per esempio la prima colonna, ottenendo

1 3 5a c ex z t

.

Siamo ora in grado di enunciare (senza dimostrazione) il seguente utlissimo

Teorema 5.9 (di Kroneker6). Se in una matrice A esiste un minore M non nullo diordine p e tutti i minori che orlano M sono nulli, allora il rango di A è p.

Il teorema 5.9 permette quindi di limitare il controllo dei minori di ordine p + 1a quelli che orlano il minore M.

Ad esempio vogliamo il rango della matrice A =

1 0 3 22 3 0 13 3 3 3

. Si osserva

subito che il minore M =

[3 03 3

]è diverso da 0, quindi 2 ≤ r(A) ≤ 3. In

virtù del Teorema 5.9 possiamo limitarci a controllare se sono nulli i due minoridel terz’ordine che orlano M (anziché controllare tutti e quattro i minori delterz’ordine di A); i minori che ci interessano sono quelli formati dalla I, II e III

colonna e dalla II, III e IV, cioè: M1 =

1 0 32 3 03 3 3

e M2 =

0 3 23 0 13 3 3

entrambi

palesemente nulli, in quanto in entrambi la terza riga è la somma delle primedue, dunque r(A) = 2.

Una proprietà del rango del prodotto di due matrici, spesso utile nelle applica-zioni. è espressa dal seguente

6Leopold KRONEKER, 1813, Liegnitz, Prussia – 1881, Berlino.

Page 69: Algebra Lineare e Geometria Ottimo

5.4 Matrice inversa 51

Teorema 5.10. Il rango del prodotto di due matrici A e B non supera il rango diciascuna delle due, cioè r(A · B) ≤ r(A) e r(A · B) ≤ r(B), che equivale a scriverer(AB) ≤ min (r(A), r(B)) .

5.4. Matrice inversa

5.4.1. Definizione e proprietà

Sia A una matrice quadrata di ordine n; una matrice B tale che

A · B = B · A = I

prende il nome di inversa di A.Una matrice che ammette inversa è detta invertibile. Sorge il problema di

stabilire quali siano le matrici invertibili e quante inverse esse abbiano.Al primo quesito risponde il seguente

Teorema 5.11. Una matrice A è invertibile se e solo se è non singolare, cioè se e solo sedet(A) 6= 0.

Dimostrazione. Se A ammette come inversa B allora AB = I e dal Teorema (diBinet) 5.5 a pagina 47 si ha

det(A · B) = det(A) · det(B) = det(I) = 1

dunque, per la legge di annullamento del prodotto, nè A nè B possono esseresingolari.

Viceversa, supponiamo che det(A) 6= 0, consideriamo la matrice A∗, dettamatrice dei complementi algebrici, il cui elemento generico αik è il complementoalgebrico dell’elemento aki, cioè αik = Aki. Allora se cik è il generico elementodella matrice AA∗ si ha

cik = ∑j

aijαjk = ∑j

aij Akj =

=

det A se i = k, primo Teorema di Laplace 5.10 se i 6= k, secondo Teorema di Laplace 5.2

;

questo significa che

A · A∗ =

det(A) 0 . . . 0

0 det(A) . . . 0...

......

...0 0 . . . det(A)

= det(A) · I

e quindi che la matriceA∗

det(A)è un’inversa di A.

Page 70: Algebra Lineare e Geometria Ottimo

52 Determinante e rango di una matrice. Matrice inversa

Al secondo quesito risponde il

Teorema 5.12. Se l’inversa di A esiste, essa è unica.

Dimostrazione. Dimostriamo il teorema per assurdo e supponiamo che B e Csiano due inverse di A; allora si ha: AB = I = AC ma anche, moltiplicandoa sinistra per B, B(AB) = B(AC) e, per l’associatività del prodotto di matrici,(BA)B = (BA)C da cui B = C.

L’unica inversa di una matrice invertibile A sarà, d’ora in poi, indicata conA−1.

Le principali proprietà delle matrici invertibili sono date dal

Teorema 5.13. Per le matrici invertibili valgono le seguenti proprietà:

i) Se A è invertibile, allora AB = AC implica B = C.

ii) Se A è invertibile, allora BA = CA implica B = C.

iii) Se A e B sono due matrici quadrate tali che AB = 0 allora sussiste uno ed unosolo dei seguenti casi

a) né A né B sono invertibili.b) A è invertibile, e allora B è la matrice nulla.c) B è invertibile, e allora A è la matrice nulla.

iv) Se A e B sono invertibili, allora il prodotto AB è invertibile e si ha (AB)−1 =B−1A−1;

Dimostrazione. i) Basta moltiplicare a sinistra ambo i membri per A−1.

ii) Basta moltiplicare a destra ambo i membri per A−1.

iii) Se AB = 0 almeno una delle due matrici è singolare per il Teorema di Binet( 5.5 a pagina 47).

iv) Infatti, dal teorema di Binet si ricava che il prodotto di matrici non singolariè non singolare e si può scrivere

B−1A−1AB = B−1(A−1A)B = B−1B = I

in cui abbiamo applicato l’associatività del prodotto.

Concludiamo il capitolo osservando che anche per le matrici non singolari sipuò parlare di potenza ad esponente negativo, definendo A−h come l’inversadi Ah. Per esercizio dimostrare che A−h pensata come inversa di Ah è anche lapotenza h–esima di A−1.

Page 71: Algebra Lineare e Geometria Ottimo

6. Teoria dei sistemi lineari

Abbiamo ora in mano tutti gli strumenti necessari per completare lo studiodei sistemi lineari; in particolare per decidere quando un sistema è possibile equante soluzioni ammette, cioè per studiare la teoria dei sistemi lineari.

Ricordiamo che, per l’appunto, questa teoria si riferisce solo ai sistemi lieari, e non èapplicabile a sistemi di grado superiore al primo.

6.1. Teoremi sui sistemi lineari

Cominciamo a considerare il caso particolare di un sistema in cui il numerodelle equazioni (diciamo n) è uguale a quello delle incognite. In questo casosussiste il

Teorema 6.1 (di Cramer). 1 Un sistema lineare di n equazioni in n incognite Ax = b lacui matrice dei coefficienti sia non singolare ammette una ed una sola soluzione costituitadalla n–pla

x1 =det(A1)

det(A), x2 =

det(A2)

det(A), . . . , xn =

det(An)

det(A),

dove Ai è la matrice ottenuta dalla A sostituendo al posto della i–esima colonna lacolonna dei termini noti.

Dimostrazione. Il sistema può essere scritto, in forma matriciale, come Ax =b e la matrice A è, per ipotesi, non singolare, dunque esiste A−1. Allora siha, moltiplicando a sinistra per A−1 entrambi i membri, A−1Ax = A−1b e

quindi x = A−1b. Ma ricordando che A−1 =A∗

det(A)si ha x =

1det(A)

A∗b;

osserviamo ora che A∗b è un vettore colonna, ciascuno dei componenti del qualeè, ricordando la definizione 5.2 a pagina 44, il det(Ai).

Per un generico sistema lineare, in cui il numero delle equazioni non è neces-sariamente uguale a quello delle incognite, vale il Teorema ( 3.5 a pagina 28) diRouché-Capelli, di cui qui diamo una dimostrazione basata sulla definizione dirango 5.6 a pagina 48 che abbiamo visto nel capitolo precedente.

Ricordiamo l’enunciato del Teorema 3.5:1Gabriel CRAMER, 1704, Ginevra – 1752, Bagnols sur Céze (Francia).

Page 72: Algebra Lineare e Geometria Ottimo

54 Teoria dei sistemi lineari

Teorema (3.5 di Rouché–Capelli). Sia Ax = b un sistema lineare di m equazioni inn incognite; esso ammette soluzioni se e solo se r(A) = r(A|b) dove con A|b abbiamoindicato la matrice ottenuta da A completandola con la colonna dei termini noti.

Dimostrazione. SiaAx = b (6.1)

un sistema lineare di m equazioni in n incognite e immaginiamo di scrivere lamatrice A = [A1 A2 . . . An] scomposta in blocchi formati ciascuno da una dellesue colonne, che indicheremo con Ai. Allora la relazione (6.1) si può scriverecome

~A1x1 + ~A2x2 + · · · ~Anxn =~b

e quindi ci dice che il sistema è possibile se e solo se b è combinazione linearedelle colonne Ai. Ma allora, in virtù del Teorema 5.8 a pagina 49 questo accadese e solo se il rango di A è uguale al rango della matrice completa.

Segue anche, sia dal Teorema 3.5, sia dalla definizione di rango data nelprecedente capitolo, che se un sistema possibile ha rango r, esistono esattamenter equazioni e r incognite indipendenti, dunque le altre m− r equazioni sonocombinazione lineare delle r indipendenti e non dicono nulla di nuovo, quindisi possono trascurare, e le altre n − r incognite si possono considerare comeparametri; dunque

OSSERVAZIONE 6.1. Un sistema lineare possibile di m equazioni in n incognite incui il rango della matrice dei coefficienti sia r < n ammette ∞n−r soluzioni, cioèinfinite soluzioni dipendenti da n− r parametri. Se r = n il sistema equivale adun sistema di r equazioni in r incognite con matrice dei coefficienti non singolare,quindi ammette una ed una sola soluzione per il Teorema di Cramer ( 6.1 nellapagina precedente).

Se il vettore~b = 0 è il vettore nullo, il sistema Ax = 0 si chiama omogeneo.Segue immediatamente dalla definizione (e dal teorema 3.5) che un sistemaomogeneo è sempre possibile ed ammette sempre come soluzione banale ilvettore nullo. Siamo quindi interessati ad eventuali soluzioni non banali (detteanche autosoluzioni). Una semplice conseguenza del Teorema di Cramer (6.1) è il

Corollario 6.2. Un sistema omogeneo di n equazioni in n incognite Ax = 0 ammettesoluzioni non banali se e solo se det(A) = 0.

Poichè aggiungendo ad una matrice una colonna nulla il rango non cambia,segue dal teorema di Rouché-Capelli ( 3.5 a pagina 28) e dall’Osservazione 6.1, il

Corollario 6.3. Un sistema omogeneo di m equazioni in n incognite ammette autosolu-zioni se e solo se r(A) < n.

Page 73: Algebra Lineare e Geometria Ottimo

6.1 Teoremi sui sistemi lineari 55

Se il rango della matrice dei coefficienti è r allora il sistema possiede n − rsoluzioni indipendenti, nel senso che tutte le altre, che, ricordiamo, sono infinite,sono combinazioni lineari delle precedenti.

Esempio 6.1. Consideriamo il sistemahx + z = h

(h + 2)x + 3y = 3(h− 2)y + z = h− 1

.

Si tratta di un sistema di tre equazioni in tre incognite, applichiamo quindi il Teorema di

Cramer. Il determinante dei coefficienti è:∣∣∣∣ h 0 1

h+2 3 00 h−2 1

∣∣∣∣ = (h− 1)(h + 4).

Quindi per h 6= 1 e h 6= −4 il sistema ammette una ed una sola soluzione:

x =

∣∣∣∣∣∣h 0 13 3 0

h− 1 h− 2 1

∣∣∣∣∣∣(h− 1)(h + 4)

, y =

∣∣∣∣∣∣h h 1

h + 2 3 00 h− 1 1

∣∣∣∣∣∣(h− 1)(h + 4)

, z =

∣∣∣∣∣∣h 0 h

h + 2 3 30 h− 2 h− 1

∣∣∣∣∣∣(h− 1)(h + 4)

.

Per h = 1 si ha x + z = 1x + y = 1y− z = 0

che ammette le ∞1 soluzioni x = k, y = 1− k, z = 1− k.Per h = −4 il sistema diventa

4x− z = 42x− 3y = −3

6y− z = 5

in cui la matrice dei coefficienti ha rango 2 mentre quella completa ha rango 3, pertantoil sistema è impossibile.

Esempio 6.2. Discutiamo il sistemahx + (h + 2)y = 0

(h + 2)y = h(h + 1)x = 1

di tre equazioni in due incognite. Se la matrice completa (di ordine 3) non è singolare,ha rango 3 e quindi il sistema è impossibile, perché la matrice dei coefficienti è di tipo

Page 74: Algebra Lineare e Geometria Ottimo

56 Teoria dei sistemi lineari

(3, 2), e di conseguenza ha rango al più uguale a 2; quindi i valori di h per cui il sistemapuò essere possibile sono da ricercare solo tra quelli che annullano il determinante dellamatrice completa, nel nostro caso h = 0 e h = −2. Per tutti gli altri valori il sistema ècertamente impossibile. Per h = 0 il sistema diventa

y = 0y = 0x = 1

e quindi la soluzione è x = 1, y = 0; per h = −2 si hax = 0

0 = −2−x = 1

manifestamente impossibile (verificare che in questo caso i due ranghi sono diversi).

OSSERVAZIONE 6.2. Consideriamo un sistema lineare S : Ax = b; il sistemalineare omogeneo Ax = 0 che ha la stessa matrice dei coefficienti si chiamasistema omogeneo associato a S . Se si conoscono la soluzione generale x0 delsistema omogeneo associato ed una soluzione particolare x1 del sistema S , lasoluzione generale di quest’ultimo si può esprimere come

x = x0 + x1 (6.2)

Infatti, ricordando che Ax0 = 0, si ha A(x0 + x1) = Ax0 + Ax1 = b e, viceversase Ax = b si ha A(x− x1) = Ax− Ax1 = 0, e quindi, posto x0 = x− x1 si hax = x0 + x1.

Esempio 6.3. Si consideri il sistemax + 2y + 2z = 42x + y + z = 2

,

di due equazioni in tre incognite la cui matrice dei coefficienti ha rango 2, che ammettedunque ∞1 soluzioni. Si vede subito che una soluzione particolare è data dalla ternax = 0, y = 1, z = 1. Per trovare la soluzione generale consideriamo il sistemaomogeneo ad esso associato che è:

x + 2y + 2z = 02x + y + z = 0

la cui soluzione generale è x = 0, y = t, z = −t dunque la soluzione generale delsistema dato sarà x = 0, y = 1 + t, z = 1− t.

Page 75: Algebra Lineare e Geometria Ottimo

7. Applicazioni lineari, prodotto scalare

Il concetto di applicazione o funzione1 è uno dei più importanti e dei piùgenerali di tutta la Matematica. Abitualmente una funzione tra spazi vettoriali sichiama più propriamente applicazione.

7.1. Generalità

Ricordiamo che usualmente si scrive f : A 7→ B oppure Af→B intendendo dire

che stiamo considerando la funzione f dell’insieme A nell’insieme B.L’elemento y = f (x) appartiene a B e si chiama immagine di x mediante f ,

viceversa, l’elemento x di A di cui y è immagine si chiama controimmagine di y.L’insieme A si chiama dominio della funzione f , e si indica con dom f e l’insiemeB si chiama codominio di f . Dunque una funzione è data quando sono dati: lalegge rappresentata dalla f , il dominio ed il codominio.

L’insieme di tutti gli elementi del codominio che sono immagini di qualcheelemento del dominio A si chiama immagine di f e lo denoteremo con ImA( f ),talvolta sottintendendo, nella notazione, il dominio di f .

Da quanto detto si ha subito che Im( f ) ⊆ B.Se accade che Im( f ) = B la funzione si chiama suriettiva; cioè una funzione è

suriettiva se tutti gli elementi del codominio hanno una controimmagine.Se invece due elementi distinti dell’insieme di definizione hanno sempre

immagini distinte, cioè se

∀x 6= x′ ∈ de f ( f ) =⇒ f (x) 6= f (x′)

allora la funzione si chiama iniettiva.Una funzione che sia suriettiva ed iniettiva è detta biiettiva o biunivoca.Osserviamo che la suriettività dipende dal codominio, mentre l’iniettività dal

dominio della funzione.Ad esempio la funzione f : R 7→ R data da f (x) = x2 non è iniettiva, infatti,

per esempio f (−3) = f (3) = 9 cioè esistono elementi distinti del dominio chehanno la stessa immagine e non è nemmeno suriettiva, perché, per esempio,−1 appartiene al codominio di f ma non ha controimmagine nel dominio; seora invece cambiamo il codominio e consideriamo sempre la sessa funzione

1Sono moltissimi i sinonimi del vocabolo funzione, alcuni usati più propriamente in contesti particolari,tra i tanti ricordiamo applicazione, trasformazione, corrispondenza, mappa, operatore, morfismo, ecc.

Page 76: Algebra Lineare e Geometria Ottimo

58 Applicazioni lineari, prodotto scalare

f : R→ R+ con f (x) = x2 allora la f non è iniettiva ma è suriettiva; viceversase cambiamo il dominio, la funzione f : R+ → R data da f (x) = x2 è iniettivama non suriettiva.

Se dominio e codominio sono spazi vettoriali su uno stesso campo K (cheindicheremo, rispettivamente, con V e W), si dice che f : V 7→W è un’applicazionelineare o un Omomorfismo tra due spazi V e W se f conserva le combinazioni lineari,cioè se ∀~v1,~v2 ∈ V e ∀α ∈ K, dove K è il campo su cui è costruito lo spaziovettoriale si ha:

−−−−−−→f (~v1 +~v2) =

−−−→f (~v1) +

−−−→f (~v2),

−−−→f (α~v) = α

−−→f (~v)

che si può scrivere anche come

−−−−−−−−→f (α~v1 + β~v2) = α

−−−→f (~v1) + β

−−−→f (~v2),

Esempio 7.1. L’applicazione R2 → R2 che associa al vettore ~v = [x, y] il vettore−−→f (v) = [y, x2] non è lineare, come è facile verificare. Infatti se ~v = [a, b] e ~w = [c, d]si avrà

−−→f (~v) = [b, a2] e

−−→f (~w) = [d, c2] e quindi

−−→f (~v) +

−−→f (~w) = [b + d, a2 + c2] che è

diverso da−−−−−→f (~v + ~w) = [b + d, (b + d)2].

Invece l’applicazione f : R→ R tale che [x, y]→ [x + y, x− y] è lineare ma questaverifica la lasciamo come esercizio.

Abbiamo già parlato dell’immagine di f , che è un sottoinsieme del codominio;è anche importante il sottoinsieme del dominio dato dalla

DEFINIZIONE 7.1. Si chiama nucleo dell’applicazione Vf→W e si indica con

Ker f 2 il sottoinsieme di V formato dagli elementi che hanno come immagine lozero di W:

Ker f = ~v ∈ V|−−→f (~v) = 0W

È molto facile dimostrare il

Teorema 7.1. Il nucleo di un’applicazione lineare Vf→W tra due spazi vettoriali V e W

è un sottospazio di V.

2Dalla parola inglese kernel che significa, appunto, nucleo.

Page 77: Algebra Lineare e Geometria Ottimo

7.1 Generalità 59

Dimostrazione. Basta far vedere che il nucleo è chiuso rispetto alle combinazionilineari: infatti se ~v1 e ~v2 sono vettori del nucleo, si ha, sfruttando la linearità di f ,

−−−−−−−−→f (α~v1 + β~v2) = α

−−−→f (~v1) + β

−−−→f (~v2) = α0W + β0W = 0W

quindi anche α~v1 + β~v2 è un vettore del nucleo.

Da questo teorema segue anche, ovviamente, che il vettore nullo appartiene alnucleo.

Altrettanto facile è dimostrare il

Teorema 7.2. L’immagine dell’applicazione lineare Vf→W è un sottospazio di W.

Dimostrazione. La dimostrazione è lasciata come esercizio . . . basta far vedere chel’immagine è. . . .

Il nucleo e l’immagine di un’applicazione lineare sono legati all’iniettività edalla suriettività dal

Teorema 7.3. Un’applicazione lineare Vf→W è:

i) suriettiva se e solo se Im f = W,

ii) iniettiva se e solo se Ker f = 0V cioè il nucleo consiste solo nel vettore nullo.

Dimostrazione. la i) segue dalla definizione di suriettività. Dimostriamo quindila ii). Sia f iniettiva, allora, poiché il vettore nullo appartiene al nucleo si ha−−−→f (0V) = 0W e, per l’iniettività, non può esistere un altro vettore ~v tale che−−→f (~v) = 0W con ~v 6= 0V .

Viceversa sia Ker f = 0V e sia−−−→f (~v1) =

−−−→f (~v2) allora si ha, per la linearità di f ,

−−−→f (~v1)−

−−−→f (~v2) =

−−−−−−→f (~v1 −~v2) = 0W e quindi ~v1 −~v2 ∈ Ker f , dunque, per l’ipotesi,

~v1 −~v2 = 0V da cui ~v1 = ~v2, quindi l’applicazione è iniettiva.

Naturalmente non tutte le applicazioni lineari sono iniettive o suriettive, peresempio l’applicazione R2 −→ R2 che manda il vettore [x, y] nel vettore [x + y, 0]non è iniettiva, perché il nucleo è formato da tutti i vettori del tipo [a,−a], nèsuriettiva, perché il vettore [a, b] con b 6= 0 non è immagine di alcun vettore deldominio.

Esistono anche applicazioni lineari che sono simultaneamente suriettive ediniettive, tali applicazioni, come abbiamo detto prendono il nome di applicazionibiunivoche o isomorfismi; ad esempio l’applicazione M2 7→ R4 che associa alla

matrice quadrata[

a bc d

]il vettore [a, b, c, d] è un isomorfismo (dimostrarlo per

esercizio).

Page 78: Algebra Lineare e Geometria Ottimo

60 Applicazioni lineari, prodotto scalare

Se f : V → W e−−→f (~v) = ~w può esistere una applicazione g : W → V tale che

−−→g(~w) = ~v in tal caso si dice che g è l’applicazione inversa di f e si indica con f−1.

È molto utile nelle applicazioni il

Teorema 7.4. Se f : V →W vale la relazione

dim(V) = dim(ker f ) + dim(Im f )

cioè la somma tra dimensione del nucleo di una applicazione lineare e la dimensionedell’immagine uguaglia la dimensione di V.

Dimostrazione. Sia U uno spazio supplementare di Ker f cioè sia U tale che V =

Ker f ⊕U, e sia dim(U) = s. Sia inoltre B′ = ~e′1, . . . , ~e′q una base di V tale che isuoi primi s vettori costituiscano una base di U ed i successivi q− s vettori siano

una base per ker f : dimostriamo che i vettori−−→f (~e′1), . . . ,

−−→f (~e′s) sono linearmente

indipendenti. Da a1 f (~e′1) + · · ·+ as f (~e′s) = 0W segue, per la linearità di f , cheè f (a1~e′1 + · · ·+ as~e′s) = 0W , dunque a1~e′1 + · · ·+ as~e′s ∈ ker( f ) ∩U e quindi,tenendo conto che la somma di sottospazi considerata è una somma diretta, siottiene che a1~e′1 + · · ·+ as~e′s = 0V e dalla indipendenza lineare degli~ei si ottieneche a1 = a2 = · · · = as = 0.

7.1.1. Applicazioni lineari, matrici, sistemi

È facile rendersi conto che un’applicazione lineare f tra due spazi vettoriali Ve W è nota quando si sa come si trasformano i vettori di una base di V; in altreparole quando si conoscono i trasformati mediante f dei vettori di una base di V.Consideriamo una base B = ~e1,~e2, . . . ,~en di V ed una base B′ = ~e′1~e′2, . . . , e′mdi W, se

−−→f (~e1), . . . ,

−−→f (~en) sono i trasformati mediante la f dei vettori di B è chiaro

che ciascuno di essi, appartenendo a W, si scrive come combinazione lineare deivettori di B′, dunque si ha il sistema

−−→f (~e1) = a11~e′1 + a12~e′2 + · · ·+ a1m~e′m−−→f (~e2) = a21~e′1 + a22~e′2 + · · ·+ a2m~e′m

. . . . . . . . . . . . . . . . . . . . . . . . . . .−−→f (~en) = an1~e′1 + an2~e′2 + · · ·+ anm~e′m

La matrice dei coefficienti di questo sistema lineare

Γ =

a11 a12 . . . a1ma21 a22 . . . a2m...

... . . ....

an1 an2 . . . anm

,

Page 79: Algebra Lineare e Geometria Ottimo

7.2 Prodotto scalare, norma 61

di tipo (n, m), è quella che si chiama matrice associata all’applicazione f rispetto allebasi B e B′, in cui n e m sono rispettivamente le dimensioni di V e di W.

Esempio 7.2. Consideriamo l’applicazione f : R2 7→ R2 che manda il vettore ~v =

[x, y] nel vettore−−→f (~v) = [x + y, 0] essa è lineare (verificarlo per esercizio), inoltre si ha

~e1 = [1, 0] −→ [1, 0] = ~e′1~e2 = [0, 1] −→ [1, 0] = ~e′1

e quindi la matrice associata a f rispetto alle basi canoniche è Γ =

[1 01 0

].

Esempio 7.3. Sia ora f : R3 → R2 tale che [x, y, z]→ [x + z, y + z]. Si ha

~e1 = [1, 0, 0] −→ [1, 0] = ~e′1~e2 = [0, 1, 0] −→ [0, 1] = ~e′2~e3 = [0, 0, 1] −→ [1, 1] = ~e′1 +~e′2

dunque la matrice associata a questa applicazione, rispetto alle basi canoniche, è

1 00 11 1

.

Scegliendo basi diverse la matrice associata ad f ovviamente cambia, però,ricordando che anche il cambiamento di base si rappresenta mediante una ma-trice, si capisce che la matrice Γ′ associata ancora ad f rispetto a due nuovebasi è legata alla Γ dalla relazione Γ′ = MΓN dove M e N sono le matrici delcambiamento di base in V ed in W.

Le matrici associate ad una applicazione lineare, rispetto a qualunque sceltadi basi, hanno tutte lo stesso rango, di più, nel caso particolare in cui V ≡W lematrici associate ad una stessa applicazione lineare sono tutte simili3 . Si puòanche dimostrare che se A è la matrice associata all’applicazione f : V 7→W ladimensione dell’immagine di f è il rango di A cioè

r(A) = dim(Im f )

rispetto ad una qualunque coppia di basi.

7.2. Prodotto scalare, norma

7.2.1. Norma di un vettore in R2 o R3

Riprendiamo ora lo studio dei vettori da un punto di vista più geometrico. Ènoto, per esempio dalla Fisica, che spesso è comodo visualizzare un vettore del

3Il concetto di matrici simili verrà introdotto nel paragrafo 8.2 a pagina 72.

Page 80: Algebra Lineare e Geometria Ottimo

62 Applicazioni lineari, prodotto scalare

piano o dello spazio come una “frecciolina”, caratterizzata da una lunghezza,una direzione ed un verso (o orientamento); si vede subito che se il vettorev è spiccato dall’origine, esso è completamente individuato dal suo secondoestremo.

Abbiamo già visto che i punti di una retta orientata possono essere messi incorrispondenza biunivoca con i numeri reali; se ora consideriamo, invece, duerette, per comodità perpendicolari, e fissiamo su ciascuna di esse un’unità dimisura (in genere la stessa), ad ogni punto del piano corrisponde una coppiaordinata di numeri reali, come illustrato nella Figura 7.1. Così facendo abbiamofissato quello che si chiama un sistema di riferimento cartesiano4 ortogonale.

Figura 7.1. Un sistema di riferimento cartesiano ortogonale

Nello spazio la generalizzazione non è immediata: bisogna considerare comeassi tre rette orientate concorrenti5 e a due a due perpendicolari e chiamarecoordinate cartesiane del punto P le tre distanze di P dai tre piani che queste rettea due a due formano; se le tre rette si chiamano rispettivamente x, y e z si ha,per esempio: xP = distanza (P, yz), dove, con yz abbiamo indicato il pianoindividuato dai due assi y e z .

Il punto P può anche essere visto come il secondo estremo di un vettorespiccato dall’origine, che, come già detto, è completamente individuato dalle suecoordinate; in R2 scriviamo quindi

−→OP = ~v = [x, y], in cui x, y sono le coordinate

4da Cartesio: Renée DESCARTES, 1569, La Haye (Francia) – 1650, Stoccolma (Svezia).5cioè passanti tutte e tre per un medesimo punto.

Page 81: Algebra Lineare e Geometria Ottimo

7.2 Prodotto scalare, norma 63

cartesiane del punto P(x, y) nel sistema di riferimento scelto, mettendo così inluce che si tratta di un vettore del piano, cioè di R2.

Figura 7.2. Un sistema di riferimento cartesiano ortogonale nello spazio

In modo analogo parliamo di vettori nello spazio come di vettori di R3:−→OP =

~v = [x, y, z] in cui le coordinate cartesiane del punto P(x, y, z) sono x, y, z. vedila figura 7.2

Le operazioni tra vettori che abbiamo imparato a conoscere nei paragrafiprecedenti si visualizzano tra i vettori geometrici. La somma di due vettori sidefinisce con la regola del parallelogrammo vedi la figura 7.3

Figura 7.3. La regola del parallelogrammoper la somma di vettori

Page 82: Algebra Lineare e Geometria Ottimo

64 Applicazioni lineari, prodotto scalare

Per il prodotto di un vettore per uno scalare λ prendiamo in considerazione itre casi seguenti:

λ > 0 allora λOP è il vettore OP con la lunghezza moltiplicata per λ;

λ = 0 allora λOP è il vettore nullo;

λ < 0 allora λOP è il vettore OP con la lunghezza moltiplicata per |λ| e di versoopposto.

Queste operazioni corrispondono alle operazioni già viste

λ[x, y] = [λx, λy]

e[x, y] + [x′, y′] = [x + x′, y + y′]

in R2 eλ[x, y, z] = [λx, λy, λz]

e[x, y, z] + [x′, y′, z′] = [x + x′, y + y′, z + z′]

in R3.Anche i concetti di dipendenza ed indipendenza lineare hanno una facile inter-

pretazione geometrica, infatti si vede subito che in R2 due vettori sono linearmentedipendenti se e solo se stanno su una stessa retta ed in R3 tre vettori se e solo se sonocomplanari.

Se identifichiamo gli elementi dello spazio vettoriale R2 con i segmenti orien-tati spiccati dall’origine, nel piano riferito ad un sistema di coordinate cartesianeortogonali, si nota che ad ogni vettore di R2 risulta associato un numero realenon negativo: la lunghezza del segmento OP. Definiamo allora la norma di unvettore ~v = [x, y] ∈ R2 come

‖~v‖ = ‖[x, y]‖ =√

x2 + y2 (7.1)

e in R3

‖~v‖ = ‖[x, y, z]‖ =√

x2 + y2 + z2. (7.2)

La norma verifica le proprietà elencate nella tabella 7.1 nella pagina successiva,dove, per noi, V ≡ R2 oppure V ≡ R3 (in realtà si puo dare una definizione dinorma e di prodotto scalare in uno spazio vettoriale qualsiasi, e non solo in Rn

come vedremo più avanti).Le prime tre proprietà sono banali; la quarta è la disuguaglianza triangolare

che abbiamo già visto.

Page 83: Algebra Lineare e Geometria Ottimo

7.2 Prodotto scalare, norma 65

Tabella 7.1. Proprietà della norma di un vettore

i) ‖~v‖ ≥ 0 ∀~v ∈ V;ii) ‖~v‖ = 0 ⇐⇒ ~v = 0 ∀~v ∈ V;iii) ‖λ~v‖ = |λ| · ‖~v‖ ∀~v ∈ V e ∀λ ∈ R;iv) ‖~u +~v‖ ≤ ‖~u‖+ ‖~v‖, ∀~u,~v ∈ V.

Dalle proprietà della norma appare chiaro come si può definire una distanzain R2 o in R3. Infatti se poniamo

d(u, v) = ‖u− v‖ (7.3)

si verifica immediatamente che valgono per ogni u, v, w le proprietà elencatenella tabella 7.2 (caratterizzanti una distanza).

Tabella 7.2. Proprietà della distanza di due punti

i) d(u, v) ≥ 0; ∀u, vii) d(u, v) = 0 ⇐⇒ v = u; ∀v = uiii) d(u, v) = d(v, u); ∀u, viv) d(u, v) ≤ d(u, w) + d(w, v). ∀v, u, w

Osserviamo esplicitamente che se si identificano R3 e R2 con lo spazio ed ilpiano riferiti a coordinate cartesiane ortogonali, la distanza definita dalla (7.3)coincide con quella usualmente definita.

7.2.2. Prodotto scalare

Definiamo prodotto scalare6 di due vettori ~v = [x1, y1] e ~w = [x2, y2] di R2 ilnumero reale

〈~v, ~w〉 = 〈[x1, y1], [x2, y2]〉 = x1x2 + y1y2 =[x1 y1

] [x2y2

]= ~v~wT (7.4)

e in R3 il numero reale

〈~v, ~w〉 = 〈[x1, y1, z1], [x2, y2, z2]〉 = x1x2 + y1y2 + z1z2 =[x1 y1 z1

] x2y2z2

= ~v~wT

(7.5)6Da non confondere con il prodotto per uno scalare: si noti che il prodotto scalare 〈·, ·〉 associa ad una

coppia ordinata di vettori un numero reale, mentre il prodotto per uno scalare associa ad una coppiascalare–vettore un vettore.

Page 84: Algebra Lineare e Geometria Ottimo

66 Applicazioni lineari, prodotto scalare

Occorre precisare che, formalmente, il prodotto scalare come è stato definitodalle (7.4) e (7.5) equivale al prodotto ~v~wT, pensando ~v come matrice costituitada una sola riga e ~wT come matrice di una sola colonna. In realtà questa equi-valenza è solo formale, in quanto, in quest’ultimo caso, otteniamo una matricecomposta da un solo elemento: uno scalare7 (v. nota 4 a pagina 19), che, in virtùdell’isomorfismo tra M1 ed R, possiamo ritenere equivalenti.

Per esempio

〈[4, 3,−1], [0,−3, 4]〉 = 4 · 0 + 3(−3) + (−1)4 = −13

oppure ⟨[23

],[−31

]⟩= 2(−3) + 3 · 1 = −3

(nel secondo esempio abbiamo usato vettori colonna, per sottolineare l’assolutaintercambiabilità, in questo contesto, delle due notazioni).

Il prodotto scalare è legato alla norma dalla relazione√〈~u,~u〉 = ‖~u‖ . (7.6)

Inoltre valgono le proprietà elencate nella tabella 7.3 semplicissime da dimostrare

Tabella 7.3. Proprietà del prodotto scalare

i) 〈~u,~u〉 ≥ 0 ∀~u ∈ Vii) 〈~u,~u〉 = 0 ⇐⇒ ~u = 0 ∀~u ∈ Viii) 〈~u,~v〉 = 〈~v,~u〉 ∀~u,~v ∈ Viv) 〈λ~v,~u〉 = λ 〈~v,~u〉 = 〈~u, λ~v〉 ∀~u,~v ∈ V e ∀λ ∈ R

v) 〈~u,~v + ~w〉 = 〈~u,~v〉+ 〈~u, ~w〉 ∀~u,~v, ~w ∈ V

tenendo conto della definizione, e la cui dimostrazione è proposta come esercizio.

Sussiste il seguente

Teorema 7.5. Siano ~u e ~v due vettori di R2 o di R3 e si considerino i segmenti orientatiad essi associati nel piano o nello spazio riferiti a sistemi di coordinate ortogonali. Allora

〈~u,~v〉 = ‖~u‖ · ‖~v‖ cos ϕ (7.7)

dove ϕ ∈ [0, π] è l’ampiezza dell’angolo fra i due segmenti.

7nel nostro caso un numero reale.

Page 85: Algebra Lineare e Geometria Ottimo

7.2 Prodotto scalare, norma 67

Dimostrazione. La dimostrazione è un’immediata conseguenza del Teorema delcoseno e delle proprietà del prodotto scalare.

Esempio 7.4. Siano dati in R2 i due vettori ~u = [1,−3] e ~v = [2, 5], vogliamoconoscere l’angolo ϕ che formano i segmenti orientati ad essi associati; il loro prodottoscalare è 〈~u,~v〉 = 1 · 2 + (−3)5 = −13. Inoltre ‖~u‖ =

√10 e ‖~v‖ =

√29 dunque

l’angolo fra i due segmenti orientati sarà tale che cos ϕ =〈~u,~v〉‖~u‖ · ‖~v‖ = − 13√

290;

osservando che −√

32

< − 13√290

< −√

22

si deduce che3π

4< ϕ <

6.

Un vettore ~u = [a, b, c] si dice unitario o versore se ha norma 1, cioè se ‖~u‖ = 1,quindi se a2 + b2 + c2 = 1.

Dal Teorema 7.5 si ricava che le componenti a, b e c di u sono i coseni degliangoli che u forma con i versori fondamentali e1 = [1, 0, 0], e2 = [0, 1, 0] ede3 = [0, 0, 1] e prendono il nome di coseni direttori del vettore ~u.

Ogni vettore non nullo può essere normalizzato dividendolo per la propria

norma, infatti è facile verificare che∥∥∥∥ ~v‖~v‖

∥∥∥∥ =‖~v‖‖~v‖ = 1.

Due vettori diversi dal vettore nullo si dicono perpendicolari o ortogonali sel’ampiezza dell’angolo tra u e v è ϕ =

π

2.

Segue immediatamente dal Teorema 7.5 che

〈~u,~v〉 = 0 ⇐⇒ ϕ =π

2con ~u 6= 0, ~v 6= 0 (7.8)

scriveremo dunque ~v ⊥ ~u ⇐⇒ 〈~u,~v〉 = 0 cioè due vettori sono ortogonali se e solose il loro prodotto scalare è nullo

Il discorso si generalizza:

DEFINIZIONE 7.2. Si dice che n vettori~v1,~v2, . . . ,~vn sono mutuamente ortogonalise ⟨

~vi,~vj⟩= 0 (7.9)

per ogni i, j con i, j = 1 . . . n.Se i ~vi sono anche normalizzati (cioè sono dei versori) diciamo che sono

ortonormali.

Una base ortogonale è una base costituita da vettori mutuamente ortogonali.; sei vettori sono anche normalizzati, abbiamo a che fare con una base ortonormale.

Osserviamo che vettori ortogonali sono sempre indipendenti, mentre non valein generale il viceversa. (Verificarlo per esercizio)

Page 86: Algebra Lineare e Geometria Ottimo

68 Applicazioni lineari, prodotto scalare

Esempio 7.5. In R3 la base B = [1, 3, 1], [−1, 0, 1], [6,−4, 6] è una base ortogonalema non ortonormale (verificarlo per esercizio).

Sappiamo che in uno spazio vettoriale ogni vettore si può esprimere come com-binazione lineare dei vettori di una base; se la base è ortogonale o ortonormale,si possono determinare in maniera semplice i coefficienti della combinazionelineare:

Teorema 7.6. Sia ~e1,~e2,~e3 una base ortogonale, allora ~v = λ1~e1 + λ2~e2 + λ3~e3 incui

λi =〈~v,~ei〉〈~ei,~ei〉

; (7.10)

se invece la base è ortonormaleλi = 〈~v,~ei〉 .

Esempio 7.6. Sia B la base ortogonale

B = ~e1 = [1, 3, 1],~e2 = [−1, 0, 1],~e3 = [6,−4, 6]

dell’esempio 7.5: abbiamo 〈~e1,~e1〉 = 11, 〈~e2,~e2〉 = 2, 〈~e3,~e3〉 = 88. Se ~v = [3, 2, 5]usando i risultati trovati e la (7.10) si ha

~v =〈~v,~e1〉

11~e1 +

〈~v,~e2〉2

~e2 +〈~v,~e3〉

88~e3 =

=1411~e1 +~e2 +

511~e3.

Dal punto di vista geometrico la (7.10) significa che 〈~v,~ei〉~ei è la componentedel vettore ~v nella direzione di~ei o anche che è la proiezione ortogonale di ~v sullaretta su cui giace il vettore~ei. Come è noto la proiezione ortogonale ha lunghezza‖~v‖ · | cos ϕi|; lo stesso risultato si trova applicando il teorema 7.5:

‖〈~v,~ei〉~ei‖ = | 〈~v,~ei〉 | · ‖~ei‖ = ‖~v‖ · ‖~ei‖2 · | cos ϕi| = ‖~v‖ · | cos ϕi|.

7.3. Generalizzazioni

Il concetto di prodotto scalare è molto più generale di quello qui definito (cheè il prodotto scalare standard in uno spazio vettoriale isomorfo a R2 od a R3).

Ricordiamo che si chiama prodotto cartesiano di due insiemi V e W e si indicacon V ×W l’insieme delle coppie ordinate (v, w) essendo v ∈ V, e w ∈W.

In generale dati due spazi vettoriali sul medesimo campo K un’applicazione gda V ×W a K per cui valgano le proprietà elencate nella tabella 7.4

Page 87: Algebra Lineare e Geometria Ottimo

7.3 Generalizzazioni 69

Tabella 7.4. Proprietà delle forme bilineari

i) g(v1 + v2, w) = g(v1, w) + g(v2, w) ∀v1, v2 ∈ V, w ∈Wii) g(v, w1 + w2) = g(v, w1) + g(v, w2) ∀v ∈ V, w1, w2 ∈Wiii) g(αv, w) = g(v, αw) = αg(v, w) ∀v ∈ V, w ∈W, α ∈ K

si chiama applicazione o forma bilineare (nel senso che è lineare rispetto atutt’e due le variabili; nello stesso senso si parla talvolta anche anche di formamultilineare). Un’applicazione bilineare tale che si abbia

g(v, w) = g(w, v) ∀v ∈ V, w ∈W

si chiama simmetrica. Un’ applicazione bilineare simmetrica g : V ×V → R percui sia

i) g(v, w) ≥ 0 ∀v, w ∈ V

ii) g(v, v) = 0 ⇐⇒ v = 0

si chiama prodotto scalare e si preferisce indicare g(v, w) con 〈~v, ~w〉 . Uno spaziovettoriale in cui sia stato definito un prodotto scalare si chiama euclideo.

Come utile esercizio, il lettore verifichi che il prodotto scalare standard defi-nito nel paragrafo precedente è una forma bilineare simmetrica che gode delleproprietà i) e ii)

Come esempio si verifichi che in R2 è un prodotto scalare

〈~x,~y〉 = [x1, x2] ·[

2 11 5

]·[

y1y2

].

Ovviamente due vettori ortogonali rispetto ad un prodotto scalare possononon esserlo rispetto ad un altro. Quando parleremo di vettori ortogonali senzaprecisare rispetto a quale prodotto scalare ci riferiremo sempre al prodotto scalarestandard.

Per i prodotti scalari vale il

Teorema 7.7. Sia V uno spazio vettoriale euclideo, cioè uno spazio vettoriale dotato diun prodotto scalare, allora si ha:

〈~u,~v〉 = 12(〈~u +~v,~u +~v〉 − 〈~u,~u〉 − 〈~v,~v〉)

la dimostrazione, che il lettore è invitato a scrivere in maniera esplicita, è unsemplice calcolo basato sulla bilinearità e sulla simmetria del prodotto scalare.

Sia V uno spazio vettoriale euclideo e sia U un suo sottospazio. Indichiamo conU⊥ l’insieme di tutti i vettori di V che sono ortogonali a vettori di U (rispetto adun fissato prodotto scalare) e lo chiamiamo complemento ortogonle di U (rispetto aquel certo prodotto scalare)

Page 88: Algebra Lineare e Geometria Ottimo
Page 89: Algebra Lineare e Geometria Ottimo

8. Matrici simili. Autovalori ed autovettori diuna matrice quadrata

8.1. Matrici simili

Siano A e B due matrici quadrate di ordine n

DEFINIZIONE 8.1. Diciamo che la matrice A è simile alla matrice B se esisteuna matrice di passaggio P, non singolare, tale che

P−1AP = B. (8.1)

Si vede subito che

Teorema 8.1. La similitudine di matrici è una relazione di equivalenza.

Dimostrazione. Infatti ogni matrice è simile a se stessa (basta prendere, nella (8.1)come matrice di passaggio la matrice I); ricordando che P = (P−1)−1 si ricavasubito che se A è simile a B con matrice di passaggio P allora B sarà similead A con matrice di passaggio P−1; infine da P−1AP = B e Q−1BQ = C si haQ−1P−1APQ = C dunque, ricordando che (PQ)−1 = Q−1P−1 si conclude cheA è simile a C con matrice di passaggio PQ.

È immediato dimostrare il

Teorema 8.2. Due matrici simili hanno lo stesso determinante.

Dimostrazione. Siano A e B le due matrici. Dalla formula 8.1 e dal teorema diBinet 5.5 a pagina 47 si ricava che

det(P−1AP) = det B

det(P−1) · det A · det P = det B

e la tesi segue immediatamente dal fatto che det(P−1)det P = 1.

Attenzione! L’inverso del Teorema 8.2 non vale: cioè esistono matrici chehanno lo stesso determinante e non sono simili. È un utile esercizio trovare degliesempi di questo fatto.

Page 90: Algebra Lineare e Geometria Ottimo

72 Matrici simili. Autovalori ed autovettori di una matrice quadrata

8.2. Autovalori ed autovettori di una matrice

Sia ora A una matrice quadrata di ordine n, per esempio associata ad unendomorfismo1, e consideriamo la relazione

A~x = λ~x (8.2)

con ~x 6= 0. La (8.2) in sostanza dice che applicando al vettore ~x la matrice A siottiene un vettore proporzionale ad ~x, cioè che ~x non cambia direzione.

Fissata la A ci chiediamo se esistono degli scalari λ e dei vettori x per cuivalga la (8.2), cioè, fissata la trasformazione, ci chiediamo se ci sono vettori che,trasformati, non cambiano direzione.

Gli scalari λ che compaiono nella (8.2) si chiamano autovalori o valori propri edi vettori x si chiamano autovettori o vettori propri della matrice A.

È lecito ora porsi la domanda: fissata una matrice A esistono autovalori?quanti? ed autovettori?

Per rispondere a queste domande riscriviamo la (8.2) nella forma

λx− Ax = 0

equivalente a(λI − A)x = 0 (8.3)

che rappresenta un sistema lineare omogeneo di n equazioni in n incognite lacui matrice dei coefficienti è la matrice λI − A. Sappiamo che un tale sistemaammette soluzioni non banali se e solo se il determinante della matrice deicoefficienti è nullo.

Il determinante della matrice dei coefficienti del sistema (8.2) è ovviamentefunzione di λ

det(λI − A) =

∣∣∣∣∣∣∣∣∣∣

λ− a11 −a12 −a13 . . . −a1n−a21 λ− a22 −a23 . . . −a2n−a31 −a32 λ− a33 . . . −a3n

......

......

...−an1 −an2 −an3 . . . λ− ann

∣∣∣∣∣∣∣∣∣∣e si può scrivere come polinomio in λ

ϕ(λ) = det(λI − A) = λn + c1λn−1 + c2λn−2 + · · ·+ cn−1λ + cn (8.4)

che è un polinomio di grado n nella variabile λ con coefficiente direttore2 ugualea 1, che prende il nome di polinomio caratteristico della matrice A ed i cui zerisono tutti e soli gli autovalori di A.

1Ricordiamo che si chiama endomorfismo un’applicazione lineare f : V → V di uno spazio vettoriale suse stesso.

2cioè coefficiente del termine di grado massimo

Page 91: Algebra Lineare e Geometria Ottimo

8.2 Autovalori ed autovettori di una matrice 73

Il coefficiente di λn proviene solo dal prodotto degli elementi principali ed èquindi uguale a 1; i vari successivi coefficienti c1 . . . cn di ϕ(λ) si possono trovaresviluppando normalmente il determinante di λI − A oppure tenendo conto dellegame tra di essi ed i minori estratti dalla matrice A (Teorema 8.7 nella paginasuccessiva).

Per il Teorema fondamentale dell’Algebra sappiamo che ogni polinomio digrado n ha, nel campo complesso, esattamente n radici contate ciascuna con lapropria molteplicità, dunque sussiste il

Teorema 8.3. Una matrice quadrata di ordine n ha, nel campo complesso C, esattamenten autovalori, ciascuno contato con la propria molteplicità.

Una banale ed immediata conseguenza è che se anche la matrice A ha tuttigli elementi reali, i suoi autovalori possono essere in tutto o in parte numericomplessi.

Se λ1, λ2, . . . , λs (s ≤ n) sono gli autovalori distinti di A e k1, k2, . . . , ks ri-

spettivamente le loro molteplicità algebriche (quindis∑

j=1k j = n), chiamiamo

l’espressione (λ1 λ2 . . . λsk1 k2 . . . ks

)lo spettro della matrice A. In essa sotto ad ogni autovalore è indicata la suamolteplicità come radice del polinomio caratteristico (molteplicità algebrica).

Vale il

Teorema 8.4. Due matrici simili A e B hanno lo stesso polinomio caratteristico.

Dimostrazione. Sia B = P−1AP: si ha necessariamente

|λI − B| = |λI − P−1AP| = |P−1λIP− P−1AP| == |P−1(λI − A)P| = |P−1||λI − A||P|= |λI − A|

e quindi i polinomi caratteristici sono uguali.

OSSERVAZIONE 8.1. Dal Teorema 8.4 segue che due matrici simili hanno glistessi autovalori con le stesse molteplicità, quindi lo stesso spettro.OSSERVAZIONE 8.2. ATTENZIONE Il Teorema 8.4 non è invertibile!, cioè due ma-trici che hanno lo stesso polinomio caratteristico possono anche non essere simili,

per esempio le matrici A =

[0 00 0

]e B =

[0 10 0

]hanno entrambe polinomio

caratteristico ϕ(λ) = λ2 ma la A, essendo la matrice nulla, è simile solo a sestessa.

Page 92: Algebra Lineare e Geometria Ottimo

74 Matrici simili. Autovalori ed autovettori di una matrice quadrata

Sugli autovalori valgono le proprietà espresse dai seguenti teoremi

Teorema 8.5. Se λ1, λ2, . . . , λn sono gli n autovalori di A e se cn è il termine noto delpolinomio caratteristico di A sussiste la relazione

det(A) = (−1)ncn = λ1 · λ2 · · · λn.

Dimostrazione. Infatti si ha, tenendo conto della (8.4):

ϕ(λ) = det(λI − A) = λn + c1λn−1 + · · ·+ cn =

= (λ− λ1)(λ− λ2) · · · (λ− λn)

relazione che vale ∀λ e quindi, in particolare, anche per λ = 0. Per questo valoresi ha

det(−A) = cn = (−λ1)(−λ2) · · · (−λn)

cioè (−1)n det(A) = cn = (−1)nλ1λ2 · · · λn che è la tesi.

Ne segue il

Corollario 8.6. Una matrice è singolare se e solo se ha almeno un autovalore nullo.

OSSERVAZIONE 8.3. Da quanto detto si ricava anche che in una matrice triango-lare (in particolare diagonale) gli autovalori coincidono con gli elementi delladiagonale principale.

DEFINIZIONE 8.2. Sia A una matrice quadrata; chiamiamo minore principale diordine k e lo indichiamo con Mk il determinante di una sottomatrice quadrata diordine k i cui elementi principali sono solo elementi principali di A.

Esempio 8.1. I minori principali di ordine 2 della matrice

a b c1 2 3d e f

sono∣∣∣∣a cd f

∣∣∣∣,∣∣∣∣a b1 2

∣∣∣∣ e∣∣∣∣2 3e f

∣∣∣∣ ma non, ad esempio∣∣∣∣1 2d e

∣∣∣∣ perché i suoi elementi principali non sono

tutti elementi principali di A

Si dimostra allora che

Teorema 8.7. Se

ϕ(λ) = λn + c1λn−1 + · · ·+ cn−1λ + cn

è il polinomio caratteristico di una matrice A, allora

ck = (−1)k ∑ Mk (8.5)

dove la somma è estesa a tutti i minori principali di ordine k estratti da A.

Page 93: Algebra Lineare e Geometria Ottimo

8.2 Autovalori ed autovettori di una matrice 75

Quindi ci è –a meno del segno– la somma dei minori principali di ordine i,da cui, per esempio, c1 = −tr(A); c2 è la somma di tutti i minori principali diordine 2 e così via.

Inoltre sussiste il

Teorema 8.8. Se λ è un autovalore di molteplicità k allora

r(λI − A) ≥ n− k. (8.6)

Il numero n− r(λI − A) è il numero delle soluzioni indipendenti del sistema(8.2), cioè degli autovettori indipendenti associati all’autovalore λ, che prende ilnome di molteplicità geometrica dell’autovalore. Un autovalore per cui la molte-plicità algebrica sia uguale a quella geometrica, cioè per il quale vale il segno =nella (8.6), si chiama regolare. Segue subito da questa definizione e dal teorema8.8 il

Teorema 8.9. Ogni autovalore semplice è regolare.

Dimostrazione. Infatti r(λI − A) < n in quanto det(λI − A) = 0 e dal Teorema8.8 segue che è r ≥ n− 1 dunque n− 1 ≤ r < n da cui r = n− 1.

Siano ora x e y due autovettori della matrice A associati entrambi all’autovaloreλ; sussiste il

Teorema 8.10. Ogni combinazione lineare di autovettori di A associati a λ è unautovettore di A associato a λ.

Dimostrazione. Siano Ax = λx e Ay = λy, consideriamo il vettore αx + βy evogliamo dimostrare che anch’esso è autovettore associato a λ. Si ha, infatti

A(αx + βy) = Aαx + Aβy = αAx + βAy = αλx + βλy = λ(αx + βy).

Quindi l’insieme degli autovettori associati ad un autovalore, con l’aggiuntadel vettore nullo, costituisce uno spazio vettoriale, che prende il nome di autospa-zio associato a λ e la molteplicità geometrica dell’autovalore, che corrisponde alnumero degli autovettori indipendenti, è la dimensione di questo autospazio.

Per il Teorema 8.8 si ha subito che la molteplicità geometrica di un autovalore λnon supera quella algebrica e la uguaglia se e solo se λ è regolare.

Vale il

Teorema 8.11. Siano λ1, λ2, . . . , λs s autovalori distinti di A (s ≤ n) e siano x1, x2, . . . , xss autovettori associati ordinatamente ai λi. Allora i vettori xi sono linearmente indipen-denti.

Page 94: Algebra Lineare e Geometria Ottimo

76 Matrici simili. Autovalori ed autovettori di una matrice quadrata

Di conseguenza gli autospazi associati ad ogni autovalore sono disgiunti, ela loro somma è un sottospazio V′ dello spazio vettoriale V in cui è definitol’endomorfismo rappresentato dalla matrice A.

Da quanto detto segue facilmente che gli autovalori di A sono tutti regolari see solo se V′ = V.

Sussiste anche il

Teorema 8.12. Se x è autovettore di A associato all’autovalore λ allora esso è ancheautovettore di Ak associato all’autovalore λk ∀k > 0.

Dimostrazione. Da Ax = λx si ricava, moltiplicando a sinistra per A,

A2x = Aλx = λAx = λλx = λ2x

e quindi x è autovettore di A associato all’autovalore λ2. Iterando il procedimen-to si perviene alla tesi.

Page 95: Algebra Lineare e Geometria Ottimo

9. Diagonalizzazione, matrici ortogonali

9.1. Diagonalizzazione di una matrice quadrata

Una matrice quadrata si dice diagonalizzabile se è simile ad una matrice diago-nale, cioè se esiste una matrice non singolare P tale che

P−1AP = ∆

con ∆ matrice diagonale.Ci proponiamo ora di stabilire dei criteri di diagonalizzabilità, il che equivale

a dare delle condizioni necessarie e sufficienti per stabilire quali sono tutte e sole lematrici diagonalizzabili.

Sussiste a questo proposito il

Teorema 9.1. Una matrice quadrata A di ordine n è diagonalizzabile se e solo se ammetten autovettori indipendenti.

Dimostrazione. Siano X1, X2, . . . , Xn n autovettori indipendenti di A e siano asso-ciati rispettivamente agli autovalori λ1, λ2, . . . , λn. Indichiamo con P = [X1 X2 . . . Xn]la matrice che ha come colonne gli Xi; allora, ricordando i punti i) e ii) dell’osser-vazione 3.7 a pagina 25, sussistono le uguaglianze

AP =[AX1 AX2 . . . AXn

](9.1)

P · diag(λ1, λ2, . . . , λn) =[λ1X1 λ2X2 . . . λnXn

]poiché gli Xi sono autovettori di A associati ordinatamente agli autovalori λi,per ogni i si ha AXi = λiXi, dalla (9.1) segue che

AP = P · diag(λ1, λ2, . . . , λn)

ed essendo P non singolare, in quanto formata da vettori indipendenti segue che

P−1AP = diag(λ1, λ2, . . . , λn) (9.2)

quindi se A ammette n autovettori indipendenti, essa è diagonalizzabile.Viceversa se A è diagonalizzabile esistono una matrice invertibile P ed unamatrice diagonale ∆ = diag(λ1, λ2, . . . , λn) tali che

AP = P∆

Page 96: Algebra Lineare e Geometria Ottimo

78 Diagonalizzazione, matrici ortogonali

ma se chiamiamo X1, X2, . . . , Xn le colonne di P, dalla (9.2) e ricordando ancoral’osservazione 3.7, otteniamo

A[X1 X2 . . . Xn

]=[X1 X2 . . . Xn

]· diag(λ1, λ2, . . . , λn),

da cui [AX1 AX2 . . . AXn

]=[λ1X1 λ2X2 . . . λnXn

]e quindi, per ogni i, si ha AXi = λiXi, dunque gli Xi sono autovettori di Alinearmente indipendenti.

OSSERVAZIONE 9.1. Il Teorema 9.1 significa, in sostanza, che una matrice cherappresenta un endomorfismo di uno spazio vettoriale V è diagonalizzabile se esolo se esiste una base formata da autovettori di V. Cioè se V = V1⊕V2⊕· · ·⊕Vkdove i Vi sono gli autospazi associati, ordinatamente, agli autovalori λi.

OSSERVAZIONE 9.2. Le matrici P che trasformano la A in una matrice diagonalesono tutte (e sole) quelle formate da n autovettori indipendenti di A, quindi sonoinfinite.

OSSERVAZIONE 9.3. Se diag(λ1, λ2, . . . , λn) è una qualunque matrice diagonalesimile ad A, i suoi elementi principali sono tutti (e soli) gli autovalori di A.

OSSERVAZIONE 9.4. Una matrice diagonalizzabile è univocamente determinatadai suoi autovettori e dai suoi autovalori.

Abbiamo detto che l’avere lo stesso polinomio caratteristico non basta affinchédue matrici siano simili, tuttavia

Teorema 9.2. Se A e B sono entrambe diagonalizzabili, esse sono simili se e solo sehanno lo stesso polinomio caratteristico.

Dimostrazione. Se A e B sono simili, hanno lo stesso polinomio caratteristico peril Teorema 8.4, viceversa se A e B hanno lo stesso polinomio caratteristico essehanno gli stessi autovalori con le stesse molteplicità; dunque sono entrambesimili alla medesima matrice diagonale, e quindi simili tra loro.

Per verificare se due matrici A e B sono simili è necessario, anzittutto, con-trollare che abbiano lo stesso polinomio caratteristico; a questo punto possonoaccadere tre casi: o sono entrambe diagonalizzabili, e allora per il Teorema 9.2sono simili tra loro, oppure una è diagonalizzabile e l’altra no, e allora nonsono simili, oppure ancora nessuna delle due è diagonalizzabile, e allora occorrericorrere a metodi più sofisticati.

Un’altra condizione necessaria e sufficiente per la diagonalizzabilità, menosemplice da dimostrare ma più comoda da usare, è quella espressa dal

Teorema 9.3. Una matrice è diagonalizzabile se e solo se ha tutti gli autovalori regolari.

Page 97: Algebra Lineare e Geometria Ottimo

9.2 Martici ortogonali 79

Poiché un autovalore semplice è regolare (vedi Teorema 8.9 a pagina 75) dalTeorema 9.3 segue immediatamente il

Corollario 9.4. Una matrice è diagonalizzabile se tutti i suoi autovalori sono distinti.

OSSERVAZIONE 9.5 (ATTENZIONE!). Il viceversa del corollario 9.4 non vale,cioè una matrice può essere diagonalizzabile anche se i suoi autovalori non sonotutti distinti, basta che infatti siano tutti regolari (Teorema 9.3).

Esempio 9.1. Sia A =

[a a + 1

a + 3 a + 2

]. Vogliamo vedere per quali valori di a essa è

diagonalizzabile. Il polinomio caratteristico di A è ϕ(λ) = λ2 − (2a + 2)λ + a(a +2)− (a + 3)(a + 1). Le radici di ϕ(λ) sono −1 e 2a + 3, che coincidono se e solo sea = −2, quindi per a 6= −2 la matrice è diagonalizzabile perché i due autovalori sono

distinti, qundi semplici entrambi; per a = −2 la matrice diventa[−2 −1

1 0

]il cui

polinomio caratteristico è (λ + 1)2 cioè ammette l’autovalore −1 doppio. Esso è regolarese r(−I − A) = 0 il che palesemente non è. Concludiamo dunque che la matrice A èdiagonalizzabile per ogni a 6= −2.

Esempio 9.2. Vogliamo determinare per quali valori dei parametri è diagonalizzabile lamatrice 1 0 0

a 0 0b a 1

.

Si vede subito (A è triangolare) che gli autovalori sono 0 semplice e 1 doppio. L’autovalore0 è regolare in quanto semplice. Esaminiamo la regolarità di 1. Esso è regolare quando

r(I − A) = 3− 2 = 1; la matrice 1I − A è

0 0 0−a 1 0−b −a 0

il cui unico minore del

second’ordine non certamente nullo è[−a 1−b −a

]esso però si annulla per a2 + b = 0,

dunque per questi valori, e solo per questi, A è diagonalizzabile.

9.2. Martici ortogonali

DEFINIZIONE 9.1. Diciamo che una matrice U è ortogonale se è reale e se

UUT = UTU = I. (9.3)

Sulle matrici ortogonali sussiste il

Page 98: Algebra Lineare e Geometria Ottimo

80 Diagonalizzazione, matrici ortogonali

Teorema 9.5. Una matrice U è ortogonale se e solo se le sue colonne formano un sistemaortonormale di vettori.

Dimostrazione. Infatti la relazione (9.3) implica che se U = [uik] e UT = [uki] si haδik = ∑j ujiujk dove il generico elemento del prodotto è l’elemento generico della

matrice I cioè δik =

1 se i = k0 se i 6= k

ovvero le colonne di U formano un sistema

ortonormale.

Sulle matrici ortogonali vale il

Teorema 9.6. Sia U una matrice ortogonale. Allora:

i) det(U) = ±1;

ii) U è invertibile e U−1 = UT;

iii) UT è ortogonale.

Dimostrazione. Essendo UTU = I si ha det(U)det (UT) = 1 ma siccome det(U) =

det (UT) si ha det2(U) = 1 da cui det(U) = ±1. Il punto ii) segue dal precedentee dall’unicità della matrice inversa. Il punto iii) dal fatto che (UT)T = U

Se U e V sono due matrici ortogonali, allora la matrice W = UV è ortogonale,infatti WWT = UV(UV)T = UVVTUT = I.

Se A è una matrice diagonalizzabile e tra le matrici che la diagonalizzano esisteuna matrice ortogonale, diciamo che A è ortogonalmente diagonalizzabile.

Dimostriamo ora il

Teorema 9.7. Gli autovalori di una matrice reale simmetrica sono reali

Dimostrazione. Sia A simmetrica: si ha A = AT. Se λ è un autovalore di A ed xun autovettore ad esso associato si ha:

λx = Ax (9.4)

da cui segue subito che è λxT = (Ax)T = xt AT = xT A. Allora, utilizzandoancora la (9.4),

λxTX = xT Ax = xTλx = λxTx;

poiché xTx 6= 0 in quanto x autovettore, concludiamo che λ = λ e quindi che λè reale.

Possiamo ora enunciare il

Teorema 9.8. Una matrice reale simmetrica è sempre ortogonalmente diagonalizzabile.

Page 99: Algebra Lineare e Geometria Ottimo

9.2 Martici ortogonali 81

Questo significa che una matrice A simmetrica e reale è sempre diagonalizza-bile cioè che tra le varie matrici che la diagonalizzano se ne può sempre trovarealmeno una ortogonale.OSSERVAZIONE 9.6. Vogliamo esplicitamente notare che l’ipotesi del Teorema9.8 che la matrice sia reale è essenziale, infatti, per esempio, la matrice simmetrica

A =

[2i 11 0

]non è neanche diagonalizzabile (verificarlo per esercizio).

Anche l’inverso del Teorema 9.8 è vero, cioè

Teorema 9.9. Una matrice ortogonalmente simile ad una matrice diagonale reale èsimmetrica.

Dimostrazione. Se UT AU = ∆ trasponendo si ha (UT AU)T = ∆T ma ∆ è simme-trica, quindi UT ATU = ∆ = UT AU da cui, moltiplicando a destra per UT e asinistra per U segue che A = AT.

Un altro teorema utile soprattutto nelle applicazioni è il

Teorema 9.10. Se x e y sono due autovettori della matrice A associati rispettivamenteagli autonvalori λ e µ con λ 6= µ allora x e y sono ortogonali.

Dimostrazione. Dalle ipotesi abbiamo che λx = Ax e µy = Ay Siccome A èsimmetrica e quindi λ reale (per il Teorema 9.7 a fronte) dalla prima uguaglianzasegue che λxT = xT A e quindi anche λxTY = xT AY, ma tenendo conto dellaseconda, si ha λxTy = µxTy quindi (λ− µ)xTy = 0. Poiché λ 6= µ segue chexTy = 0

Vediamo ora, su esempi, come si può costruire una matrice ortogonale chediagonalizza una data matrice simmetrica.

Esempio 9.3. Sia A =

0 1 11 0 11 1 0

. Il polinomio caratteristico di A è λ3 − 3λ− 2 e

quindi gli autovalori sono λ1 = λ2 = −1 e λ3 = 2. Il sistema

λx− y− z = 0−x + λy− z = 0−x− y + λz = 0

fornisce gli autovettori di A. Per λ = −1 abbiamo la famiglia di autovettori

αβ

−α− β

con α e β non entrambi nulli, e per λ = 2 l’autovettore

γγγ

con γ 6= 0. Dovremo

Page 100: Algebra Lineare e Geometria Ottimo

82 Diagonalizzazione, matrici ortogonali

scegliere due autovettori associati a λ1 ed uno associato a λ3, quindi possiamo costruirela matrice α α′ γ

β β′ γ−α− β −α′ − β′ γ

che dobbiamo rendere ortogonale scegliendo opportuni valori per i parametri α, α′, β, β′

e γ. Per il Teorema 9.10 l’ultima colonna è ortogonale a ciascuna delle altre due, quindibasta imporre la condizione αα′ + ββ′ + (α + β)(α′ + β′) = 0 che equivale a

2αα′ + 2ββ′ + αβ′ + βα′ = 0.

Poniamo α = 0 allora β(2β′ + α′) = 0 e poiché, in questo caso dev’essere β 6= 0bisognerà prendere alpha′ = −2β′. Se scegliamo allora β = 1, β′ = 1 e γ =

1 otteniamo la matrice

0 −2 11 1 1−1 1 1

le cui colonne sono a due a due ortogonali.

Normalizzando le colonne otteniamo la matrice0 −2√

61√3

1√2

1√6

1√3

−1√2

1√6

1√3

che è una matrice ortogonale che diagonalizza la A.

Esempio 9.4. Consideriamo ora la matrice A =

1 0 00 2 30 3 2

. È facile verificare che i

suoi autovalori soni λ1 = 1, λ2 = −1 e λ3 = 5 a cui sono associati, rispettivamente,gli autovettori h

00

0j−j

0kk

che sono ortogonali, in quanto associati ad autovalori distinti (ancora il Teorema 9.10nella pagina precedente). Se scegliamo h = k = j = 1 otteniamo la matrice P =1 0 0

0 1 10 −1 1

che diagonalizza la A ma non è ortogonale, in quanto le sue colonne non

sono normalizzate. Normalizzando si ottiene1 0 00 1√

21√2

0 −1√2

1√2

che è la matrice cercata.

Page 101: Algebra Lineare e Geometria Ottimo

9.3 Forme quadratiche 83

9.3. Forme quadratiche

Un polinomio omogeneo di grado m nelle variabili x1, x2, . . . xn si chiama formadi grado m. In particolare se il polinomio è di secondo grado parleremo di formaquadratica.

Esempio 9.5. Si consideri il polinomio

Φ(x, y, z) = 2x2 + 10xy + 9y2 + 6xz

esso è una forma quadratica; osserviamo che si può anche scrivere come

Φ(x, y, z) = 2x2 + 5xy + 5yx + 9y2 + 3xz + 3zx (9.5)

spezzando i termini rettangolari

In generale un polinomio di secondo grado in n variabili si può scrivere nellaforma

Φ(x1, x2, . . . , xn) =1...n

∑i,k

aikxixk. (9.6)

con aik = aki.In tal modo possiamo associare ad ogni forma quadratica in n variabili una

matrice simmetrica A = [aik] di ordine n e possiamo scrivere

Φ = XT AX

dove XT = [x1, x2, . . . , xn]Quindi, per esempio, la matrice associata alla forma (9.5) dell’esempio 9.5 è la

A =

2 5 35 9 03 0 0

.

Esempio 9.6. La matrice associata alla forma

Φ ≡ x2 + 2xy− 4yz + 3z2

sarà la matrice simmetrica

A =

1 1 01 0 −20 −2 3

Si chiama rango della forma quadratica Φ il rango della matrice ad essa

associata.Se si opera sulle variabili una trasformazione lineare di matrice B si ottiene

una nuova forma quadratica Ψ la cui matrice associata sarà BT AB da cui risulta

Page 102: Algebra Lineare e Geometria Ottimo

84 Diagonalizzazione, matrici ortogonali

ovvio che le due forme hanno lo stesso rango. Si chiama forma canonica ogniforma quadratica la cui matrice associata è diagonale, quindi una forma canonicasarà:

Φ = a11x21 + a22x2

2 + · · ·+ annx2x

cioè una somma di quadrati.

Ci poniamo il problema: È possibile, mediante una trasformazione lineare invertibile,ridurre una forma quadratica qualsiasi a forma canonica?

Consideriamo la forma quadratica Φ(x, y) = 5x2 + 4xy + 2y2.La generica trasformazione lineare

x = au + bvy = cu + dv

la trasforma in

5(au + bv)2 + 4(au + bv)(cu + dv) + 2(cu + dv)2 (9.7)

che diventa

(5a2 + 4ac + 2c2)u2+

(10ab + 4ad + 4bc + 4cd)uv+

(5b2 + 4bd + 2d2)v2 (9.8)

Si vede subito che la riducono a forma canonica tutte quelle trasformazioni conad 6= bc per cui è nullo il coefficiente del termine rettangolare della (9.8), cioèdeve essere

10ab + 4ad + 4bc + 4cd = 0

Questo si può ottenere in infiniti modi, per esempio ponendo a = 1, b = 2, c =−2, d = 1 otteniamo la forma canonica

Φ = 5u2 + 30v2

mentre se prendiamo a = 0, b = 1, c = 2, d = −1 abbiamo la forma canonica

Φ = 8u2 + 3v2

Sulla riduzione a forma canonica di una forma quadratica sussiste il teorema

Page 103: Algebra Lineare e Geometria Ottimo

9.3 Forme quadratiche 85

Teorema 9.11 (di Lagrange). Ogni forma quadratica a coefficienti complessi (reali) dirango r > 0 si può ridurre, mediante una trasformazione lineare invertibile a coefficienticomplessi (reali) alla forma canonica

c1x21 + c2x2

2 + · · ·+ cnx2n

dove i ci sono numeri complessi (reali) non tutti nulli.

Se la forma quadratica è in particolare reale il teorema di Lagrange si precisameglio:

Teorema 9.12. Ogni forma quadratica reale Φ = XT AX si può ridurre, mediante unatrasformazione ortogonale1, alla forma canonica

Ψ = λ1x21 + λ2x2

2 + · · ·+ λnx2n

dove λ1, λ2, . . . , λn sono gli autovalori di A.

Dimostrazione. Infatti essendo A reale simmetrica, esiste una matrice ortogonaleU tale che UT AU = diag(λ1, λ2, . . . , λn)

OSSERVAZIONE 9.7. Se la forma quadratica ha rango r allora gli autovalori nonnulli di A sono esattamente r

OSSERVAZIONE 9.8. Se la riduzione a forma canonica viene effettuata medianteuna generica trasformazione lineare invertibile, non necessariamente ortogonale,non si può garantire che i coefficienti siano gli autovalori di A, ad esempiola forma (9.5) Φ = 5x2 + 4xy + 2y2 può essere ridotta a forma canonica inΨ = 8u2 + 3v2 ma gli autovalori di A sono 1 e 6.

Si chiama indice di una forma quadratica Φ = XT AX il numero p ≥ 0 degliautovalori positivi di A.

Vale il

Teorema 9.13. Ogni forma canonica Ψ ottenuta da una forma quadratica reale Φmediante una trasformazione lineare invertibile ha il numero dei coefficienti positiviuguale all’indice p di Φ.

Una forma quadratica Φ(x1, x2, . . . , xn) si dice definita positiva (rispettivamen-te semidefinita positiva) se per ogni scelta delle variabili, non tutte nulle, si haΦ(x1, x2, . . . , xn) > 0 (rispettivamente Φ(x1, x2, . . . , xn) ≥ 0 ).

Vale il

Teorema 9.14. Una forma quadratica Φ = XT AX è definita positiva se e solo se tuttigli autovalori di A sono positivi.

1Cioè la cui matrice è ortogonale

Page 104: Algebra Lineare e Geometria Ottimo

86 Diagonalizzazione, matrici ortogonali

Analogamente si parla di forme quadratiche definite (semidefinite) negativeVale anche l’analogo del teorema 9.14:

Teorema 9.15. Una forma quadratica Φ = XT AX è definita negativa se e solo se tuttigli autovalori di A sono negativi.

Naturalmente esistono forme quadratiche la cui matrice ha sia autovaloripositivi, sia autovalori negativi cioè nè definite positive nè definite negative.Qualcuno chiama queste forme non definite.

9.4. Matrici hermitiane e matrici unitarie

DEFINIZIONE 9.2. Una matrice A si chiama hermitiana (o autoaggiunta) se A =AT..

DEFINIZIONE 9.3. Una matrice U si chiama unitaria se UTU = I.

DEFINIZIONE 9.4. Una matrice si chiama normale se AAT = AT A cioè secommuta con la sua coniugata trasposta (detta anche aggiunta).

OSSERVAZIONE 9.9. È ovvio dalle definizioni che le matrici reali simmetrichesono matrici hermitiane reali e che le matrici ortogonali sono matrici unitariereali.OSSERVAZIONE 9.10. Le matrici hermitiane e quelle unitarie sono particolarimatrici normali.

Teorema 9.16. Una matrice è unitariamente simile ad una matrice diagonale se e solose è normale

OSSERVAZIONE 9.11. Ne scende che ogni matrice reale, permutabile con la sua tra-sposta, è diagonalizzabile in particolare che ogni matrice ortogonale è diagonalizzabile

Con lo stesso procedimento usato per le matrici simmetriche reali nel Teore-ma 9.10 a pagina 81 si dimostra il

Teorema 9.17. Gli autovalori di una matrice hermitiana sono reali.

Segue anche che

Teorema 9.18. Ogni matrice hermitiana è unitariamente simile ad una matrice diago-nale reale

Sussiste anche il

Teorema 9.19. Una matrice A è normale se e solo se esiste un polinomio f (λ) tale cheAT = f (A)

Segue il

Corollario 9.20. Una matrice reale A è permutabile con la sua trasposta se e solo sequest’ultima si può esprimere come polinomio in A

Page 105: Algebra Lineare e Geometria Ottimo

10. Polinomi di matrici

Come abbiamo visto nel paragrafo 3.3 a pagina 23 si definisce un polinomio dimatrici (o polinomio matriciale) come segue: se

p(λ) = c1λn + c2λn−1 + · · ·+ cnλ + cn+1

è un polinomio di grado n nella variabile λ, possiamo formalmente sostituire aλ la matrice quadrata A ed ottenere il polinomio matriciale

p(A) = c1An + c2An−1 + · · ·+ cn A + cn+1 I. (10.1)

OSSERVAZIONE 10.1. Ovviamente p(A) è a sua volta una matrice quadrata dellostesso ordine di A e che si ottiene sviluppando i conti nella (10.1); notiamo ancheche il coefficiente cn+1 è in realtà coefficiente di λ0 e quindi, nella sostituzioneformale che operiamo, diventa coefficiente di A0 = I

10.1. Teorema di Cayley Hamilton

Introduciamo ora un Teorema, che va sotto il nome di Teorema di Cayley1

- Hamilton2 che ha parecchie applicazioni,e non solo nell’ambito dell’AlgebraLineare.

Abbiamo già accennato che una matrice quadrata A si può sempre ridurre aforma triangolare eseguendo su di essa operazioni elementari sulle righe o sullecolonne, quindi possiamo aggiungere che ogni matrice quadrata è “triangolariz-zabile” cioè è simile ad una matrice triangolare che ha come elementi principaligli autovalori di A. Dunque esiste una matrice non singolare P, tale che

P−1AP = T

con T matrice triangolare.

Esempio 10.1. Consideriamo ora tre matrici triangolari, per esempio alte, per semplicitàdi ordine tre, B1, B2 e B3 tali che ∀i in Bi sia nullo l’i–esimo elemento principale. Per

1Arthur CAYLEY, 1821, Richmond, Inghilterra - 1895, Cambridge, Inghillterra.2William HAMILTON, 1788, Glasgow, Scozia -1856, Edimburgo, Scozia.

Page 106: Algebra Lineare e Geometria Ottimo

88 Polinomi di matrici

esempio siano

B1 =

0 a1 b10 c1 d10 0 e1

B2 =

a2 b2 c20 0 d20 0 e2

B3 =

a3 b3 c30 d3 e30 0 0

Un facile calcolo mostra che

B1B2B3 = 0

L’esempio 10.1 è solo un caso particolare di quanto percisa il seguente

Lemma 10.1. Siano B1, B2, . . . , Bn n matrici triangolari alte di ordine n tali che, perogni i = 1, . . . , n, l’elemento bii della i–esima matrice Bi sia nullo. allora il prodottodelle matrici Bi dà la matice nulla, cioè

B1B2 · · · Bn = 0

Dimostrazione. Decomponiamo in blocchi ciascuna matrice Bi in modo che sia

Bi =

[Hi kiLi Mi

].

Se prendiamo H1 di tipo (1, 1), H2 di tipo (1, 2), H3 di tipo (2, 3) . . . Hn−1 ditipo (n− 2, n− 1) ed Hn di tipo (n− 1, n) si può moltiplicare a blocchi ciascunamatrice per la successiva. Osservando inoltre che le matrici Li sono tutte nulle inforza del fatto che le Bi sono triangolari alte, si constata facilmente che il prodotto

B2B3 · · · Bn−1 è una matrice ripartita a blocchi della forma[

P Q0 R

]; inoltre, per

come sono state costruite, si ha B1 =

[0 H10 K1

]e Bn =

[Hn Kn0 0

].

Si ha quindi

B1B2 · · · Bn =

[0 H10 K1

] [P Q0 R

] [Hn Kn0 0

]che dà, evidentemente, la matrice nulla.

Siamo ora in grado di dimostrare il

Teorema 10.2 (di Cayley-Hamilton). Ogni matrice quadrata è radice del propriopolinomio caratteristico. Cioè se ϕA(λ) = λn + c1λn−1 + · · · + cn−1λ + cn è ilpolinomio caratteristico della matrice quadrata A, allora vale la relazione matriciale

An + c1An−1 + · · ·+ cn−1A + cn I = 0 (10.2)

Page 107: Algebra Lineare e Geometria Ottimo

10.1 Teorema di Cayley Hamilton 89

Dimostrazione. Sia A quadrata di ordine n e siano λ1, λ2, . . . , λn i suoi autovalori.Poiché A è triangolarizzabile, esste una matrice P tale che

P−1AP = B =

λ1 b12 · · · b1n0 λ2 · · · b2n...

... . . . ...0 0 · · · λn

Se ora poniamo, ∀i = 1 . . . n Bi = B− λi I si riconosce subito che le matrici Bihanno le caratteristiche richieste dal lemma 10.1 a fronte, inoltre si ha:

(A− λ1 I)(A− λ2 I) · · · (A− λn I) =

= PP−1(A− λ1 I)PP−1(A− λ2 I)PP−1 · · · PP−1(A− λn I)PP−1 =

= P(B− λ1 I)(B− λ2 I) · · · (A− λn I) =

= PB1B2 · · · BnP−1

quindi(A− λ1 I)(A− λ2 I) · · · (A− λn I) = 0 (10.3)

e siccome il polinomio caratteristico di A si può scrivere come

ϕ(λ) = (λ− λ1)(λ− λ2) · · · (λ− λn) (10.4)

sostituendo formalmente la matrice A nella ( 10.4) in virtù della ( 10.3) si pervienealla tesi.

OSSERVAZIONE 10.2 (ATTENZIONE). Il Teorema 10.2 nella pagina precedentenon è invertibile questo significa che se una matrice quadrata di ordine n è radicedi un certo polinomio p(x) cioè se si ha che p(A) = 0 non è detto che p(λ) sia ilpolinomio caratteristico di A.

Esempio 10.2. Come esempio di quanto affermato nell’osservazione 10.2, consideriamola matrice A = I2 essa è radice del polinomio matriciale A2 − 3A + 2I ma il suopolinomio caratteristico è, come si vede immediatamente, ϕ(λ) = λ2 − 2λ + 1

10.1.1. Applicazioni del Teorema di Cayley–Hamilton

Se ϕA(λ) = λn + c1λn−1 + · · ·+ cn−1λ + cn è il polinomio caratteristico dellamatrice A, quadrata, di ordine n il Teorema 10.2 nella pagina precedente ciassicura che

An + c1An−1 + · · ·+ cn−1A + cn I = 0 (10.5)

cioè che le successive potenze di A dalla 0 alla n sono linearmente dipendenti equindi, per esempio, che

An = −(c1An−1 + · · ·+ cn−1A + cn I)

Page 108: Algebra Lineare e Geometria Ottimo

90 Polinomi di matrici

cioè che la potenza n–esima di A si può scrivere come combinazione lineare dellepotenze di grado inferiore e che i coefficienti di questa combinazione linearesono proprio i coefficienti del polinomio caratteristico. Inoltre sappiamo che seA è invertibile cn 6= 0 e quindi si può scrivere

I = − 1cn(An + c1An−1 + · · ·+ cn−1A)

da cui, moltiplicando ambo i membri per A−1 si ottiene

A−1 = − 1cn(An−1 + c1An−2 + · · ·+ cn−1 I) (10.6)

La (10.6) ci dice che la matrice inversa di una matrice invertibile A è combinazionelineare delle potenze di A e che i coefficienti della combinazione lineare si ricavanofacilmente da quelli del polinomio caratteristico di A.

Esempio 10.3. Vogliamo calcolare l’inversa della matrice A =

1 0 −11 1 12 0 1

usando

il Teorema di Cayley-Hamilton, cioè usando la ( 10.6). Il polinomio caratteristico di A

sarà ϕ(λ) = λ3 + aλ2 + bλ + c. Essendo a = −tr(A) = −3, b =

∣∣∣∣1 01 1

∣∣∣∣+ ∣∣∣∣1 20 1

∣∣∣∣+∣∣∣∣1 −12 1

∣∣∣∣ = 5 e c = −det A = −3 esso diventa

ϕ(λ) = λ3 − 3λ2 + 5λ− 3,

quindi A3− 3A2 + 5A− 3I = 0 da cui A = 13 A2− A+ 5

3 I. Allora si ricava facilmente

che A2 =

−1 0 −24 1 14 0 1

e quindi che A−1 = 13

1 0 11 3 −2−2 0 1

.

10.2. Polinomio minimo

Nell’Osservazione 10.2 nella pagina precedente e nell’esempio successivoabbiamo visto che una matrice può essere anche radice di un polinomio diversodal suo polinomio caratteristico.

DEFINIZIONE 10.1. Si chiama polinomio minimo della matrice quadrata A e siindica con µ(λ) il polinomio di grado minimo e di coefficiente direttore3 ugualea 1 che ammette A come radice.

3Ricordiamo la nota 2 a pagina 72.

Page 109: Algebra Lineare e Geometria Ottimo

10.2 Polinomio minimo 91

È facile dimostrare che il polinomio minimo esiste ed è unico: l’esistenza ègarantita dal Teorema 10.2 a pagina 88 e l’unicità si dimostra per assurdo – farloper esercizio.

Vale inoltre il

Teorema 10.3. Il polinomio minimo µ(λ) di una matrice quadrata A divide tutti ipolinomi che ammettono A come radice, quindi, in particolare, divide il polinomiocaratteristico di A.

Dimostrazione. Sia p(λ) un polinomio che ammette A come radice; cioè siap(A) = 0 Se dividiamo p(λ) per µ(λ) otteniamo un quoziente ed un resto,cioè

p(λ) = q(λ)µ(λ) + r(λ) (10.7)

se r(λ) = 0 abbiamo la tesi, se invece fosse r(λ) 6= 0, la (10.7) porterebbe allaidentità matriciale

p(A) = q(A)µ(A) + r(A)

dalla quale, tenendo conto che p e µ ammettono A come radice, segue cher(A) = 0, ma siccome r è un polinomio di grado inferiore a µ e µ è quellodi grado minimo che ammette A come radice, segue che r è identicamentenullo.

Dal Teorema 10.3 segue subito che il polinomio minimo divide anche il poli-nomio caratteristico, e che, quindi, le sue radici sono anche radici di ϕ(λ), cioèsono autovalori di A, come precisato dal

Teorema 10.4. Le radici del polinomio minimo µ(λ) di una matrice A sono tutti e soligli autovalori di A con molteplicità non maggiori di quelle che hanno come radici delpolinomio caratteristico ϕ(λ).

Questo significa, per esempio, che se una matrice ammette come polinomiocaratteristico ϕ(λ) = (λ− 1)2(λ− 2) il suo polinomio minimo può essere soloϕ(λ) stesso oppure (λ− 1)(λ− 2).

Si può anche dimostrare che

Teorema 10.5. Due matrici simili hanno lo stesso polinomio minimo.

Naturalmente esistono matrici che, pur avendo lo stesso polinomio minimo,non sono simili, anzi, che non hanno nemmeno lo stesso polinomio caratteristico,come si vede nel seguente

Esempio 10.4. Siano A =

0 0 00 1 10 0 1

e B =

0 0 00 0 00 0 1

. Si vede subito che entrambe

hanno come polinomio minimo µ(λ) = λ2 − λ , infatti A2 = A e B2 = B, maϕA(λ) = λ(λ− 1)2 mentre ϕB(λ) = λ2(λ− 1).

Page 110: Algebra Lineare e Geometria Ottimo

92 Polinomi di matrici

Anche l’avere lo stesso polinomio caratteristico non garantisce affatto che ipolinomi minimi siano uguali come si vede nel seguente

Esempio 10.5. Consideriamo le matrici A =

0 0 01 0 02 3 0

e B =

0 0 01 0 02 0 0

. Tutte e

due hanno come polinoimio caratteristico ϕ(λ) = λ3, ma siccome si vede subito cheB2 = 0 si ha µB(λ) = λ2 mentre essendo A3 = 0 6= A2 si ha µA(λ) = ϕ(λ) = λ3.

OSSERVAZIONE 10.3. Il polinomio minimo di una matrice diagonale Dn aventet ≤ n autovalori distinti è (λ− λ1)(λ− λ2) · · · (λ− λt). Verificarlo con un facilecalcolo.

Riferendoci a questa osservazione possiamo dimostrare il

Teorema 10.6. Una matrice A è diagonalizzabile se e solo se il suo polinomio minimoammette solo radici sempilici.

Dimostrazione. Dimostriamo, per semplicità, solo la parte “solo se”. Sia A dia-gonalizzabile, allora essa è simile ad una matrice diagonale il cui polinomiominimo, per l’osservazione precedente, è privo di radici multiple, quindi la tesisegue dal teorema 10.5.

Il Teorema 10.6 fornisce un altro potente criterio per stabilire se sono diago-nalizzabili matrici di cui è facile determinare il polinomio minimo. Ad esempiosi ricava da esso che ogni matrice idempotente, cioè per cui sia A2 = A che haquindi come polinomio minimo λ2 − λ è diagonalizzabile.

Page 111: Algebra Lineare e Geometria Ottimo

Parte II.

Geometria piana

Page 112: Algebra Lineare e Geometria Ottimo
Page 113: Algebra Lineare e Geometria Ottimo

11. La retta nel piano

11.1. Preliminari

In un sistema di riferimento cartesiano ortogonale è noto dagli studi precedentiche una retta si rappresenta con un’equazione lineare

ax + by + c = 0, (11.1)

in cui a e b non siano entrambi nulli. È anche noto che, se la retta non è parallelaall’asse y, si può scrivere anche nella forma, cosiddetta canonica

y = mx + q. (11.2)

È altresì noto che la forma canonica (11.2) dell’equazione di una retta mette inluce la “pendenza” della retta: il coefficiente m, che si chiama coefficiente angolare,rappresenta la tangente goniometrica dell’angolo che la retta forma con l’asse x:dunque se indichiamo con ϕ l’ampiezza di quest’angolo, si ha m = tan ϕ.

Da un altro punto di vista una retta r è determinata da un vettore v che ne fissala direzione e da un punto P0 ∈ r: un punto P appartiene alla retta r se e solo seil segmento PP0 ha la stessa direzione di v.

Siano ora (x0, y0) le coordinate di P0 e (x, y) le coordinate di P, il punto Pappartiene a r se e solo se il vettore [x − x0, y − y0] ed il vettore v = [−b, a]sono linearmente dipendenti, cioè se e solo se a(x − x0) = −b(y − y0) cioèax + by = ax0 + by0 da cui si ottiene la (11.1) ponendo c = −ax0 − by0.

Dunque la retta di equazione ax + by = 0 ha la direzione del vettore ~v =[−b, a].

Poiché 〈[−b, a], [a, b]〉 = −ab + ba = 0, possiamo anche affermare che laretta ax + by + c = 0 è ortogonale al vettore ~w = [a, b]; i numeri −b e a sononoti come parametri direttori della retta, essi sono definiti a meno di un fattoredi proporzionalità non nullo. Normalizzando il vettore ~v si ottiene il vettore~v′ = [−b′, a′] in cui −b′ e a′ sono proprio i coseni degli angoli che la retta(orientata) forma con la direzione positiva degli assi coordinati e si chiamanocoseni direttori della retta.

Da quanto detto segue il

Teorema 11.1. Sia r la retta di equazione ax + by + c = 0 allora:

i) r è parallela all’asse x se e solo se a = 0,

Page 114: Algebra Lineare e Geometria Ottimo

96 La retta nel piano

ii) r è parallela all’asse y se e solo se b = 0,

iii) se r1 è la retta di equazione a1x + b1y + c1 = 0 allora r è parallela a r1 se e solo se

ab1 = ba1,

iv) r e r1 sono perpendicolari se e solo se

aa1 + bb1 = 0.

OSSERVAZIONE 11.1. L’equazione della retta è, ovviamente, definita a meno diun fattore di proporzionalità non nullo, nel senso che le equazioni ax+ by+ c = 0e kax + kby + kc = 0 rappresentano la stessa retta ∀k 6= 0 ∈ R. D’ora inavanti parleremo comunque, come si fa abitualmente, dell’equazione di unaretta (usando l’articolo determinativo), sottintendendo che ci riferiamo ad unaqualsiasi delle possibili equazioni della retta, di solito quella la cui scrittura è piùsemplice, tuttavia questa proprietà non va dimenticata, perché il non tenerneconto può portare a gravi errori, soprattutto nelle applicazioni.

Esempio 11.1. Scriviamo l’equazione della retta perpendicolare al vettore [5, 1] e pas-sante per il punto (−1, 2). Si vede subito che la retta ha un’equazione della forma5x + y + c = 0 e che passa per il punto (−1, 2) se e solo se 5 · (−1) + 2 + c = 0, dacui c = 3 e quindi la retta cercata ha equazione 5x + y + 3 = 0.

Esempio 11.2. Vogliamo l’equazione della retta che passa per i punti A(4, 1) e B(3, 2).Sia essa di equazione ax + by + c = 0; si ha, imponendo il passaggio per il primo puntoa(x− 4) + b(y− 1) = 0 e per il secondo a(3− 4) + b(2− 1) = 0 ⇐⇒ −a + b =0 ⇐⇒ a = b, dunque , scegliendo a = 1 si ha x + y = 5, risultato a cui si potevapervenire direttamente, osservando che 5 è proprio la somma dell’ascissa e dell’ordinatasia di A che di B.

Si può dimostrare anche che se a1x + b1y + c1 = 0 e a2x + b2y + c2 = 0 sonodue rette che formano un angolo ϕ si ha

cos ϕ =|〈[a1, b1], [a2, b2]〉|‖[a1, b1]‖ · ‖[a2, b2]‖

=|a1a2 + b1b2|√

a21 + b2

1 ·√

a22 + b2

2

11.2. Altri tipi di equazione della retta

L’equazionexp+

yq= 1 (11.3)

è un’equazione lineare e rappresenta quindi una retta; è facile vedere che inquesta forma l’equazione della retta (che è detta equazione segmentaria) mette in

Page 115: Algebra Lineare e Geometria Ottimo

11.2 Altri tipi di equazione della retta 97

risalto le intercette sugli assi, precisamente la retta di equazione (11.3) intersecagli assi coordinati nei punti P(p, 0) e Q(0, q). Viceversa la retta che passa per ipunti (2, 0) e (0,−3) ha equazione

x2+

y−3

= 1 cioè 3x− 2y− 6 = 0

Per esempio la retta 3x− 4y = 12 si scrive anche, dividendo entrambi i membriper 12, nella forma

x4+

y−3

= 1 mettendo in evidenza che passa per i punti

P(4, 0) e Q(0,−3).

Abbiamo visto che una retta r del piano che passa per il punto P0(x0, y0) ed hala direzione del vettore ~u = [p, q] è l’insieme dei punti (x, y) tali che il vettore~v = [x− x0, y− y0] sia linearmente dipendente dal vettore ~u; ma sappiamo ancheche due vettori sono linearmente dipendenti se e solo se sono proporzionali,quindi dev’essere ~v = λ · ~u, da cui

x = x0 + λpy = y0 + λq

(11.4)

le (11.4) si chiamano equazioni parametriche della retta; ogni punto della retta hacoordinate espresse dalle (11.4), e per ogni valore del parametro nelle (11.4) siottiene un punto della retta. Le componenti p e q del vettore ~u sono una coppia1

di parametri direttori della retta.Ad esempio se vogliamo le equazioni parametriche della retta

r ≡ 3x− 2y = 2

possiamo cominciare scegliendo un punto di r, per esempio P(0,−1). La rettadata ha direzione del vettore [2, 3] e quindi abbiamo le equazioni parametriche

x = 2ty = 3t− 1

. (11.5)

OSSERVAZIONE 11.2. Nel sistema (11.5) abbiamo chiamato t il parametro: ilnome è ovviamente arbitrario, ed è consuetudine indicarlo con la lettera t, ma lostudente dovrebbe abituarsi a lavorare con una rappresentazione parametricadella retta in cui il parametro può essere indicato da una lettera qualsiasi.

OSSERVAZIONE 11.3. Mentre l’equazione cartesiana di una retta r è unica a me-no di un fattore di proporzionalità non nullo, come notato nell’osservazione 11.1a fronte, le equazioni parametriche di una stessa retta possono assumere aspettimolto diversi. Per esempio la retta di equazioni parametriche (11.5) si può anche

1Abbiamo già osservato che anche i parametri direttori sono definiti a meno di una costante moltiplicativanon nulla.

Page 116: Algebra Lineare e Geometria Ottimo

98 La retta nel piano

scrivere con le equazioni parametrichex =

2 + t3

y =t2

. (11.6)

Viceversa per passare dalle equazioni parametriche ad un’equazione cartesianasi può procedere in vari modi: dando due valori al parametro si ottengono duepunti della retta, poi si scrive l’equazione della retta per i due punti trovati,oppure si può eliminare il parametro dalle equazioni, trovando un’equazionecartesiana della retta data. Per esempio se r ha equazioni parametriche

x = 2ty = 2t− 1

sottraendo membro a membro le due equazioni si ottiene l’equazione cartesianadella r che è x− y = 1 .

11.3. Distanze

11.3.1. Distanza di due punti

.

Figura 11.1. Distanza di due punti

La distanza di due punti nel piano segue da una immediata applicazione delTeorema di Pitagora, infatti dalla figura 11.1 si nota subito che la distanza d trai punti A(x1, y1) e B(x2, y2) è l’ipotenusa di un triangolo rettangolo i cui catetisono AC = x2 − x1 e BC = y2 − y1 da cui

d =√(x2 − x1)2 + (y2 − y1)2

Page 117: Algebra Lineare e Geometria Ottimo

11.4 Fasci di rette 99

11.3.2. Distanza di un punto da una retta

È noto che la distanza del punto P di coordinate (x0, y0) dalla retta di equazioneax + by + c = 0 è

d =|axo + bx = +c|√

a2 + b2.

11.4. Fasci di rette

L’insieme di tutte le rette del piano che passano per un punto P prende il nomedi fascio2 di rette che ha come centro o sostegno il punto P. L’equazione globale ditutte le rette del fascio F che ha per sostegno P si può ottenere facilmente comecombinazione lineare non banale delle equazioni di due qualsiasi rette di F .Questo significa che se abbiamo due rette distinte r e r′ entrambe passanti per Pe rispettivamente di equazioni ax + by + c = 0 e a′x + b′y + c′ = 0 l’equazione

λ(ax + by + c) + µ(a′x + b′y + c′) = 0 (11.7)

rappresenta tutte e sole le rette che passano per P se λ e µ non sono entrambinulli. Infatti per ogni coppia di valori (non entrambi nulli) di λ e µ, la ( 11.7)rappresenta una retta passante per P. Viceversa una qualunque retta per P èrappresentata da un’equazione del tipo ( 11.7), cioè qualunque retta per P èindividuata da una particolare coppia di valori di λ e µ.OSSERVAZIONE 11.4. L’equazione (11.7) è omogenea (rispetto ai parametri λ eµ) cioè è definita a meno di un fattore di proporzionalità non nullo. Può esserecomodo scriverla, invece, usando un solo parametro, per esempio nella forma

k(ax + by + c) + (a′x + b′y + c′) = 0 (11.8)

in cui abbiamo posto k =λ

µ. In questo caso, però, quando µ = 0 il parametro

k perde di significato, e quindi l’equazione del fascio, nella forma (11.8) nonrappresenta tutte le rette del fascio, mancando quella per cui µ = 0, cioè la rettaax + by + c = 0. Se si considera, però, che lim

µ→0k = ∞, si può accettare il valore

infinito per il parametro k, convenendo che in questo caso la (11.8) rappresentala retta ax + by + c = 0.

I fasci sono uno strumento molto potente e comodo: vediamo un primoesempio.

Esempio 11.3. Vogliamo scrivere l’equazione della la retta che passa per i punti A(1, 0)e B(2,−3). Essa appartiene al fascio che ha per sostegno, per esempio, il punto A equindi di equazione

x− 1 + ky = 0 (11.9)2Il concetto di fascio –di rette, di piani, di circonferenze. . . – è molto generale e lo incontreremo ancora.

Page 118: Algebra Lineare e Geometria Ottimo

100 La retta nel piano

ottenuta come combinando linearmente le equazioni x = 1 e y = 0 delle rette paralleleagli assi passanti per A. La retta cercata si otterà imponendo il passaggio della genericaretta del fascio per il punto P, quindi sostituendo le coordinate di P nella (11.9), cioè

scrivendo 2− 1− 3k = 0 da cui si ottiene k =13

ed ottenendo quindi l’equazione3x + y− 3 = 0.

Esempio 11.4. Vogliamo l’equazione della retta passante per P(1, 0) e perpendicolarealla retta 3x− 2y + 1 = 0. Scriviamo l’equazione del fascio di rette per P; essa sarà:

λx + µ(y− 1) = 0

per la condizione di perpendicolarità si avrà 3λ− 2µ = 0 da cui, per esempio, λ = 2 eµ = 3 a cui corrisponde la retta 2x + 3y− 3 = 0

11.5. Coordinate omogenee

Siccome due rette non parallele hanno in comune un punto e due rette paralleleuna direzione, fà comodo, in certi contesti, assimilare una direzione ad un punto“improprio” o punto “all’infinito”. Con questa convenzione due rette distintenel piano hanno sempre un punto (proprio o improprio) in comune, quindi duerette sono parallele se (e solo se) hanno in comune un punto improprio. I puntiimpropri verrano denotati con P∞.

Sorge il problema di come “coordinatizzare” i punti impropri. Nel piano,come sappiamo, un punto al finito può essere rappresentato da una coppiaordinata di numeri reali, per poter rappresentare anche i punti impropri convieneutilizzare una terna di coordinate, cosiddette omogenee, precisamente, se P(X, Y)attribuiamo a P le tre coordinate, non tutte nulle, x, y e u legate alle precedentidalla relazione

X =xu

e Y =yu

(11.10)

Possiamo allora dire che P ha coordinate omogenee x, y, u e scriviamo P(x : y : u).Se u 6= 0 possiamo scrivere che P(X, Y) ha coordinate omogenee P(X : Y : 1), peresempio possiamo attribuire all’origine le coordinate omogenee O = (0 : 0 : 1); ipunti impropri saranno allora tutti e soli quelli la cui terza coordinata omogeneaè nulla.OSSERVAZIONE 11.5. Le coordinate omogenee di un punto sono definite ameno di un fattore di proporzionalità, questo significa che il punto di coordinateomogenee P(3 : 2 : 1) coincide con il punto di coordinate omogenee P(6 : 4 : 2),e quindi che un punto a coordinate razionali si può sempre considerare come un

punto a coordinate omogenee intere: per esempio il punto proprio P =

(15

,35

)ha coordinate omogenee P(1 : 3 : 5)

Page 119: Algebra Lineare e Geometria Ottimo

11.6 I sistemi di riferimento 101

Consideriamo ora l’equazione della retta: in coordinate non omogenee essasarà aX + bY + c = 0: applicando le ( 11.10 a fronte) diventerà ax + by + cu = 0ed avrà come punto improprio il punto per cui u = 0 che sarà dunque P∞(−b :a : 0).

In questo contesto, l’equazione u = 0 rappresenta tutti e soli i punti la cuiterza coordinata omogenea è nulla, quindi tutti (e soli) i punti impropri, essendoun’equazione lineare possiamo dire che essa rappresenta una retta, precisamentela retta impropria, cioè il luogo dei punti impropri del piano. Concludiamo ilparagrafo con la seguente

OSSERVAZIONE 11.6. Un sistema lineare omogeneo di tre equazioni in tre inco-gnite può sempre essere interpretato geometricamente, in coordinate omogenee,come la ricerca dell’eventuale punto comune di tre rette.

Il seguente esempio chiarisce la situazione.

Esempio 11.5. Il sistema hx− y + hu = 0

hx− y− u = 0x− hy + u = 0

è lineare omogeneo, quindi ammette la soluzione banale (0 : 0 : 0) che non rappresenta

alcun punto. La matrice dei coefficienti è:

h −1 hh −1 −11 −h 1

; essa ha rango r = 3 per

h 6= ±1, ha r = 2 per h = 1 e r = 1 per h = −1 quindi per h 6= ±1 le rette non hannoin comune alcun punto nè proprio nè improprio, per h = 1 ci sono ∞1 soluzioni, chesono le coordinate omogenee di uno ed un solo punto (proprio o improprio) e per h = −1ci sono ∞2 soluzioni che rappresentano le coordinate omogenee dei punti di una retta;quindi le tre rette coincidono.

11.6. I sistemi di riferimento

11.6.1. Cambiamento del sistema di riferimento

Abbiamo visto che un sistema di riferimento cartesiano ortogonale è deter-minato da un’origine O, che corrisponde al punto di coordinate (0, 0) e daidue versori fondamentali degli assi u1 e u2 e che il punto P(x, y, ) è rappresen-tato dal vettore OP = xu1 + yu2, cioè è una combinazione lineare dei versorifondamentali.

Se P(x, y) è il generico punto del piano e se si effettua una traslazione di assiche porta l’origine nel nuovo punto O′(α, β), le coordinate (x′, y′) di P rispetto

Page 120: Algebra Lineare e Geometria Ottimo

102 La retta nel piano

ai nuovi assi saranno: x′ = x + α

y′ = y + β

Ci si rende conto molto facilmente che le traslazioni sono trasformazioni linearidi R2 in sè che conservano le distanze –verificarlo per esercizio–.

Figura 11.2. Traslazione

Ci si può chiedere che cosa succede delle coordinate di P(x, y) quando sicambia il sistema di riferimento, prendendo altri due vettori indipendenti comebase. Questo significa effettuare una rotazione del sistema di riferimento. Alpunto P saranno associati altri due numeri (x′, y′) e ci si chiede qual è il legametra queste coppie di numeri.

Si effettua in questo modo un cambiamento di base nello spasio vettoriale R2

che, come sappiamo, è rappresentato da una matrice quadrata di ordine 2.Se consideriamo i cambiamenti di sistema di riferimento che lasciano ferma

l’origine (escludiamo il caso noto delle traslazioni di assi), osserviamo che se Pha coordinate (x, y) in un sistema di riferimento e (x′, y′) nell’altro, le equazioniche legano le coordinate di P nei due sistemi di riferimento sono date dal sistema

x = ax′ + by′

y = cx′ + dy′(11.11)

o, in forma più compatta da~x = A~x′ (11.12)

dove ~x =

[xy

]e ~x′ =

[x′y′

]ed A =

[a bc d

],

Dimostriamo ora il

Page 121: Algebra Lineare e Geometria Ottimo

11.6 I sistemi di riferimento 103

Figura 11.3. Rotazione

Teorema 11.2. Si consideri un cambiamento di sistema di riferimento che lascia fermal’origine, quindi rappresentato dalle equazioni (11.12) e che conservi la distanza di duepunti3. Allora la matrice A è ortogonale e siamo in presenza di una rotazione di assi vediFigura 11.3

Dimostrazione. Sia P(x0, y0) un punto. Senza ledere la generalità, possiamosupporre che il secondo punto sia l’origine O(0, 0) (se non lo fosse possiamoeffettuare prima una opportuna traslazione di assi). La distanza d di P da O è√

x20 + y2

0 quindi deve essere d2 = x20 + y2

0 = x′20 + y′20 . Ma si ha

x20 + y2

0 = = (ax′0 + by′0)2 + (cx′0 + dy′0)

2 =

= a2x′20 + b2x′20 + 2abx′0y′0 + c2x′20 + d2x′20 + 2cdx′0y′0 =

= (a2 + c2)x′20 + (b2 + d2)y′20 + 2(ab + cd)x′0y′0.

che è uguale a x′20 + y′20 se e solo sea2 + c2 = 1

b2 + d2 = 1ab + cd = 0

che sono le condizioni per cui A è ortogonale.

3cioè se la distanza di due punti P e Q è d nel sistema non accentato, essa resta d in quello accentato

Page 122: Algebra Lineare e Geometria Ottimo

104 La retta nel piano

11.6.2. Altri sistemi di riferimento

Presentiamo ora un altro sistema di riferimento che può essere comodo invarie circostanze.

Figura 11.4. Coordinate polari

Parliamo delle coordinate polari nel piano. Sia P un punto distinto dall’originee siano (x, y) le sue coordinate in un sistema di riferimento cartesiano. Seρ =

√x2 + y2 è la distanza di P dall’origine, e ϑ l’angolo che ol vettore ~OP forma

con l’asse, si vede subito dalla figura 11.4 che si hax = ρ cos ϑ

y = ρ sin ϑcon ρ > 0, 0 ≤ ϑ < 2π.

Possiamo allora dire che il punto P ha coordinate polari (ρ, ϑ) . Se P coincide conl’origine, ovviamente ϑ non è definito, e possiamo dire che esso è individuatodalla sola coordinata ρ = 0.

OSSERVAZIONE 11.7. Mentre le coordinate polari sono rappresentate da unacoppia ordinata di numeri reali che rappresentano due lunghezze, i due numerireali che rappresentano le coordinate polari, invece, sono rispettivamente unalunghezza e l’ampiezza di un angolo (misurata in radianti).

Page 123: Algebra Lineare e Geometria Ottimo

12. La circonferenza nel piano

12.1. Generalità

Consideriamo un riferimento cartesiano ortogonale. La distanza tra i puntiP(x1, y1) e Q(x2, y2) è, come è noto,

d =√(x1 − x2)2 + (y1 − y2)2.

Sappiamo che una circonferenza Γ di centro C(x0, y0) e raggio r è l’insieme deipunti del piano che distano r da C.

Per trovare l’equazione della circonferenza basta tradurre in equazione ladefinizione, cioè, se P(x, y) è un punto qualsiasi del piano, esso sta sulla circon-ferenza se e solo se la sua distanza da C è r; cioè

r =√(x− x0)2 + (y− y0)2

da cui(x− x0)

2 + (y− y0)2 = r2 (12.1)

che assume la più usuale forma

x2 + y2 + ax + by + c = 0 (12.2)

pur di porre a = −2x0, b = −2y0 e c = x20 + y2

0 − r2.Ma si può anche far vedere che ogni equazione del tipo (12.2) rappresenta

una circonferenza. Infatti, confrontando la (12.1) con la (12.2) si vede subito

che essa rappresenta la circonferenza di centro C(− a

2,−b

2

)e di raggio r =

√a2 + b2 − 4c

2purché si abbia

a2 + b2 − 4c > 0. (12.3)

Esempio 12.1. La circonferenza che ha centro nel punto C(1, 0) e raggio r =√

2 haequazione (x− 1)2 + y2 = 2 che, sviluppata, diventa x2 + y2 − 2x− 1 = 0

Page 124: Algebra Lineare e Geometria Ottimo

106 La circonferenza nel piano

Esempio 12.2. Sia γ la circonferenza

2x2 + 2y2 − 4x− 8y + 1 = 0. (12.4)

Vogliamo trovarne centro e raggio. L’equazione (12.4) si può scrivere anche nella forma(canonica) x2 + y2 − 2x− 4y + 1

2 da cui si ha subito che il centro ha coordinate C(1, 2)

ed il raggio è r =√

4+16−22 = 3

√2

2

OSSERVAZIONE 12.1. È comodo rimuovere l’eccezione (12.3) in modo da poteraffermare che tutte le equazioni del tipo (12.2) cioè tutte le equazioni di secondogrado in cui manca il termine rettangolare ed in cui i coefficienti di x2 ed y2 sono ugualirappresentano una circonferenza. Per far ciò bisogna ampliare il piano cartesianocon i punti a coordinate complesse e quindi ammettere che sia una circonferenzaanche la curva rappresentata dall’equazione

x2 + y2 = 0

che ha un solo punto reale, e rappresenta la circonferenza con centro nell’originee raggio nullo o peggio, l’equazione

x2 + y2 + 1 = 0

che rappresenta la circonferenza, completamente immaginaria, di centro l’originee raggio immaginario r = i.

La circonferenza nel piano ha anche un’interessante rappresentazione parame-

trica: se il centro è il punto C(x0, y0) ed il raggio è r si ha che cos ϕ =x− x0

re

sin ϕ =y− y0

rdove ϕ è l’angolo che il raggio CP forma con la direzione dell’asse

x. Dunque la circonferenza che ha centro in C(x0, y0) e raggio r ha equazioniparametriche

x = x0 + r cos ϕ

y = y0 + r sin ϕ. (12.5)

Due circonferenze possono intersecarsi, essere esterne una all’altra, essereinterne una all’altra o tangenti, internamente od esternamente.

Esempio 12.3. Siano γ1 ≡ x2 + y2 − 2x = 0 e γ2 ≡ 2x2 + 2y2 − y = 0. Vogliamotrovare le loro intersezioni. Si osserva subito che passano entrambe per l’origine, quindio sono ivi tangenti o sono secanti. Si potrebbe stabilirlo esaminando la relazione che c’ètra la distanza dei centri e la somma o la differenza dei raggi, ma qui ci interessano leintersezioni. Dobbiamo studiare quindi il sistema

x2 + y2 − 2x = 0

2x2 + 2y2 − y = 0equivalente a

x2 + y2 − 2x = 0

x2 + y2 − 12= 0

Page 125: Algebra Lineare e Geometria Ottimo

12.1 Generalità 107

e anche, sottraendo membro a membro, al sistema x2 + y2 − 2x = 0

−2x +12

y = 0

che fornisce le soluzioni x1 = 0 y1 = 0 e x2 = 217 y2 = 8

17 .

Una retta ed una circonferenza hanno in comune due punti: se i due puntisono reali e distinti la retta è secante, se sono reali e coincidenti la retta è tangentese sono immaginarie la retta è esterna

12.1.1. Tangenti

Per determinare l’equazione di una tangente può essere utile ricordare unaproprietà elementare illustrata nella figura 12.1 nella pagina successiva

Teorema 12.1. Siano P un punto e γ una circonferenza. Se P è esterno a γ da P esconodue e due sole tangenti alla circonferenza, invece se P ∈ γ la tangente è una sola.

Si può dimostrare il

Teorema 12.2. Sia γ : (x− x0)2 + (y− y0)

2 = r2 l’equazione di una circonferenza esia T(x1, y1) ∈ Γ. Allora la retta tangente a γ in T ha equazione

(x− x1)(x1 − x0) + (y− y1)(y1 − y0) = 0 (12.6)

Dimostrazione. Poiché la tangente passa per P, essa ha equazione a(x − x1) +b(y − y1) = 0. Questa retta deve essere perpendicolare alla retta PC cioè alvettore [x1 − x0, y1 − y0] e quindi possiamo porre a = x1 − x0 e b = y1 − y0.

Nel caso di P esterno per trovare le tangenti uscenti da P si può procederecome nel seguente

Esempio 12.4. Vogliamo determinare le tangenti alla circonferenza γ ≡ x2 + y2 −2x = 0 passanti per P(0, 2). (v. fig. 12.1 nella pagina seguente). La γ ha centro nelpunto C(1, 0) e raggio r = 1. Si nota subito da questo fatto che una delle tangenti èl’asse y. Per trovare l’altra tangente si può procedere in vari modi

i) Nel fascio di rette che ha per sostegno P si scelgono quelle a distanza 1 da C.

ii) L’equazione canonica della generica retta per P è y = mx + 2. Quindi, intersecan-do con la γ si ha il sistema:

y = mx + 2

x2+y2 − 2x = 0

Page 126: Algebra Lineare e Geometria Ottimo

108 La circonferenza nel piano

Figura 12.1. Tangente da P ad una circonferenza

che ammette come equazione risolvente x2 + (mx + 2)2 − 2x = 0 che diventa,con semplici passaggi,

(m2 + 1)x2 + 2(2m− 1)x + 4 = 0. (12.7)

La (12.7) ammette due soluzioni coincidenti quando

∆4= (2m− 1)2 − 4(m2 + 1) = 0

cioè quando−4m− 3 = 0 da cui si ha la retta y = −34 x + 2 cioè 3x + 4y− 2 = 0.

OSSERVAZIONE 12.2. Nell’esempio 12.4 nella pagina precedente abbiamo tro-vato una sola retta: questo è dovuto al fatto che abbiamo usato l’equazionecanonica che, come è noto, non individua rette parallele all’asse y.

12.2. Fasci di circonferenze

L’insieme di tutte le circonferenze che passano per due punti fissi A e B sichiama fascio di circonferenze ed i due punti prendono il nome di punti base delfascio se γ1 e γ2 sono due circonferenze di equazioni rispettive

x2 + y2 + a1x + b1y + c1 = 0 (12.8)

ex2 + y2 + a2x + b2y + c2 = 0 (12.9)

si vede subito che l’equazione

λ(x2 + y2 + a1x + b1y + c1) + µ(x2 + y2 + a2x + b2y + c2) = 0 (12.10)

Page 127: Algebra Lineare e Geometria Ottimo

12.2 Fasci di circonferenze 109

rappresenta, per λ 6= −µ ancora una circonferenza che passa per A e B. Perλ = −µ la (12.10) rappresenta una retta passante per A e B che è detta asseradicale del fascio e che può esser considerata la circonferenza di raggio massimo(infinito) del fascio. Quindi

Teorema 12.3. Le equazioni di tutte e sole le circonferenze del fascio che ha per sostegnoi punti A e B si ottengono come combinazione lineare non banale di quelle di duequalsiansi circonferenze passanti per A e B.

Come abbiamo osservato, l’asse radicale, che appartiene al fascio perché siottiene ponendo λ = −µ nella (12.10), viene considerato come una circonferenzadi raggio infinito, e come tale viene spesso usato per scrivere l’equazione delfascio stesso.

Facendo riferimento all’osservazione 11.4 a pagina 99 notiamo che anche i fascidi circonferenze si possono descrivere con un solo parametro non omogeneo,pur di tener conto delle condizioni elencate appunto nell’osservazione 11.4.

Esempio 12.5. Se vogliamo scrivere l’equazione della circonferenza che passa per i trepunti A(1, 0), B(3, 0) e C(2, 3) possiamo scrivere anzittutto l’equazione del fascio chepassa per A e B combinando linearmente due qualsiasi circonferenze per A e B: le piùcomode sono quella di raggio massimo (cioè l’asse radicale, di equazione y = 0) e quelladi raggio minimo, cioè quella che ha per diametro AB, quindi centro nel punto O(2, 0) eraggio 1 cioè di equazione (x− 2)2 + y2 = 1, da cui l’equazione del fascio

x2 + y2 − 4x + λy + 3 = 0

dove, in accordo con quanto detto nell’osservazione 11.4 di pag 99, abbiamo usato un soloparametro, ovviamente posto nella posizione più comoda. A questo punto la circonferenzache cerchiamo sarà quella del fascio che passa per il punto C, cioè quella per cui

22 + 32 − 4 · 2 + 3λ + 3 = 0.

I due punti base del fascio possono anche essere coincidenti: è il caso di unfascio di circonferenze tangenti in un punto ad una retta (Fig. 12.2). In questocaso la circonferenza di raggio massimo è sempre l’asse radicale, cioè la rettatangente, e quella di raggio minimo si riduce alla circonferenza (immaginaria)che ha centro nel punto e raggio nullo.

Esempio 12.6. Vogliamo l’equazione del fascio di circonferenze tangenti nel puntoP(1, 2) alla retta di equazione y = 2x.

Possiamo combinare linearmente l’equazione della retta con quella della circonferenzache ha centro in P e raggio 0, che è: (x− 1)2 + (y− 2)2 = 0 ottenendo l’equazione delfascio

(x− 1)2 + (y− 2)2 + λ(2x− y) = 0

Page 128: Algebra Lineare e Geometria Ottimo

110 La circonferenza nel piano

Figura 12.2. Fascio di circonferenze tangenti ad una retta

Si parla di fascio anche quando le due circonferenze hanno in comune so-lo punti immaginari, questo è il caso, per esempio, di fasci di circonferenzeconcentriche.

Esempio 12.7. Per esempio il fascio di circonferenze che hanno centro nel punto C(1, 0)può essere rappresentato dall’equazione

(x− 1)2 + y2 + k[(x− 1)2 + y2 − 1

ottenuto combinando linearmente la circonferenza di raggio nullo e quella di raggio 1,entrambe con centro in C.

12.3. Circonferenza ed elementi impropri

Il problema delle intersezioni di due circonferenze dà luogo, come abbiamovisto, ad un sistema di quarto grado (due equazioni di secondo), tuttavia lesoluzioni, reali o complesse che siano, sono al più due. La ragione di questostrano fatto risiede nella considerazione dell’esistenza di due punti impropri cheappartengono a tutte le circonferenze del piano, le cui equazioni, in coordinateomogenee sono

x2 + y2 + axu + byu + cu2 = 0.

Essi sono i punti di coordinate omogenee (1 : ±i : 0) che, come si verificaimmediatamente, soddisfano l’equazione di una qualsiasi circonferenza; essiprendono il nome di punti ciclici del piano.

Esempio 12.8. Nel caso di un fascio di circonferenze concentriche, ad esempio (scrivendole equazioni in coordinate omogenee)

γ1 ≡ x2 + y2 − 2xu + 2yu− 3u2 = 0 e γ2 ≡ x2 + y2 − 2xu + 2yu = 0

Page 129: Algebra Lineare e Geometria Ottimo

12.3 Circonferenza ed elementi impropri 111

se cerchiamo l’asse radicale otteniamo l’equazione 3u2 = 0, cioè la retta impropriacontata due volte. Questo sigifica che tutte le circonferenze di questo fascio sono tangentialla retta impropria nei punti ciclici.

Page 130: Algebra Lineare e Geometria Ottimo
Page 131: Algebra Lineare e Geometria Ottimo

13. Le coniche

In questo paragrafo esamineremo le principali proprietà di alcune curve pianenote con il nome di coniche1 e cioè delle curve che vanno sotto il nome di ellisse,parabola ed iperbole.

Figura 13.1. Le coniche

In generale se O è un punto fissato del piano ed r una retta non passante per Ochiamiamo conica il luogo dei punti P tali che la distanza PO sia ε > 0 volte ladistanza tra P ed r. Il numero ε che si chiama eccentricità della conica viene spessoindicato anche con la lettera e2. Una conica si chiama ellisse se ε < 1, parabola seε = 1 e iperbole se ε > 1. (Fig.13.1)

Nello specifico possiamo dire che

DEFINIZIONE 13.1. Dati due punti F1 e F2 del piano, si chiama ellisse (Fig. 13.2)di fuochi F1 e F2 l’insieme dei punti P del piano tali che sia costante la sommadelle distanze di P da F1 e F2

d(PF1) + d(PF2) = 2a

dove a è una costante tale che 2a > d(F1F2).

1Il nome deriva dal fatto che l’ellisse, la parabola e l’iperbole sono sezioni piane di un cono circolare.2Da non confondere con il numero e = 2, 71 . . . di Nepero, base dei logaritmi naturali

Page 132: Algebra Lineare e Geometria Ottimo

114 Le coniche

Figura 13.2. L’ellisse

Determiniamo l’equazione dell’ellisse scegliendo il sistema di riferimento inmodo che i fuochi abbiano coordinate F1(−c, 0) e F2(c, 0), tenendo conto cheè 0 < c < a. Precisamente dimostriamo che l’ellisse che ha fuochi F1 e F2 haequazione

x2

a2 +y2

b2 = 1. (13.1)

dove b =√

a2 − c2.Sia P(x, y); allora deve essere

2a = d(PF1) + d(PF2) =√(x + c)2 + y2 +

√(x− c)2 + y2.

Da cui

(x + c)2 + y2 =

(2a−

√(x− c)2 + y2

)2

= 4a2 + (x− c)2 + y2 − 4a√(x− c)2 + y2

e quindi

4a√(x− c)2 + y2 = 4(a2 − cx)

da cuia2(x2 − 2xc + c2 + y2) = (a2 − cx)2 = a4 − 2a2xc + c2x2

(a2 − c2)x2 + a2y2 = a2(a2 − c2) ⇐⇒ x2

a2 +y2

a2 − c2 = 1

e la (13.1) segue ponendo b2 = a2 − c2.

Page 133: Algebra Lineare e Geometria Ottimo

115

OSSERVAZIONE 13.1. Per come è stato definito segue naturalmente che b < a;se b = a si ottiene una circonferenza e se b > a si scambiano il ruolo della x e y edunque si ottiene l’ellisse di fuochi (0,±c).

Per esempio vogliamo determinare i fuochi dell’ellisse di equazione

4x2 + y2 = 1.

Possiamo scriverla nella formax2(12

)2 + y2 = 1

da cui si ricava immediatamente che a =12

e b = 1; essendo b > a si ottiene c =

√b2 − a2 e dunque c =

√1− 1

4=

√3

2e quindi F1

(0,−√

32

)e F2

(0,

√3

2

).

Tenendo presente l’equazione (13.1) si vede subito che si può porrexa= cos ϕ

eyb= sin ϕ da cui si ottengono le comode equazioni parametriche dell’ellisse

x = a cos ϕ

y = b sin ϕϕ0 ≤ ϕ ≤ ϕ0 + 2π. (13.2)

Figura 13.3. L’iperbole

DEFINIZIONE 13.2. Dati nel piano due punti F1 e F2 si chiama iperbole difuochi F1 e F2 l’insieme dei punti P del piano tali che è costante il valore delladifferenza delle distanze di P da F1 e F2

|d(PF1)− d(PF2)| = 2a

dove a è una costante che soddisfa la relazione 2a < d(F1F2).

Page 134: Algebra Lineare e Geometria Ottimo

116 Le coniche

Se F1(−c, 0) e F2(c, 0) si ottiene, con calcoli del tutto analoghi a quelli svoltiprecedentemente – e che lasciamo per esercizio al lettore – che l’iperbole aventefuochi in F1 e F2 ha equazione

x2

a2 −y2

b2 = 1 (13.3)

dove c =√

a2 + b2.

Si osserva anche che per grandi valori di |x|, l’iperbole “si avvicina”alle duerette di equazioni ay = ±bx, infatti dalla (13.3) si ha

ay = ±√−a2b2 + b2x2,

da cui, se y > 0

ay− b|x| =√−a2b2 + b2x2 − b |x|

=(√−a2b2 + b2x2 + b |x|)(

√−a2b2 + b2x2 − b |x|)√

−a2b2 + b2x2 + b |x|

=−a2b2

b |x|+√−a2b2 + b2x2

.

questa è una quantità che diventa sempre più piccola al crescere di |x|. Le rette

di equazioni y = ±ba

x si chiamano asintoti dell’iperbole.3

Figura 13.4. La parabola

Consideriamo ora la parabola.3Il concetto generale di asintoto di una curva è stato chiarito nei corsi di Analisi.

Page 135: Algebra Lineare e Geometria Ottimo

13.1 Coniche in forma generale 117

DEFINIZIONE 13.3. Dati nel piano un punto F ed una retta r tali che F 6∈ r, unaparabola di fuoco F e direttrice r è l’insieme dei punti P del piano equidistantida F e da r cioè:

d(FP) = d(Pr).

Per trovarne l’equazione canonica (v. Fig. 13.4 nella pagina precedente) siap > 0, se F

( p2

, 0)

allora r ha equazione x = − p2

e l’equazione della parabola è:

y2 = 2px (13.4)

infatti

d(PF) =

√(x− p

2

)2+ y2

ed(P, r) =

∣∣∣x +p2

∣∣∣da cui

x2 + px +p2

4= x2 − px +

p2

4+ y2

che, semplificata, è la (13.4).

Dalle equazioni che abbiamo trovato notiamo che l’ellisse e l’iperbole sonocurve simmetriche: esse posseggono due assi di simmetria tra loro ortogonaliche nel nostro caso coincidono con gli assi del sistema di riferimento, quindihanno anche un centro di simmetria, che coincide con il punto di incontro degliassi e che, in forma canonica, è l’origine del sistema di riferimento; la parabola,invece, ha un solo asse di simmetria che,in forma canonica, coincide con l’asse xe quindi non ha un centro di simmetria.

Quelle che abbiamo esaminato sono le cosiddette equazioni canoniche delleconiche, cioè quelle in cui appunto gli assi di simmetria delle coniche coincidonocon gli assi coordinati, per le coniche a centro e con l’asse x per la parabola. Seciò non accade la forma dell’equazione può essere molto diversa.

13.1. Coniche in forma generale

In generale l’equazione di una conica è una generica equazione di secondogrado, quindi ha la forma

ax2 + bxy + cy2 + dx + ey + f = 0 (13.5)

con a, b, c non tutti nulli; oppure, in forma matriciale,

~xA~xT = 0

Page 136: Algebra Lineare e Geometria Ottimo

118 Le coniche

dove ~x è il vettore[x y 1

]ed A è la matrice simmetrica

A =

a b2

d2

b2 c e

2d2

e2 f

OSSERVAZIONE 13.2. Tra le equazioni della forma (13.5) dobbiamo accettareanche equazioni del tipo x2 + y2 = 0 (circonferenza che ha un solo punto reale,già vista) o x2 + 2y2 + 1 = 0 (ellisse completamente immaginaria) oppure x2 −2y2 = 0 spezzata nelle due rette reali x +

√2y = 0 e x −

√2y = 0 ed altre

“stranezze” del genere. Quindi, per completezza, dobbiamo chiamare conicheanche curve a punti di coordinate complesse o curve spezzate in coppie di rette,queste ultime prendono anche il nome di coniche degeneri.

13.1.1. Riconoscimento di una conica

Sorge allora il problema di “riconoscere” la conica, cioè di sapere se l’equazione( 13.5 nella pagina precedente) rappresenti un’ellisse, un’iperbole o una parabola,degenere o no.

Il problema del riconoscimento di una conica si può affrontare in vari modi; peri nostri scopi possiamo notare subito che la (13.5) rappresenta una circonferenzase e solo se b = 0 e a = c. Inoltre, nel caso generale, si dimostra che medianteun opportuno cambiamento di sistema di riferimento l’equazione (13.5) si puòportare in una delle tre forme canoniche ( 13.1 a pagina 114), ( 13.3 a pagina 116)e ( 13.4 nella pagina precedente) che non contengono il termine “rettangolare”4.

Se il polinomio a primo membro della (13.5) si scompone in fattori lineari, laconica è detta degenere e spezzata in due rette (reali o immaginarie, coincidentio no). Si verifica facilmente, con passaggi elementari ma un po’ laboriosi, cheuna conica degenere rimane tale in qualunque sistema di riferimento cartesianoortogonale; quindi l’essere degenere è un carattere invariante rispetto ad unaqualsiasi rototraslazione di assi. Un’altra caratteristica invariante di una conica èla sua natura, cioè il fatto di essere un’ellisse piuttosto che una parabola od uniperbole, equilatera o no.

Questi caratteri invarianti si traducono in termini algebrici esaminando lamatrice A vista nel paragrafo precedente, e la sua sottomatrice formata dalle

prime due righe e dalle prime due colonne: B =

[a b

2b2 c

]. Si può infatti dimostrare

che

Teorema 13.1. Una conica è degenere se e solo se I3 = det A = 0; la conica è unaparabola se I2 = det B = 0; è un ellisse se I2 > 0 ed è un’iperbole se I2 < 0. In

4In realtà le equazioni canoniche dell’ellisse e dell’iperbole non contengono nemmeno termini lineari, maquesti ultimi si possono facilmente eliminare con una traslazione degli assi.

Page 137: Algebra Lineare e Geometria Ottimo

13.1 Coniche in forma generale 119

particolare se la traccia di B cioè I1 = a + c = 0 è nulla si tratta di una iperboleequilatera.

OSSERVAZIONE 13.3. Dal teorema 13.1 a fronte si vede dunque che la naturadi una conica è completamente determinata solo dai coefficienti dei terminidi secondo grado della sua equazione ed in particolare che la conica è unaparabola se e solo se il complesso dei termini di secondo grado è il quadrato diun opportuno binomio.OSSERVAZIONE 13.4. Osserviamo anche che la parabola degenera in due rettereali parallele (eventualmente sovrapposte5: per esempio quelle rappresentatedall’equazione x2 = 0); l’ellisse degenera in due rette incidenti entrambe privedi punti reali (tranne il loro punto di intersezione) infine l’iperbole degenere ècostituita da due rette reali incidenti in un punto, che sono perpendicolari se esolo se l’iperbole è equilatera.

Si può anche dimostrare che con un’opportuna rototraslazione di assi l’equa-zione generica di una conica ( 13.5 a pagina 117) si può sempre portare in una eduna sola forme canoniche elencate nella tabella 13.1.

Tabella 13.1. Le forme canoniche dell’equazione di una conica

x2

a2 +y2

a2 = 1 (ellisse reale)

x2

a2 +y2

a2 = −1 (ellisse immaginaria)

x2

a2 +y2

a2 = 0 (ellisse degenere)

x2

a2 −y2

a2 = 1 (iperbole non degenere)

x2

a2 −y2

a2 = 0 (iperbole degenere)

y2 = 2px (parabola non degenere)y2 = 0 (parabola degenere)

In riferimento alla tabella 13.1, notiamo che:

i) Nei due casi dell’ellisse, se a = b si ha una circonferenza, rispettivamentereale o immaginaria.

ii) Nell’ellisse immaginaria se a = b si ha la circonferenza di raggio nullo,degenere in due rette immaginarie: di equazioni x± iy = 0 che si chiamanorette isotrope.

iii) Nell’equazione dell’iperbole se a = b si ha l’iperbole equilatera.5in questo caso si parla spesso di una retta contata due volte

Page 138: Algebra Lineare e Geometria Ottimo

120 Le coniche

Osserviamo anche che operare la rotazione che riduce a forma canonica l’equa-zione di una conica equivale a diagonalizzare ortogonalmente la matrice A, ilche è sempre possibile, essendo A simmetrica (vedi Teorema 9.8 a pagina 80).

Esempio 13.1. Sia da riconoscere la conica

x2 − 4xy + 4y2 + x− 2y = 0. (13.6)

Si vede subito che la (13.6) si può scrivere come (x − 2y)2 + x − 2y = 0, quindi,poiché il complesso dei termini di secondo grado è un quadrato, si tratta di una parabola;inoltre, raccogliendo opportunamente la (13.6) si scrive anche (x− 2y)(x− 2y+ 1) = 0

dunque è degenere. del resto si vede anche subito che la matrice A =

1 −2 12

−2 4 −112 −1 0

è

singolare.

Figura 13.5. Esempio 13.2

Esempio 13.2. Vogliamo riconoscere la conica di equazione x2 − 2xy + 6y2 − 2x = 0.

La matrice dei coefficienti è A =

1 −1 −1−1 6 0−1 0 0

che non è singolare. Si vede subito

che la sottomatrice B =

[1 −1−1 6

]ha determinante uguale a 5 quindi positivo: si tratta

dunque di un’ellisse non degenere (vedi Figura 13.5).

Page 139: Algebra Lineare e Geometria Ottimo

13.2 Tangenti ad una conica in forma canonica 121

13.2. Tangenti ad una conica in forma canonica

Sia γ una conica. Una retta r ha in comune con γ al massimo due punti, infattiil sistema formato dalle equazioni della retta e della conica ammette al più duesoluzioni, in quanto la risolvente del sistema è al più di secondo grado. Questidue punti, però, possono essere distinti, reali o complessi oppure coincidenti. Inquesto caso diciamo che la retta r è tangente alla conica γ.

Nel caso delle equazioni in forma canonica si verifica agevolmente che seP(x0, y0) è un punto appartenente alla conica l’equazione della tangente in Palla conica è, per le coniche reali a centro,

xx0

a2 ±yy0

b2 = 1 (13.7)

ovviamente con il segno + se si tratta di un’ellise e con il segno − se si trattadi un’iperbole. ed invece per la parabola in forma canonica l’equazione dellatangente in P è:

yy0 = p(x + x0). (13.8)

ATTENZIONE Le (13.7) e (13.8) rappresentano le tangenti solo se P appartienealla conica e quest’ultima è scritta in forma canonica.

13.3. Conica per cinque punti

L’equazione generica della conica ( 13.5 a pagina 117) è un’equazione chedipende da sei coefficienti omogenei6; quindi imporre il passaggio per un puntodà luogo ad una equazione in sei variabili. Dunque il passaggio per cinque puntidistinti Pi(xi, yi), i = 1 . . . 5 dà luogo al sistema

ax21 + bx1y1 + cy2

1 + dx1 + ey1 + f1 = 0

ax22 + bx2y2 + cy2

2 + dx2 + ey2 + f2 = 0

ax23 + bx3y3 + cy2

3 + dx3 + ey3 + f3 = 0

ax24 + bx4y4 + cy2

4 + dx4 + ey4 + f4 = 0

ax25 + bx5y5 + cy2

5 + dx5 + ey5 + f5 = 0

che è lineare omogeneo di 5 equazioni nelle 6 incognite a, b, c, d, e ed f . Allorase il rango della matrice dei coefficienti è massimo, cioè, detta A la matrice deicoefficienti, se r(A) = 5 il sistema ammette ∞1 soluzioni, cioè infinite soluzioniche differiscono solo di un fattore di proporzionalità. Quanto qui esposto sitraduce nel

6cioè, ricordiamo, definiti a meno di un fattore di proporzionalità non nullo.

Page 140: Algebra Lineare e Geometria Ottimo

122 Le coniche

Teorema 13.2. Per cinque punti, a tre a tre non allineati, passa una ed una sola conicanon degenere.

Dimostrazione. Se i cinque punti sono a tre a tre non allineati le equazioni sonoindipendenti quindi il sistema ammette ∞1 soluzioni, infatti, se così non fosse,cioè se una delle equazioni fosse combinazione lineare delle altre quattro, siavrebbe che tutte le coniche che passano per quattro punti A B C D passerebberoanche per il quinto E, il che è assurdo, perché la conica che si spezza nelle retteAB e CD dovrebbe passare per E che per ipotesi non può appartenere nè alla rettaAB nè alla CD. L’unica conica che passa per i cinque punti è anche irriducibile,perché se così non fosse almeno tre dei cinque punti sarebbero allineati.

Le condizioni poste non vietano che due dei cinque punti coincidano. In talcaso la conica è tangente ad una retta passante per i due punti coincidenti (e pernessuno dei rimanenti). Di più le coppie di punti coincidenti possono essere due,in tal caso la conica sarà tangente a due rette che passano ciascuna per una dellecoppie di punti coincidenti.

13.4. Le coniche in coordinate omogenee

In coordinate omogenee, cioè lavorando nel piano ampliato con gli elementiimpropri, l’equazione ( 13.5 a pagina 117) si scrive

ax2 + bxy + cy2 + dxu + eyu + f u2 = 0 (13.9)

Per riconoscere la natura di una conica è più elegante studiarne il comporta-mento all’infinito, intersecandola con la retta impropria. Infatti segue dalleconsiderazioni svolte sin qui, che una retta ed una conica hanno sempre duepunti in comune, distinti o coincidenti, reali o meno, propri o impropri.

Una rototraslazione di assi, che, come abbiamo visto, non altera la natura diuna conica, manda punti propri in punti propri e punti impropri in punti impro-pri, quindi la natura di una conica equivale al suo comportamento all’infinito,che possiamo esaminare sulle equazioni canoniche.

Perx2

a2 ±y2

b2 = u2 i punti impropri sono quelli delle due rettex2

a2 ±y2

b2 = 0

e cioè, rispettivamente(

1 : ±iba

: 0)

per l’ellisse e(

1 : ±ba

: 0)

per l’iperbole,

dunque l’iperbole ha due punti impropri reali e distinti: quelli dei suoi asintoti mentrei punti impropri dell’ellisse sono immaginari.

Per quanto riguarda l’equazione y2 = 2pxu della parabola si ha y2 = 0 cheequivale all’asse x contato due volte, quindi la parabola è tangente alla rettaimpropria nel punto X∞(1 : 0 : 0). Nel caso generale l’intersezione tra una

Page 141: Algebra Lineare e Geometria Ottimo

13.4 Le coniche in coordinate omogenee 123

parabola e la retta impropria produce il sistemaax2 + bxu + cy2 = 0

u = 0

in cui la prima equazione è il quadrato di un binomio (αx + βy) e quindi laparabola avrà il punto improprio (β : −α : 0).

Dunque possiamo concludere che:

L’ellisse non ha punti impropri reali.La parabola è tangente alla retta impropria nel suo punto improprio.L’iperbole ha due punti impropri reali e distinti, in direzione ortogonale se e

solo se essa è equilatera.

Figura 13.6. Esempio 13.3

Esempio 13.3. Vogliamo riconoscere la natura della conica γ che in coordinate nonomogenee ha equazione x2 + 3xy− y2 + x− 2 = 0. Se passiamo a coordinate omogeneee intersechiamo la γ con la retta impropria u = 0 otteniamo il sistema

x2 + 3xy− y2 + xu− 2u2 = 0u = 0

equivalente a

x2 + 3xy− y2 = 0

u = 0

Dividendo la prima equazione per x2 otteniamo i coefficienti angolari delle rette in cuiè spezzata la conica del secondo sistema: m2 − 3m− 1 = 0 che ammette le due radicireali e distinte m12 = 3±

√13

2 , quindi la conica, avendo i due punti impropri reali edistinti P∞(2 : 3 +

√13 : 0) e Q∞(2 : 3−

√13 : 0) è un’iperbole; di più poiché i due

punti impropri sono in direzioni ortogonali, si tratta di un’iperbole equilatera. (Vedifigura 13.6)

Page 142: Algebra Lineare e Geometria Ottimo

124 Le coniche

Esempio 13.4. Riconosciamo la conica x2 + xy + 2y2 + x − 1 = 0. Passando acoordinate omogenee ed intersecando con la retta impropria, abbiamo x2 + xy + 2y2 = 0da cui 1 + m + 2m2 = 0 che ha radici complesse, quindi la conica è un’ellisse, come sivede dalla figura 13.7)

Figura 13.7. Esempio 13.4

13.5. Fasci di coniche

In questo capitolo estenderemo al caso delle coniche il concetto di fasciogià visto per le rette e le circonferenze come insieme di enti geometrici le cuiequazioni dipendono linearmente da una coppia di parametri omogenei o da unsolo parametro non omogeneo.

13.5.1. Generalità sui fasci di coniche

Chiamiamo fascio di coniche generato da due coniche γ1 e γ2, che si incontranoin quatto punti (reali o no, propri o impropri, a tre a tre non allineati ma eventual-mente a due a due coincidenti) l’insieme F di tutte le coniche la cui equazionesi ottiene come combinazione lineare non banale delle equazioni di γ1 e γ2. Intale situazione chiamiamo punti base del fascio i quattro punti comuni a γ1 e γ2. Siverifica facilmente che tutte e sole le coniche di F passano per tutti e quattro ipunti base.

Per quattro punti a tre a tre non allineati passano sei rette, che, opportuna-mente considerate a due a due, formano le (uniche) tre coniche degeneri di F .Osserviamo inoltre che imporre ad una conica di passare per quattro punti nonallineati vuol dire fornire quattro condizioni lineari indipendenti.

Page 143: Algebra Lineare e Geometria Ottimo

13.5 Fasci di coniche 125

Per scrivere l’equazione del fascio di coniche che ha come punti base i punti A,B, C e D basta combinare linearmente le equazioni di due qualsiansi di questeconiche; in generale le più comode sono quelle degeneri; esse sono tre: quellaspezzata nella coppia di rette AB e CD che indicheremo con AB ·CD, la AC · BDe la AD · BC possiamo usare due di queste per scrivere l’equazione del fascio.

Se due dei quattro punti base coincidono si ha una condizione di tangenza: èil caso del fascio di coniche tangenti in un punto ad una data retta e passanti peraltri due punti.

Ci possono essere anche due coppie di punti coincidenti: in tal caso si parla difascio di coniche bitangenti, cioè di coniche tangenti in un punto P ad una retta red in un punto Q ad una seconda retta s.

Se le due coniche da cui partiamo per costruire il fascio hanno rispettivamenteequazioni:

γ1 ≡ a1x2 + b1xy + c1y2 + d1x + e1y + f1 = 0

γ2 ≡ a2x2 + b2xy + c2y2 + d2x + e2y + f2 = 0

l’equazione del fascio sarà:

λ(a1x2 + b1xy + c1y2 + d1x + e1y + f1)+

+µ(a2x2 + b2xy + c2y2 + d2x + e2y + f2) = 0 (13.10)

L’equazione (13.5.1) può assumere anche la forma

(λa1 + µa2)x2 + (λb1 + µb2)xy + (λc1 + µc2)y2+

+(λd1 + µd2)x + (λe1 + µe2)y + λ f1 + µ f2 = 0 (13.11)

Ci chiediamo quando l’equazione (13.5.1) rappresenta un’iperbole equilatera.Ricordiamo che una conica ax2 + bxy + cy2 + dx + ey + f = 0 è un’iperboleequilatera se e solo se a + c = 0 quindi nella (13.11) se e solo se λa1 + µa2 +λc1 + µc2 = 0. Questa è un’equazione lineare che può ammettere una solasoluzione, oppure essere identicamente verificata (se a1 + c1 = a2 + c2 = 0) onon ammettere soluzioni (se, ad esempio, a1 + c1 6= 0, a2 + c2 = 0).; quindi inun fascio di coniche possono esserci esattamente una iperbole equilatera, soloiperboli equilatere o nessuna iperbole equilatera.

Analogamente possiamo dire che la (13.11) rappresenta una parabola se e solose

(λb1 + µb2)2 + 4(λa1 + µa2)(λc1 + µc2) = 0 (13.12)

L’equazione (13.12) può ammettere esattamente due soluzioni reali, distinte ocoincidenti, e allora nel fascio ci sono due parabole distinte o coincidenti7 oppureessere identicamente soddisfatta, e allora si tratta di un fascio di parabole oimpossibile, e allora si tratta di un fascio di coniche che non contiene parabole.

7eventualmente degeneri

Page 144: Algebra Lineare e Geometria Ottimo

126 Le coniche

Esempio 13.5. Cerchiamo se esistono parabole passanti per i punti comuni alle conicheγ1 ≡ x2 + y2 = 4 e γ2 ≡ x2 − 2xy− y2 + 2x = 0 (circonferenza e iperbole equilateranon degenere). Il fascio individuato dalle due coniche ha equazione λ(x2 + y2 − 4) +µ(x2 − 2xy − y2 + 2x) = 0 che si può anche scrivere come x2 − 2xy − y2 + 2x +k(x2 + y2 − 4) = 0 o anche come

(k + 1)x2 − 2xy + (k− 1)y2 + 2x− 4k = 0

Per avere una parabola dovrà essere (k + 1)(k− 1)− 1 = 0 da cui k = ±√

2. Quindisi hanno due parabole, di equazioni rispettive

(1 +√

2)x2 − 2xy− (1 +√

2)y2 + 2x− 4√

2 = 0

(1−√

2)x2 − 2xy− (1−√

2)y2 + 2x + 4√

2 = 0

13.6. Fasci e punti impropri

Le questioni riguardanti le coniche per quattro o cinque punti hanno sensoanche quando uno o due dei punti sono impropri; ad esempio se si dice cheuna conica ammette un asintoto parallelelo ad una retta r data, si intende chela conica passa per il punto improprio R∞ della retta r; se si conosce propriol’equazione dell’asintoto, allora le condizioni sono due: il passaggio per il puntoimproprio e la tangenza ivi alla retta asintoto.

La circonferenza è una particolare conica che viene individuata dando solo trecondizioni lineari indipendenti; questo fatto si spiega considerando che, comeabbiamo detto alla fine del capitolo12 tutte le circonferenze del piano passanoper due punti: i punti ciclici. Un fascio di circonferenze secanti è dunque un casoparticolare di quello delle coniche per quattro punti distinti.

Per quanto riguarda l’asse radicale di un fascio di circonferenze, esaminiamoche cosa accade in coordinate omogenee intersecando due circonferenze: si ha ilsistema

x2 + y2 + axu + byu + cu2 = 0

x2 + y2 + αxu + βyu + γu2 = 0.

Sottraendo membro a membro e raccogliendo opportunamente si ha l’equazione

u [(a− α)x + (b− β)y + c− γ] = 0

che è l’equazione di una conica spezzata nella retta impropria e in un altra retta,quella che abbiamo chiamato l’asse radicale del fascio.

Page 145: Algebra Lineare e Geometria Ottimo

Parte III.

Polarità piana

Page 146: Algebra Lineare e Geometria Ottimo
Page 147: Algebra Lineare e Geometria Ottimo

14. Proiettività ed involuzioni

Chiamiamo forma proiettiva di prima specie qualunque insieme di enti geometricila cui equazione è definita al variare di due parametri lineari omogenei od unonon omogeneo che possa però assumere anche il valore infinito: le rette, vistecome insieme di punti (punteggiate) sono forme di prima specie, così come losono i fasci di rette o di coniche.

In questo capitolo ci occuperemo di particolari trasformazioni tra forme diprima specie dette proiettività e di un particolare ed importante tipo di talitrasformazioni dette involuzioni.

14.1. Proiettività

Si considerino due rette proiettive (cioè completate con il loro punto improprioe pensate come insieme di punti) r e r′. Su ciascuna di esse si può fissare unsistema di ascisse in modo che (x : u) siano le coordinate omogenee del genericopunto P ∈ r e (x′ : u′) quelle del generico punto P′ ∈ r′. Chiamiamo proiettivitàtra r ed r′ la corrispondenza biunivoca π che associa al punto P(x : u) di r ilpunto P′ di r′ di coordinate

ρx′ = ax + buρu′ = cx + du

(14.1)

con ac− bd = 0 e ρ ∈ R, ρ 6= 0. Facendo nel sistema (14.1) il rapporto membro amembro e passando dalle coordinate omogenee a quelle ordinarie si ottiene

x′ =ax + bcx + d

(14.2)

che è la forma più usata per descrivere una proiettività. Esse valgono soltantoper i punti propri, infatti il corrispondente del punto P∞(1 : 0) dalla (14.1) ha

coordinate tali che sia

ρx′ = aρy′ = c

e se c 6= 0 si ha P′(a : c) cioè P′( a

c)

mentre

se è c = 0 si ottiene il punto di coordinate omogenee P′(a : 0) cioè il puntoimproprio della retta r′. Esso può anche essere determinato, usando la (14.2),

come x′ = limx→0

ax + bcx + d

. In modo analogo si osserva che il punto di r che ha come

Page 148: Algebra Lineare e Geometria Ottimo

130 Proiettività ed involuzioni

corrispondente il punto improprio di r′ è P(−d : c), dunque per c 6= 0 si haP(− d

c

)e per c = 0 si ha il punto improprio di r.

Un altro modo per rappresentare una proiettività si può ricavare eliminando ildenominatore nella (14.2) ottenendo una relazione del tipo

αxx′ + βx + γx′ + δ = 0 (14.3)

con la condizione αδ− βγ = 0.

Se nella ( 14.1 nella pagina precedente) lasciamo cadere la condizione ad− bc =0 si perde la biunivocità, come mostra il seguente

Esempio 14.1. Si consideri la corrispondenza x′ = 2x−4−x+2 in cui, appunto, è ad− bc =

2 · 2− (−4) · (−1) = 0. possiamo scrivere x′ = 2(x−2)−(x−2) e quindi x′ = −2 per ogni

x 6= 2 mentre per x = 0 si ha la forma di indecisione 00 che corrisponde alla coppia di

coordinate omogenee nulle ma non rappresenta alcun punto.

Esempio 14.2. Consideriamo la proiettività x′ = x−1x+1 e calcoliamo il corrispondente

di qualche punto. Ad A(1) corrisponde il punto A′ di ascissa x′ = 1−11+1 = 0, al punto

B(−1) il punto di ascissa x′ = −1−1−1+1 = ∞ cioè il unto improprio della retta r′ ed al

punto P∞ improprio della r il punto di ascissa x′ = limx→∞

x−1x+1 = 1

Nel caso in cui le due rette (o più in generale le due forme) coincidano, cioè,come si suol dire, la proiettività sia tra forme sovrapposte si chiamano uniti o fissi ipunti che sono corrispondenti di se stessi.

Esempio 14.3. Vogliamo trovare i punti uniti della priiettività di equazione xx′ − x−2x′ = 0. Un punto è unito se e solo se è corrispondente di se stesso, cioè se x = x′.Tenendo conto di questa condizione si ottiene l’equazione x2− 3x = 0 da cui i due puntiuniti O(0) ed A(3).

Dall’esempio precedente si vede che, se nella (14.3) è α 6= 0 la ricerca dei puntiuniti si riconduce alla ricerca delle radici di un’equazione di secondo grado,quindi una proiettività può avere:

• due punti uniti distinti (proiettività iperbolica)

• un punto unito doppio (proiettività parabolica)

• nessun punto unito (proiettività ellittica)

Nel caso in cui sia α = 0 si verifica facilmente che un punto unito è il puntoimproprio: infatti da βx + γx′ + δ = 0 si ha x′ = −βx−δ

γ (qui γ è sicuramente

Page 149: Algebra Lineare e Geometria Ottimo

14.2 Involuzioni 131

non nullo perche se no sarebbe αβ− γδ = 0 e non avremmo una proiettività)e quindi lim

x→∞−βx−δ

γ = ∞. L’altro punto unito sarà, se β 6= −γ x = − δβ+γ e se

β = −γ il punto improprio è un punto unito doppio.

Ogni proiettività è rappresentata da un’equazione omogenea che dipende da 4coefficienti, quindi è perfettamente determinata quando sono date tre coppie dipunti corrispondenti (uniti o meno):

Esempio 14.4. Vogliamo l’equazione della proiettività che ammette come punti uniti ipunti A(0), B(1) e fa corrispondere al punto C(2) il punto C′(−1). Le condizioni poste,

sostituite nella (14.3), danno luogo al sistema

δ = 0

α + β + γ + δ = 0−2α + 2β− γ + δ = 0

da cui si ricava

δ = 0, α = 3β e γ = −4β e quindi l’equazione della proiettività è 3xx′ + x− 4x′ = 0.

Finora abbiamo considerato proiettività tra rette (punteggiate), ma come abbia-mo detto, si possono considerare allo stesso modo proiettività tra fasci di retteo di coniche, in questo caso le coordinate (omogenee) del singolo elemento delfascio sono i parametri che lo individuano nel fascio stesso.

Esempio 14.5. Sia F il fascio λx + µy = 0 di rette per l’origine e F ′ λ′(x − 1) +µ′y = 0 quello delle rette per P(1, 0), e sia π la corrispondenza che associa ad ogni rettar di F la retta r′ di F ′ ad esssa perpendicolare. Per la condizione di perpendicolarità si

deve avere λµ′ + λ′µ = 0 cioè

ρλ′ = −µ

ρµ′ = λche diventa, utilizzando nei due fasci un

solo parametro non omogeneo e scrivendo : y = mx e F ′ : y = m′(x− 1) m′ = − 1m

cioè mm′ − 1 = 0. Si hanno quindi delle relazioni analoghe alle (14.1), (14.2) ed (14.3);dunque la relazione di ortogonalità definisce una proiettività tra i due fasci considerati.

Le rette, pensate come punteggiate ed i fasci (di rette o di coniche) vengonoglobalmente indicate, in questo contesto, come forme di prima specie. D’ora inavanti, salvo avviso contrario, sottintendiamo di estendere a tutte le forme diprima specie le considerazioni che facciamo per le punteggiate.

14.2. Involuzioni

Se in una proiettività π tra forme di prima specie sovrapposte si ha una coppiadi punti A e B tale che π(A) = B =⇒ π(B) = A si dice che la coppia è involutoriao che i punti si corrispondono in doppio modo.

DEFINIZIONE 14.1. Una proiettività tra forme di prima specie sovrapposte incui ogni coppia di elementi è involutoria si chiama involuzione

Page 150: Algebra Lineare e Geometria Ottimo

132 Proiettività ed involuzioni

L’equazione di una involuzione si può scrivere, in analogia con la (14.3) come

αxx′ + β(x + x′) + δ = 0 (14.4)

che è un’equazione simmetrica, cioè non cambia scambiando x con x′.

Lemma 14.1. Se in una proiettività di equazione (14.3) esiste una coppia involutoria,allora si ha β = γ e quindi la proiettività è in particolare una involuzione.

Dimostrazione. Infatti se a x1, ascissa di un punto non unito corrisponde x2 6= x1si ha αx1x2 + βx1 + γx2 + δ = 0, ma poiché anche x1 corrisponde ad x2 si avràanche αx2x1 + βx2 + γx1 + δ = 0; sottraendo membro a membro otteniamoβ(x1 − x2) + γ(x2 − x1) = 0 da cui (x1 − x2)(β− γ) = 0 e poiché x2 6= x1 deveessere β− γ = 0, quindi la proiettività è un’involuzione.

Per le involuzioni sussiste il

Teorema 14.2. La proiettività di equazione (14.3) è un’involuzione se e soltanto seβ = γ.

Dimostrazione. Se β = γ, risolvendo la (14.3) sia rispetto ad x che ad x′ si ha

x′ =βx + δ

αx + βe x =

βx′ + δ

αx′ + β

quindi ogni coppia di punti è involutoria; viceversa se la proiettività è un’involu-zione, allora ogni coppia di punti è involutoria e quindi, per il lemma 14.1 si haβ = γ.

Segue immediatamente dal Lemma 14.1 e dal Teorema 14.2.

Corollario 14.3. Una proiettivitàπ tra forme di prima specie sovrapposte che ammet-ta una coppia involutoria è una involuzione, cioè tutte le coppie di elementi che sicorrispondono in π sono involutorie

Dimostrazione.

L’equazione (14.4) dipende da tre coefficienti omogenei, quindi essa è univoca-mente determinata da due coppie di punti corrispondenti1, in particolare un’involu-zione è univocamente determinata dai suoi punti uniti.

Anche le involuzioni si possono classificare in base ai loro punti uniti: precisa-mente un’involuzione è

iperbolica se ammette due punti uniti reali e distinti;ellittica se non ha punti uniti reali.

1Due punti che si corrispondono in una involuzione vengono anche spesso detti punti coniugati

Page 151: Algebra Lineare e Geometria Ottimo

14.2 Involuzioni 133

Non esistono involuzioni paraboliche, infatti ponendo nella 14.4 x = x′ si ottienel’equazione di secondo grado αx2 + 2βx + δ = 0 il cui discirminante ∆ = 4β2 −4αγ = 4(B2 − αγ) non si annulla mai perché dev’essere αδ− βγ 6= 0 e quindi,siccome si tratta di una involuzione αδ− β2 6= 0

Vediamo ora qualche esempio

Esempio 14.6. Calcoliamo i punti uniti dell’involuzione xx′ + 1 = 0. Si pervieneall’equazione x2 + 1 = 0 che non ha radici (in R). Quindi l’involuzione non ha puntiuniti reali ed è dunque ellittica.

Esempio 14.7. Troviamo l’equazione dell’involuzione che ha come punti uniti A(0) eB(1). Le coordinate dei punti uniti sono soluzioni dell’equazione x2 − x = 0 da cui siottiene xx′ − 1

2(x + x′) = 0.

Esempio 14.8. Sia data, in un fascio di rette, l’involuzione che fa corrispondere allaretta di coefficiente angolare m = 3 quella di coefficiente angolare m′ = ∞ e che ammettecome unita la retta per cui m = 1. Vogliamo trovare l’altra retta unita. Dalla relazionem′ = − βm+δ

αm+β , tenendo conto delle condizioni date si hanno le relazioni 3α + β =

0 e 1 = − β+δα+β che danno luogo al sistema

α + 2β = −δ

3α + β = 0che ha come soluzione

δ = 5α

β = −3α. L’involuzione cercata ha dunque equazione mm′ − 3(m + m′) + 5 = 0.

Ponendo m = m′ si ha l’equazione ai punti uniti m2 − 6m + 5 = 0, le cui soluzionisono m = 1, che sapevamo, ed m = 5, coefficiente angolare dell’altra retta unita.

Page 152: Algebra Lineare e Geometria Ottimo
Page 153: Algebra Lineare e Geometria Ottimo

15. Polarità piana

In questo capitolo esamineremo e studieremo una particolare corrispondenzabiunivoca tra punti e rette del piano indotta da una conica.

15.1. Polare di un punto rispetto ad una conica irriducibile

Sia data una conica irriducibile1 γ che, come già visto, può essere rappresentata,in coordinate omogenee, dall’equazione

f (x, y, u) = a11x2 + 2a12xy + a2y2 + 2a13xu + 2a23yu + a33u2 = 0 (15.1)

o anche, in notazione matriciale

~xA~xT = 0 (15.2)

dove ~x = [x, y, u] ed A = [aik] è la matrice simmetrica dei coefficienti della (15.1).

DEFINIZIONE 15.1. Chiamiamo polare del punto P(x0 : t0 : u0) rispetto alla co-nica di equazione (15.1) la retta che può scriversi indifferentemente2 in ciascunadelle due seguenti forme

x(

∂ f∂x

)P+ y

(∂ f∂y

)P+ u

(∂ f∂u

)P= 0 (15.3)

x0

(∂ f∂x

)+ y0

(∂ f∂y

)+ u0

(∂ f∂u

)= 0 (15.4)

Si vede subito che anche la (15.4) rappresenta una retta in quanto è sicu-ramente un’equazione lineare e che le tre derivate parziali non si annullanocontemporaneamente in alcun punto del piano. Inoltre si può dimostrare chela corrispondenza che associa ad ogni punto del piano la sua polare rispetto aduna conica γ è biunivoca.

Se la retta r è la polare del punto P il punto P si chiama polo della retta r rispettoalla conica γ.

1Da qui in poi, e per tutto il capitolo, anche se non espressamente detto, le coniche prese in esame dovrannoessere considerate, salvo esplicito avviso contrario, irriducibili.

2L’equivalenza delle due forme dell’equazione della polare si può facilmente verificare sostituendosemplicemente nella (15.4) le espressioni delle tre derivate parziali del polinomio di cui alla (15.1)calcolate in un punto generico.

Page 154: Algebra Lineare e Geometria Ottimo

136 Polarità piana

Se la conica è data con l’equazione (15.2), l’equazione della polare è data da

~xA~x0T = 0 oppure ~x0A~xT (15.5)

dove ~x0 è il vettore [x0, y0, u0]; l’equivalenza delle due forme nella (15.5) derivadal fatto che A è simmetrica, si ha infatti ~xA~x0T = ~x0TT AT~xT = ~x0A~xT.

L’equivalenza delle (15.5) con le (15.3) ed (15.4) può essere ricavata con sem-plici calcoli osservando che le righe della matrice A (e quindi anche le colonne,essendo A simmetrica) sono i coefficienti delle tre derivate parziali del polinomioa primo membro della (15.1) rispetto ad x, y e u rispettivamente.

Esempio 15.1. Vogliamo calcolare la polare del punto P(1 : 0 : 1) rispetto all’iperboledi equazione x2− xy + xu− u2 = 0. Applicando la (15.4) si ottiene 1 · (2x− y + u) +0 · (−x) + 1 · (x− 2u) = 0 e quindi l’equazione della polare è 3x− 2y− 2u = 0

Come si vede dall’esempio 15.1 è spesso più comodo usare la forma (15.4)piuttosto che la (15.3), che torna utile in casi come quello del seguente

Esempio 15.2. Vogliamo determinare il punto proprio, di ascissa unitaria, che rispetttoall’ellisse irriducibile γ di equazione f (x, y, u) = x2 + 4y2 − u2 = 0 ha la polareperpendicolare rispetto a quella del punto P(−1, 1). La polare di P rispetto a γ haequazione

[x, y, u]

1 0 00 4 00 0 −1

−111

= 0

cioè [x, y, u]

−14−1

= 0 da cui x − 4y + u = 0; sia ora A(1, t) il generico punto

proprio del piano di ascissa unitaria: i coefficienti di x e y nell’equazione della sua polaresono a =

(∂ f∂x

)A

e b =(

∂ f∂y

)A

; le due polari sono perpendicolari se e soltanto se è

1 ·(

∂ f∂x

)A− 4 ·

(∂ f∂y

)A= 0 cioè (2x)A − 4(8y)A = 0 da cui 2− 32t = 0 e quindi

t = 116 . Il punto cercato è allora A

(1, 1

16

).

Dare una coppia polo–polare, cioè un punto e la sua polare rispetto ad una co-nica, significa imporre sui coefficienti dell’equazione della conica due condizionilineari indipendenti.

Esempio 15.3. Consideriamo le coniche che ammettono come polare del punto X∞(1 :0 : 0) la retta di equazione y+ 1 = 0. Pensiamo alla conica nella forma 15.1 nella paginaprecedente: l’equazione

(∂ f∂x

)· 1 +

(∂ f∂y

)· 0 +

(∂ f∂u

)· 0 = 0 che diventa a11x + a12y +

a13u = 0 dovrà essere quella della retta data, quindi si deve avere a11 = 0 = a12 − a13dunque proprio due condizioni lineari indipendenti.

Page 155: Algebra Lineare e Geometria Ottimo

15.2 Principali proprietà della polarità piana 137

Si può dimostrare che se P appartiene alla conica (e soltanto in questo caso)la sua polare rispetto alla conica è la tangente in P alla conica: diventa alloramolto semplice trattare molte questioni di tangenza mediante lo strumento dellapolarità. Ad esempio la tangente nell’origine ad una conica γ si può pensarecome la polare dell’origine (0 : 0 : 1) cioè il complesso dei termini lineari delpolinomio che rappresenta la γ. Inoltre gli asintoti di un’iperbole sono le tangentiall’iperbole stessa nei suoi punti impropri, quindi possono essere determinaticome le polari di questi ultimi.

Esempio 15.4. Vogliamo gli asintoti dell’iperbole 6x2 − 5xy + y2 − 2xu = 0. I suoipunti impropri sono P∞(1 : 2 : 0) e Q∞(1 : 3 : 0). Gli asintoti, che sono le polari ditali punti, avranno rispettivamente equazioni 1 · (12x− 5y− 2u) + 2 · (−5x + 2y) =0 e 1 · (12x − 5y − 2u) + 3 · (−5x + 2y) = 0, cioè, in coordinate non omogenee2x− y− 2 = 0 e 3x− y + 2 = 0

15.2. Principali proprietà della polarità piana

Sussiste il seguente fondamentale

Teorema 15.1 (Legge di reciprocità o di Plücker). Se la polare del punto P rispettoad una conica irriducibile γ : f (x, y, u) = 0 passa per il punto Q allora la polare di Qrispetto alla medesima conica passa per il punto P.

Dimostrazione. Scriviamo l’equazione della polare di P rispetto a γ nella forma(15.3):

x(

∂ f∂x

)P+ y

(∂ f∂y

)P+ u

(∂ f∂u

)P= 0

per ipotesi essa passa per Q(x1, : y1 : z1) quindi la

x1

(∂ f∂x

)P+ y1

(∂ f∂y

)P+ u1

(∂ f∂u

)P= 0 (15.6)

è un’identità. Scriviamo ora l’equazione della polare di Q nella forma (15.4):

x1

(∂ f∂x

)+ y1

(∂ f∂y

)+ u1

(∂ f∂u

)= 0

che, grazie alla (15.6), è soddisfatta dalle coordinate di P.

I seguenti corollari sono immediate conseguenze della legge di reciprocità(Teorema 15.1)

Corollario 15.2. Se il polo Q della retta q appartiene alla retta p allora il polo P di pappartiene alla retta q.

Page 156: Algebra Lineare e Geometria Ottimo

138 Polarità piana

Corollario 15.3. Se il punto P si muove su una retta r, allora la polare di P descrive ilfascio di rette che ha per sostegno il polo R di r.

Corollario 15.4. Se una retta r descive un fascio che ha per sostegno il punto P allora ilsuo polo descrive una retta che è la polare di P.

La legge di reciprocità ci fornisce un metodo comodo per determinare lecoordinate del polo di una retta:

Esempio 15.5. Date la retta r : x+ y− 3u = 0 e la parabola x2− 2xy+ y2− 2xu = 0vogliamo determinare il polo R di r. Per la legge di reciprocità le polari di due qualsiasipunti di r passano per il polo di r, quindi possiamo scegliere su r due punti comodi,per esempio il punto improprio P∞(1 : −1 : 0) ed il punto (proprio) Q(3 : 0 : 1).La polare di P∞ ha equazione 2x − 2y − u = 0 mentre la polare di Q ha equazione2x − 3y− 3u = 0. Il punto cercato, in quanto intersezione delle due polari, avrà le

coordinate che sono soluzione del sistema

2x− 2y− u = 02x− 3y− 3u = 0

e cioè R(−3

2 : −2 : 1)

che si può anche scrivere come R(−3 : −4 : 2).

Dalle proprietà della polarità piana segue anche il

Teorema 15.5. Per un punto P non appartenente ad una conica γ passano esattamentedue tangenti alla γ, reali o meno.

Figura 15.1. Tangenti da un punto ad una conica

Dimostrazione. Riferiamoci alla Figura 15.1. Siano Q e R le intersezioni dellapolare di P con la conica3, allora la polare di Q è tangente alla conica, perché

3Nel piano ampliato con elementi impropri ed elementi immaginari una retta ed una conica hanno sempredue punti in comune, a meno che il punto non appartenga alla conica.

Page 157: Algebra Lineare e Geometria Ottimo

15.3 Elementi coniugati rispetto ad una conica irriducibile 139

Q sta sulla conica e passa per P per la legge di reciprocità. In modo analogo sipuò dire che la polare di R, a sua volta tangente, passa anch’essa per P. Quindiper P passano almeno due tangenti alla conica. Dimostriamo che sono solo due.Supponiamo, per assurdo che anche la retta PT sia tangente alla conica; sempreper la legge di reciprocità, il punto T deve stare sulla polare di P e sulla conica,quindi, ricordando che una conica ed una retta hanno in comune al massimodue punti, esso deve coincidere con Q o con R.

Dal teorema 15.5 segue ovviamente che

Teorema 15.6. la polare rispetto ad una conica irriducibile γ di un punto P nonappartenente ad essa congiunge i punti di tangenza delle tangenti passanti per P.

Questo risultato si può sfruttare per scrivere in maniera rapida ed elegante leequazioni delle tangenti condotte da un punto ad una conica.

Esempio 15.6. Sia γ la conica di equazione x2 − 2xy + x − 1 = 0; si vogliano letangenti alla γ uscenti dall’origine. La polare dell’origine ha, in coordinate omogenee,equazione x− 2u = 0; essa ha in comune con la conica il punto improprio ed il puntodi coordinate (8 : 5 : 4). Le tangenti cercate, che congiungono tali punti con O hannorispettivamente equazioni x = 0 e 5x− 8y = 0

15.3. Elementi coniugati rispetto ad una conica irriducibile

Diciamo che il punto A è coniugato o reciproco del punto B rispetto ad unaconica irriducibile γ se la polare di A passa per B. Poiché, in questo caso, in virtùdella legge di reciprocità (Teorema 15.1 a pagina 137) anche la polare di B passaper A possiamo dire che i due punti sono (mutuamente) reciproci rispetto a γ.In modo analogo diciamo che due rette a e b sono reciproche se il polo dell’unasta sull’altra. Dalle considerazioni precedenti risulta evidente che il luogo deipunti reciproci, rispetto ad una conica irriducibile γ, di un punto P è la polare diP rispetto a γ. Analogamente le rette reciproche di una retta a sono quelle delfascio che ha per sostegno il polo di a.

Esempio 15.7. Vogliamo il punto reciproco dell’origine rispetto alla conica γ : x2 −y2 − u2 = 0 che appartiene all’asse x. Poiché la polare dell’origine rispetto a γ èla retta impropria, il punto cercato sarà il punto improprio dell’asse x, cioè il puntoX∞(1 : 0 : 0).

Da quanto detto segue anche che fissata una conica irriducibile γ ed una rettar non tangente a γ,

Teorema 15.7. I punti di r reciproci rispetto a γ si corrispondono in una involuzione,detta dei punti reciproci o dei punti coniugati i cui punti uniti sono gli eventualipunti di intersezione reali tra la retta e la conica.

Page 158: Algebra Lineare e Geometria Ottimo

140 Polarità piana

(a) involuzione iperbolica, retta secante (b) involuzione ellittica,retta esterna

Figura 15.2. Involuzione dei punti reciproci

La natura di questa involuzione permette di distinguere le rette non tangentialla conica in: secanti, se l’involuzione è iperbolica, ed esterne se essa è ellittica.È escluso il caso in cui la retta sia tangente in T alla conica, perché in tal caso nonsi avrebbe un’involuzione, in quanto ogni punto di r sarebbe reciproco di T. Lasituazione è illustrata nella figure 15.2, in particolare nelle figure 15.2(a) e 15.2(b).

Vale anche, dualmente, il

Teorema 15.8. Le rette di un fascio F avente per sostegno il punto P non appartenentead una conica γ che siano reciproche rispetto alla stessa γ si corrispondono in unainvoluzione le cui rette unite sono le eventualirette reali passanti per P e tangenti alla γ.

Dimostriamo ora il

Teorema 15.9. Una conica γ è il luogo dei punti che appartengono alla propria polare,cioè sono autoconiugati rispetto alla γ

Dimostrazione. Se P ∈ γ, la sua polare rispetto alla conica è la tangente in P allaconica, quindi passa per P.

Viceversa supponiamo che P(x0 : y0 : u0) appartenga alla propria polare ri-spetto alla conica γ : f (x, y, u) = 0. Sostituendo le coordinate di P nell’equazionedella polare, si deve avere

x0

(∂ f∂x

)P+ y0

(∂ f∂y

)P+ u0

(∂ f∂u

)P= 0

Ma essendo f (x, y, u) omogenea, dal Teorema di Eulero4 sulle funzioni omogeneesegue che x

(∂ f∂x

)+ y

(∂ f∂y

)+ u

(∂ f∂u

)= 2 f (x, y, u) e quindi f (x0, y0, u0) = 0.

4Noto teorema di Analisi sulle funzioni omogene.

Page 159: Algebra Lineare e Geometria Ottimo

15.4 Triangoli autopolari 141

Esempio 15.8. Se per una conica γ non degenere l’involuzione delle rette reciprochenel fascio che ha per sostegno l’origine O(0, 0) ha equazione mm′ + (m + m′) = 0,allora le tangenti condotte da O alla conica, che sono le rette unite dell’involuzione, sipossono determinare come le rette i cui coefficienti angolari sono soluzioni dell’equazionem2 − 2m = 0, cioè m = 0 ed m = 2 e sono quindi le rette y = 0 e y = 2x.

15.4. Triangoli autopolari

DEFINIZIONE 15.2. Si chiama autopolare per una conica irriducibile γ un trian-golo5 tale che ogni vertice sia il polo del lato opposto.

Nella figura 15.3 il triangolo PQR è autopolare per l’ellisse.Tenendo conto del fatto che la polare di un punto esterno ad una conica taglia

la conica stessa in due punti reali e distinti, mentre quella di un punto internonon ha punti reali in comune con la conica, è facile verificare che un triangoloautopolare ha sempre esattamente un vertice interno alla conica e due esterni adessa, inoltre può accadere che uno o due dei vertici di un triangolo autopolaresiano punti impropri. Nel primo caso, il lato opposto al vertice improprio è undiametro della conica, nel secondo il vertice proprio è il centro della stessa.

Figura 15.3. Triangolo autopolare

5In Geometria proiettiva un triangolo è una figura piana costituita da tre rette non concorrenti, (cioè nonpassanti tutte tre per un medesimo punto) e non da tre segmenti come in Geometria elementare. Le trerette si dicono lati del triangolo ed i tre punti (propri od impropri che siano) in cui le rette si intersecano adue a due sono chiamati vertici del triangolo.

Page 160: Algebra Lineare e Geometria Ottimo

142 Polarità piana

L’insieme di tutte le coniche che ammettono un certo triangolo come autopolareè costituito da ∞2 coniche e come tale prende il nome di rete di coniche, questoequivale a dire che dare un triangolo autopolare per una conica equivale adare tre condizioni lineari indipendenti, infatti, pur essendo date tre coppiepolo–polare (quindi sei condizioni) per la legge di reciprocità (Teorema 15.1 apagina 137) le condizioni indipendenti sono solo tre.

Si può dimostrare che l’equazione complessiva della rete di coniche che ammet-ta come autopolare il triangolo di vertici A, B e C si ottiene come combinazionelineare dei quadrati delle equazioni dei tre lati, cioè, in forma simbolica,

λAB2 + µAC2 + νBC2 = 0 (15.7)

Anche in questo caso, invece di usare tre parmetri omogenei, se ne possono usaredue non omogenei, ad esempio h = λ

ν e k = µν , perdendo così le coniche che

si ottengono dalla (15.7) per ν = 0: in questo caso, tuttavia, non è necessariopensare di riammetterle per il valore ν = ∞ in quanto le questioni relative allapolarità riguardano solo coniche irriducibili: nella (15.7) non può annullarsinessuno dei tre coefficienti. Si dimostra che in realtà vale anche il viceversa, cioènessuna delle coniche della rete considerata individuata dai valori non nulli deitre parametri è degenere.

Esempio 15.9. Vogliamo determinare l’equazione dell’iperbole che ammette come auto-polare il triangolo formato dagli assi coordinati e dalla retta di equazione x + 2y− 1 = 0e come asintoto la retta x + 2y + 2 = 0.

Abbiamo tre condizioni fornite dal triangolo autopolare e due dall’asintoto (tangentenel punto improprio, quindi coppia polo–polare). La rete di coniche che ammette iltriangolo dato come autopolare ha equazione λx2 + µy2 + ν(x + 2y− 1)2 = 0 la polaredi P∞(2 : −1 : 0), punto improprio dell’asintoto, rispetto alla generica conica dellarete ha equazione (λ + 2ν)x + (µ + 4ν)y − 4ν = 0, che coincide con la retta dataquando λ + 2µ = µ+4ν

2 = −4ν2 cioè quando λ = −4ν e µ = −8ν. La conica ha dunque

equazione −4x2 − 8y2 + (x + 2y− 1)2 = 0 che diventa facilmente 3x2 − 4xy + 4y2 +2x + 4y− 1 = 0.

Nella discussione del precedente esempio abbiamo usato tre parametri omo-genei invece di due non omogenei per ricordare, ancora una volta come duerette coincidano quando le due equazioni siano individuate da due polinominon necessariamente uguali ma anche solo proporzionali.

Page 161: Algebra Lineare e Geometria Ottimo

16. Centro, diametri ed assi di una conicairriducibile

In questo capitolo vediamo come le proprietà della polarità piana viste nelcapitolo precedente possano essere utilmente utilizzate per determinare ulteriorielementi di una conica, notevoli da un punto di vista geometrico e già accennatiin modo elementare nei precedenti capitoli sulle coniche.

16.1. Centro e diametri di una conica

DEFINIZIONE 16.1. Se γ è una conica irriducibile chiamiamo centro di γ il polodella retta impropria rispetto a γ. Chiamiamo diametro di γ una qualunque rettache passi per il centro, cioè, per la legge di reciprocità la polare di un qualunquepunto improprio.

La parabola, in quanto tangente alla retta impropria nel suo punto improprio,ha centro improprio: il punto improprio del suo asse. Ne segue che la parabolaha tutti i diametri paralleli, in quanto passanti tutti per il medesimo puntoimproprio.

L’ellisse e l’iperbole, invece, hanno centro proprio (e sono dette anche coni-che a centro), infatti se esso fosse improprio, sarebbe autoconiugato, visto cheapparterrebbe alla propria polare e dunque per il Teorema 15.9 a pagina 140apparterrebbe alla conica e la sua polare, la retta impropria, sarebbe tangentealla conica, contro l’ipotesi che sia un’ellisse od un’iperbole.

Si mostra facilmente che il polo della retta impropria è centro di simmetriaper una conica a centro, cioè ogni corda AB che passa per C è tale che C sia ilpunto medio di AB. (vedi Figura 16.1 nella pagina seguente). Si può facilmenteverificare questo fatto considerando la conica in forma canonica, cioè operandouna rototraslazione del sistema di riferimento, trasformazione che non alterale proprietà della polarità piana. In questo caso la conica assume equazionea11x2 + a22y2 + a33 = 0. Una qualunque retta per il centro , che qui è l’origi-ne, ha equazione y = mx da cui l’equazione (a11 − a22m2)x2 + a33 = 0 che èun’equazione di secondo grado tale che la semisomma delle radici è nulla.

Esempio 16.1. Vogliamo trovare il centro della conica x2 − xy + x − 3 = 0. Bastaintersecare le polari di due punti impropri qualsiansi, per esempio i punti impropri degli

Page 162: Algebra Lineare e Geometria Ottimo

144 Centro ed assi

Figura 16.1. Polo della retta impropria, centro di simmetria

assi coordinati X∞(1 : 0 : 0) e Y∞(0 : 1 : 0). Le polari sono le rette 2x− y + 1 = 0 e

x = 0 il punto comune è soluzione del sistema

2x− y + 1 = 0x = 0

e cioè il punto C(0, 1)

I diametri di una conica irriducibile formano un fascio, proprio se la conicaè a centro ed improprio se la conica è una parabola. Riveste una particolareimportanza, in questo fascio, l’involuzione che ad ogni diametro fà corrispondereil suo coniugato essa prende il nome di involuzione dei diametri coniugati: duediametri sono coniugati se e soltanto se il polo dell’uno è il punto impropriodell’altro.

Gli asintoti di una iperbole sono gli elementi uniti di tale involuzione, essendodiametri ed autoconiugati (tangenti alla conica, quindi contenenti il loro polo).Più in generale possiamo dire che l’involuzione dei diametri coniugati di una conicaγ è ellittica se e solo se la γ è un’ellisse ed è iperbolica se e solo se essa è un’iperbole.Quindi l’esame dell’involuzione dei diametri coniugati fornisce un ulteriorestrumento per il riconoscimento di una conica.

Si può inoltre dimostrare che ogni diametro di una conica a centro dimezza le cordein direzione coniugata cioè ogni diametro è asse di simmetria obliqua.

Questo risultato permette di determinare graficamente il centro di una conicaed il diametro coniugato ad un diametro dato, come mostrano i seguenti esempie le seguenti figure.

Esempio 16.2. Vogliamo determinare graficamente il centro della conica γ di Figu-ra 16.2. Tracciamo due rette a e b parallele che intersecano la conica, e siano A e B e,rispettivamente A′ e B′ i punti di intersezione delle rette con la conica. Indicati con Med N i punti medi delle corde AB e A′B′ rispettivamente.; tracciamo la retta MN. Essaè un diametro (coniugato alla direzione delle rette a e b); se indichiamo con C e D i punti

Page 163: Algebra Lineare e Geometria Ottimo

16.1 Centro e diametri 145

Figura 16.2. Determinazione grafica del centro di una conica

di intersezione di questo diametro con la conica, il centro è il punto medio della cordaCD.

Esempio 16.3. Vogliamo determinare il diametro coniugato al diametro d nella conicaγ di Figura 16.3. Tracciamo una retta parallela alla d che intersechi la conica. Siano Ae B le due intersezioni della retta con la conica. e sia M il punto medio di AB allora laretta CM è il diametro coniugato cercato.

Figura 16.3. Determinazione grafica del diametro coniugato

Dimostriamo ora l’importante

Teorema 16.1. Sia

a11x2 + 2a12xy + a22y2 + 2a13xu + 2a23yu + a33 = 0

l’equazione di una conica irriducibile γ, allora l’equazione dell’involuzione dei diametriconiugati di γ è

a22mm′ + a12(m + m′) + a11 = 0 (16.1)

Page 164: Algebra Lineare e Geometria Ottimo

146 Centro ed assi

Dimostrazione. Consideriamo due qualsiansi diametri della conica e supponiamoche abbiano coefficienti angolarei m e m′ rispettivamente e pertanto passinoper i punti impropri P∞(1 : m : 0) e Q∞(1 : m′ : 0), essi sono coniugati see soltanto se la polare p di P∞(1 : m : 0) passa per Q∞(1 : m′ : 0). La pha equazione 2a11x + 2a12y + 2a13 + m(2a12x + 2a22y + 2a23) = 0 che diventa(a11 + ma12)x + (ma22 + a12)y + a13 + ma23 = 0; essa passerrà per Q∞(1 : m′ : 0)se e solo se è a11 +ma12 +m′(ma22 + a12) = 0 che con facili passaggi si riconducealla (16.1)

Esempio 16.4. La conica di equazione 3x2 − 2xy + y2 − 3x + y − 7 = 0 ammettecome involuzione dei diametri coniugati l’equazione mm′ − (m + m′) + 3 = 0. Le retteunite hanno coefficienti angolari che sono soluzioni dell’equazione m2 − 2m + 3 = 0che non sono reali. L’involuzione è perciò ellittica e quindi la conica è un’ellisse.

Se la conica è una circonferenza l’equazione si riduce a

mm′ + 1 = 0 (16.2)

relazione che si chiama anche involuzione circolare, viceversa ogni conica cheammetta la (16.2) come involuzione dei diametri coniugati è una circonferenza.Osserviamo anche che la (16.2) è la relazione che lega due rette ortogonali quindiin una circonferenza i diametri coniugati sono ortogonali e viceversa ogni conicaper cui tutti i diametri ortogonali sono coniugati è una circonferenza.

È facile verificare che le tangenti agli estremi A e B di un diametro d sonoparallele al diametro coniugato (v. fig. 16.4) infatti d è la polare del puntoimproprio P∞ di d′ e quindi le tangenti alla conica in A e B passano per P∞.

Figura 16.4. Tangenti agli estremi di un diametro

Osserviamo anche che ogni coppia di diametri coniugati forma, con la rettaimpropria un triangolo autopolare, infatti la polare dell’intersezione di due

Page 165: Algebra Lineare e Geometria Ottimo

16.2 Assi di una conica 147

diametri, che è il centro della conica, è la retta impropria e la polare del puntoimproprio di ciascun diametro è quello ad esso coniugato. Se chiamiamo r e si due diametri coniugati, la rete di coniche che ammette queste due rette comediametri coniugati ha equazione λr2 + µs2 + νu2 = 0.

Esempio 16.5. La conica che ammette le rette r ed s rispettivamente di equazioni y = xe y = −2x + 1 come diametri coniugati e passa per A(1, 2) e B(0, 2) può essere cercatanella rete di coniche che ha equazione α(x− y)2 + β(2x + y− 1)2 + 1 = 0; imponendo

il passaggio per i due punti dati si ottiene il sistema

α + 9β + 1 = 04α + β + 1 = 0

che ha come

soluzione α = − 835 e β = − 3

35 da cui l’equazione della conica 20x2 − 4xy + 11y2 −12x− 6y− 32 = 0 che è un’ellisse.

16.2. Assi di una conica

Si dice asse di una conica un diametro proprio che sia coniugato alla direzionead esso ortogonale; per quanto detto prima un asse dimezza le corde in direzioneortogonale, quindi è asse di simmetria ortogonale.

Per una parabola P tutti i diametri sono paralleli e passano per il punto im-proprio di P di conseguenza l’asse è la polare del punto improprio in direzioneortogonale a quello di P ; quindi la parabola ha un solo asse.

Consideriamo ora una conica a centro γ e siano a un suo asse e a′ il diametroconiugato ad a. Per definizione di asse il polo di a è il punto improprio di a′,quindi , per la legge di reciprocità il polo di a′ è il punto improprio di a dunqueanche A′ è un asse di γ. Abbiamo così dimostrato il

Teorema 16.2. Se una conica a centro possiede un asse, ne possiede almeno un altro

Di più, gli assi di una conica a centro diversa da una circonferenza sonoesattamente due. Infatti, se nella ( 16.1 a pagina 145) poniamo m′ = − 1

motteniamo

−a22 + a12

(m− 1

m

)+ a11 = 0

che diventaa12m2 + (a11 − a22)m− a12 = 0 (16.3)

Per a12 = 0 la (16.3) ammette due radici reali e distinte, quindi la conica ammetteesattamente una coppia di assi. Se invece è a12 = 0 e a11 6= a22 l’equazione (16.3)si abbassa di grado ed ammette una radice nulla: si hanno quindi anche in questocaso esattamente due assi, di coefficienti angolari m = 0 e m = ∞.

Infine se è a12 = 0 e a11 = a22 cioè se la conica è una circonferenza, la (16.3)diventa un’identità in accordo col fatto che l’involuzione circolare è l’involuzionedei diametri coniugati della circonferenza, per la quale, dunque, tutti i dia<ametrisono assi.

Page 166: Algebra Lineare e Geometria Ottimo

148 Centro ed assi

Esempio 16.6. Vogliamo gli assi della conica γ : x2 + xy− 2 = 0. In questo casola (16.3) diventa m2 + m − 1 = 0 che ha come radici m = −1±

√5

2 : gli assi della γ

possono essere determinati o come polari dei due punti impropri(

1 : −1±√

52 : 0

)oppure

osservando che il centro di γ è l’origine in quanto la sua equazione manca dei terminilineari. Dunque gli assi sono le rette di equazioni y = −1±

√5

2 x.

Page 167: Algebra Lineare e Geometria Ottimo

Parte IV.

Geometria dello spazio

Page 168: Algebra Lineare e Geometria Ottimo
Page 169: Algebra Lineare e Geometria Ottimo

17. Rette e piani nello spazio

17.1. Equazioni parametriche della retta nello spazio

Quanto detto nel paragrafo 11.2 a pagina 96 sulle equazioni parametriche dellaretta nel piano si generalizza facilmente al caso di rette nello spazio, precisamentediciamo che, nello spazio, una retta che passa per il punto P(x0, y0, z0) ed hala direzione del vettore ~u = [a, b, c] è l’insieme dei punti P(x, y, z) tali che ilvettore [x− x0, y− y0, z− z0] sia proporzionale al vettore [a, b, c], ottenendo cosìle equazioni parametriche di una retta nello spazio.

x = x0 + aty = y0 + btz = z0 + ct

(17.1)

Osserviamo che in questo caso l’eliminazione del parametro porta a due equa-zioni cartesiane, quindi non è possibile descrivere una retta1 nello spazio medianteuna sola equazione cartesiana. La direzione della retta è data da quella del vettore[a, b, c] le cui componenti si chiamano parametri direttori di r.

Esempio 17.1. Vogliamo le equazioni parametriche della retta che passa per i puntiP(3, 1, 0) e Q(0,−1, 1). Essa ha la direzione del vettore [3, 1, 0]− [0,−1, 1] = [3, 2,−1]e quindi le sue equazioni parametriche sono

x = 3 + 3ty = 1 + 2tz = −t

.

OSSERVAZIONE 17.1. Da quanto detto discende che i parametri direttori di unaretta sono definiti a meno di un fattore di proporzionalità non nullo, in accordocol fatto che il vettore ~v = [a, b, c] ha la stessa direzione del vettore [ka, kb, kc] se

k 6= 0. Se invece di ~v consideriamo il versore ~v′ =~v‖v‖ le componenti di ~v′ sono

i cosiddetti coseni direttori della retta, infatti sono proprio i coseni degli angoli2che la retta forma con la direzione positiva degli assi coordinati.

1In generale una linea.2Dobbiamo precisare che nello spazio si parla di angolo ϕ tra due rette orientate r ed s anche se esse non si

incontrano e non sono parallele – cioè sono, come si suol dire, sghembe – quando formano l’angolo ϕle rette r′ e s′, rispettivamente parallele ed equiverse ad r ed s e passanti per un medesimo punto, peresempio l’origine del sistema di riferimento.

Page 170: Algebra Lineare e Geometria Ottimo

152 Rette e piani nello spazio

Esempio 17.2. Vogliamo trovare i coseni direttori della retta

r :

x = 1 + ty = −2tz = −t

.

Una terna di parametri direttori è 1,−2,−1 e quindi,normalizzando i parametri direttori

otteniamo i coseni direttori che sono, ordinatamente,1√

1 + 4 + 1,−2√

6,−1√

6

Esempio 17.3. Vogliamo scrivere le equazioni parametriche delle rette che passano peril punto P(1, 2, 3) e non tagliano il piano xy. Ogni retta che non taglia il piano xy ha ladirezione di un qualunque vettore del piano xy diverso dal vettore nullo, cioè [a, b, 0] cona e b non contemporaneamente nulli; allora le equazioni parametriche delle rette cercatesaranno

x = 1 + aty = 2 + btz = 3

.

17.2. Equazione di un piano nello spazio

Un piano π è orientato quando in esso è dato il verso delle rotazioni positive.Per consuetudine una retta n ortogonale ad un piano orientato, detta anchenormale, è orientata in modo che un osservatore in piedi sul piano π dalla partepositiva di n veda le rotazioni positive sul piano operare in senso antiorario.

Sia ora dato un punto P(x0, y0, z0) ∈ π e la sua normale n a π, di parametridirettori a , b, e c e passante per P. Osserviamo che il generico punto Q(x, y, z)appartiene a π se e solo se appartiene a rette passanti per π ortogonali ad n. Unaterna di parametri direttori della generica retta per P è x − x0, y− y0 e z− z0quindi deve essere

a(x− x0) + b(y− y0) + c(z− z0) = 0

Che diventaax + by + cz + d = 0 (17.2)

pur di porre d = −ax0 − by0 − cz0. Abbiamo così dimostrato il

Teorema 17.1. Nelllo spazio tutte e sole le equazioni della forma 17.2 rappresentano unpiano in cui a, b e c sono numeri non tutti e tre nulli3.

Si suol dire che a, b e c sono i parametri direttori del piano, cioè i parametridirettori di un piano coincidono con quelli di una sua qualsiasi normale.

3in quanto parametri direttori di una retta

Page 171: Algebra Lineare e Geometria Ottimo

17.3 Parallelismo e perpendicolarità nello spazio 153

OSSERVAZIONE 17.2. Abbiamo visto che i numeri a, b e c non devono esseretutti e tre nulli. Tuttavia da quanto visto si può dedurre che:

• Se uno dei tre è nullo l’equazione (17.2) rappresenta un piano paralleloall’asse avente lo stesso nome della variabile che manca.

• Se due dei tre sono nulli, il piano rappresentato dalla (17.2) è parallelo alpiano individuato dai due assi delle variabili che mancano.

Esempio 17.4. Il piano 2x− y + 3 = 0 è parallelo all’asse z ed interseca il piano xylungo la retta di equazioni

2x− y + 3 = 0z = 0

mentre il piano x = 5 è parallelo al piano yz.

17.3. Parallelismo e perpendicolarità nello spazio

Nel paragrafo 11.1 a pagina 95 abbiamo visto dei criteri per stabilire quandonel piano due rette sono parallele o perpendicolari; discuteremo ora l’analogoproblema nello spazio.

Due rette si dicono parallele se hanno la stessa direzione4; due piani si diconoparalleli se non hanno punti in comune o se coincidono; un piano ed una retta sidicono paralleli se non hanno punti in comune o se la retta giace sul piano. Valeil

Teorema 17.2. I piani π1 e π2 di equazioni rispettive a1x + b1y + c1z + d1 = 0e a2x + b2y + c2z + d2 = 0 sono paralleli se e solo se i vettori ~u = [a1, b1, c1] e~v = [a2, b2, c2] sono proporzionali, cioè se ~u = k~v con k 6= 0, quindi se

a1 = ka2; b1 = kb2; c1 = kc2 k 6= 0. (17.3)

Se inoltre d1 = kd2 i piani sono coincidenti; inoltre π1 e π2 sono ortogonali se e solo se

〈[a1, b1, c1], [a2, b2, c2]〉 = 0. (17.4)

cioè se e solo sea1a2 + b1b2 + c1c2 = 0 (17.5)

Analogo teorema vale per le rette nello spazio:

4Abbiamo già visto che è comodo considerare parallele anche due rette coincidenti, in modo che larelazione di parallelismo sia una relazione di equivalenza.

Page 172: Algebra Lineare e Geometria Ottimo

154 Rette e piani nello spazio

Teorema 17.3. Le rette

r1 :

x = x1 + a1ty = y1 + b1tz = z1 + c1t

e r2 :

x = x2 + a2ty = y2 + b2tz = z2 + c2t

sono parallele se e solo se i vettori ~u = [a1, b1, c1] e ~v = [a2, b2, c2] sono proporzionali,cioè se e solo se ~u = k~v con k 6= 0, quindi se vale la (17.3).

Inoltre r1 e r2 sono ortogonali se e solo se vale la (17.5)

OSSERVAZIONE 17.3. Ribadiamo (vedi nota 2 a pagina 151) che nello spaziodue rette perpendicolari possono anche non intersecarsi, cioè essere sghembe!

Teorema 17.4. Sia r la retta di equazionix = x0 + a1ty = y0 + b1tz = z0 + c1t

e π il piano di equazione a2x + b2y + c2z + d2 = 0 allora r e π sono paralleli se e solose 〈[a1, b1, c1], [a2, b2, c2]〉 = 0 e sono perpendicolari se e solo se i vettori ~u = [a1, b1, c1]e ~v = [a2, b2, c2] sono proporzionali, cioè se ~u = k~v con k 6= 0, quindi se vale la (17.3).

Dunque le relazioni di parallelismo e perpendicolarità tra due rette o tradue piani nello spazio per così dire si “scambiano” nel caso di parallelismo eperpendicolarità tra una retta ed un piano; ciò avviene perché per un piano π diequazione

ax + by + cz + d = 0

le componenti del vettore [a, b, c] formano, come abbiamo visto, una terna diparametri direttori di una retta ortogonale a π.

17.4. La retta intersezione di due piani

Siano dati i due piani

a1x + b1y + c1z + d1 = 0 (π1)a2x + b2y + c2z + d2 = 0 (π2)

Per quanto detto finora essi saranno non paralleli se i vettori ~v1 = [a1, b1, c1] e~v2 = [a2, b2, c2] sono linearmente indipendenti. Dal punto di vista geometrico,due piani non paralleli hanno in comune una retta, in accordo col fatto cheP(x, y, z) ∈ π1 ∩ π2 se e solo se (x, y, z) è soluzione del sistema

a1x + b1y + c1z + d1 = 0a2x + b2y + c2z + d2 = 0

(17.6)

Page 173: Algebra Lineare e Geometria Ottimo

17.4 La retta intersezione di due piani 155

Dal teorema 3.5 a pagina 28 segue che, nell’ipotesi che i piani non sianoparalleli, questo sistema è possibile, dato che, se chiamiamo A la matrice deicoefficienti e B quella completa, si ha r(A) = r(B) = 2, dunque il sistemaammette ∞1 soluzioni che sono effettivamente i punti di una retta nello spazio.Dunque una retta può essere individuata come intersezione di due piani.

Esempio 17.5. Sia data la retta

r :

x + y + z = 1x− z = 0

; (17.7)

i vettori [1, 1, 1] e [1, 0,−1] sono linearmente indipendenti dunque i piani non sonoparalleli ed il sistema rappresenta una retta. Per trovare le equazioni parametriche diquesta retta possiamo osservare che il sistema equivale a

y + 2z = 1x = z

e quindi una possibile soluzione è data dax = ty = 1− 2tz = t

che sono le coordinate del generico punto di r e quindi rappresentano una terna diequazioni parametriche della retta.

OSSERVAZIONE 17.4. Le soluzioni del sistema (17.7) si possono anche scriverecome

x =1− t

2y = t

z =1− t

2ed in altri infiniti modi, significativamente diversi, ciascuno dei quali rappresentauna terna di equazioni parametriche della r.

Se accade che r(A) = 1, cioè che i vettori ~v1 = [a1, b1, c1] e ~v2 = [a2, b2, c2]sono linearmente dipendenti, i due piani sono paralleli se r(B) = 2 e addiritturacoincidenti se r(B) = 1; nel primo caso il sistema risulta impossibile, infattii piani non si incontrano, nel secondo il sistema ammette ∞2 soluzioni, cioè idue piani π1 e π2 coincidono e qualunque punto di essi ha coordinate che sonosoluzioni del sistema.

Page 174: Algebra Lineare e Geometria Ottimo

156 Rette e piani nello spazio

OSSERVAZIONE 17.5. Sia data la retta

r :

ax + by + cz + d = 0

a′x + b′y + c′z + d′ = 0

la retta r′ parallela ad r (quindi avente gli stessi parametri direttori) e passanteper l’origine è:

r′ :

ax + by + cz = 0

a′x + b′y + c′z = 0(17.8)

Poiché r′ passa per l’origine, una terna di parametri direttori di r′ è data dallecoordinate di un suo punto qualsiasi, che sono quindi le soluzioni del sistema

lineare omogeneo (17.8) e quindi proporzionali ai tre minori∣∣∣∣ a ba′ b′

∣∣∣∣, − ∣∣∣∣ a ca′ c′

∣∣∣∣ e∣∣∣∣ b cb′ c′

∣∣∣∣ estratti dalla matrice dei coefficienti.

Quanto detto nell’Osservazione 17.5 rappresenta un modo pratico e veloce pertrovare una terna di parametri direttori di una retta scritta come intersezione didue piani, senza passare alle sue equazioni parametriche.

17.5. Fasci di piani

L’insieme di tutti i piani che passano per una stessa retta si chiama fascio dipiani

Teorema 17.5. Se π1 : a1x + b1y + c1z + d1 = 0 e π2 : a2x + b2y + c2z + d2 = 0sono due piani non paralleli che definiscono la retta r, l’equazione del generico pianopassante per r è

λ(a1x + b1y + c1z + d1) + µ(a2x + b2y + c2z + d2) = 0 (17.9)

cioè l’equazione del fascio di piani che ha per sostegno la retta r si ottiene come combina-zione lineare delle equazioni di due piani qualsiasi passanti per r.

Una conseguenza del Teorema 17.5 è che qualunque coppia di piani appar-tenenti al fascio5 di equazione (17.9) rappresenta la retta r le cui equazionicartesiane possono essere dunque molto differenti.

OSSERVAZIONE 17.6. Come già più volte osservato, nella pratica può esserecomodo usare un solo parametro non omogeneo invece di due omogenei, con lesolite avvertenze sul valore infinito del parametro.

5Osserviamo che ogni piano del fascio è individuato da una coppia di coefficienti λ e µ della (17.9),anch’essi definiti a meno di un fattore di proporzionalità non nullo.

Page 175: Algebra Lineare e Geometria Ottimo

17.6 Altri problemi su rette e piani 157

OSSERVAZIONE 17.7. Ha senso anche parlare di fasci di piani paralleli: com-binando linearmente le equazioni di due piani paralleli si ottengono piani lecui equazioni differiscono solo per il termine noto. Essi definiscono una rettaimpropria dello spazio.

17.6. Altri problemi su rette e piani

Esaminiamo in questo paragrafo, prevalentemente su esempi, alcuni altriproblemi sulle rette e sui piani nello spazio.

17.6.1. Intersezione tra retta e piano

Siano dati il piano di equazione ax + by + cz + d = 0 e la retta di equazionix = x0 + αty = y0 + βtz = z0 + γt

Piano e retta hanno un solo punto comune se e solo se retta e piano non sonoparalleli, cioè se e solo se aα + bβ + cγ 6= 0 : in questo caso, sostituendo rispetti-vamente x, y, z nell’equazione del piano si ottiene un valore di t che, sostituito asua volta nelle equazioni della retta dà le coordinate del punto di intersezione.

Esempio 17.6. Si considerino il piano π : 3x− y + z− 1 = 0 e la retta

r :

x = ty = t− 1z = 2t

sostituendo le coordinate del generico punto della retta nell’equazione del piano, si ottiene3t− t + 1 + 2t− 1 = 0 da cui t = 0 e dunque l’intersezione è π ∩ r = P(0,−1, 0).

Se la retta è data come intersezione di due piani gli eventuali punti comuni trapiano e retta sono le soluzioni del sistema formato dalle tre equazioni; piano eretta hanno un solo punto in comune se e solo se tale sistema ammette una eduna sola soluzione, cioè se r(A) = 3, il che equivale a dire che det A 6= 0, se conA abbiamo indicato la matrice dei coefficienti del sistema.

Esempio 17.7. La retta

r) ≡

x = yy = z

Page 176: Algebra Lineare e Geometria Ottimo

158 Rette e piani nello spazio

ed il piano α ≡ x− 2y + 3z− 1 = 0 hanno in comune il punto le cui coordinate sonola soluzione del sistema

x− y = 0y− z = 0

x− 2y + 3z = 1

cioè P =

(12

,12

,12

).

Se r(A) = 2 ed il sistema è possibile, allora r ∈ π, altrimenti se il sistema èimpossibile r e π non hanno punti in comune, quindi sono paralleli. Osserviamoche è sempre r(A) 6= 1 altrementi i tre piani coinciderebbero e non sarebbeindividuata alcuna retta.

17.6.2. Rette sghembe

Due rette che non hanno punti in comune e non sono parallele, cioè duerette non complanari, si dicono sghembe. Se entrambe le rette sono date comeintersezione di due piani, esse sono sghembe se non sono parallele e se il sistemaformato dalle quattro equazioni è impossibile.

Esempio 17.8. Le rette

r :

x + z = 0y− z = 1

e s :

2x + y = 1x + 2z = 0

non sono parallele; consideriamo allora il sistema formato dalle quattro equazioni:x + z = 0y− z = 1

2x + y = 1x + 2z = 0

la matrice dei coefficienti sarà A =

1 0 10 1 −12 1 01 0 2

che ha rango 3 e quella completa sarà

B =

1 0 1 00 1 −1 12 1 0 11 0 2 0

, anch’essa di rango 3, dunque il sistema ammette una soluzione,

quindi le rette si incontrano, dunque sono complanari e quindi non sghembe. L’equazionedel piano che le contiene entrambe si può determinare in vari modi, per esempio trovando

Page 177: Algebra Lineare e Geometria Ottimo

17.6 Altri problemi su rette e piani 159

il fascio F di piani per una delle due e, scelto un punto comodo P sull’altra (ovviamentediverso dal punto di intersezione), scrivere l’equazione del piano di F passante per P;oppure, determinato il punto Q comune alle due rette, scegliere un punto comodo R ∈ r(R 6≡ Q) ed uno comodo S ∈ s (S 6≡ Q) e poi determinando il piano per i tre punti Q, Red S.

Se una delle rette è data come intersezione di due piani e l’altra con le sue equa-zioni parametriche basta sostituire l’espressione del parametro nelle equazionidei due piani.

Esempio 17.9. Siano date le rette

r :

x = ty = 2tz = 1− 3t

ed s :

x + y− z = 0x + z = 1

si ha, sostituendo le coordinate del generico punto di r nelle equazioni due piani cheformano s, il sistema

t + 2t− 1 + 3t = 0t + 1− 3t = 1

che diventa

6t = 12t = 0

formato da due equazioni palesemente in contraddizione, quindi il sistema è impossibilee concludiamo che le rette sono sghembe.

17.6.3. Distanze

Figura 17.1. Distanza di due punti

Page 178: Algebra Lineare e Geometria Ottimo

160 Rette e piani nello spazio

• Distanza di due punti: dalla figura 17.1 si vede subito che se sono dati ipunti P(x1, y1, z1) e Q(x2, y2, z2), la distanza PQ è l’ipotenusa del triangolorettangolo che ha come cateti la differenza delle quote z1 − z2 e la distanzadelle proiezioni ortogonali P1 e Q1 rispettivamente di P e Q sul piano xy.Sul piano xy dal Teorema di Pitagora si ricava immediatamente che ladistanza P1(x1, y1)−Q1(x2, y2) è

d(P1Q1) =√(x1 − x2)2 + (y1 − y2)2.

e quindi un’ulteriore applicazione del Teorema di Pitagora fornisce ladistanza di due punti nello spazio:

d(PQ) =√(x1 − x2)2 + (y1 − y2)2 + (z1 − z2)2.

Figura 17.2. Distanza di un punto da un piano

• Distanza di un punto da un piano: (fig. 17.2) se π : ax + by + cz + d = 0 èl’equazione del piano allora la distanza di P(x0, y0, z0) da π è:

|ax0 + by0 + cz0 + d|√a2 + b2 + c2

(17.10)

infatti distanza si può calcolare considerando la perpendicolare al pianoper P e, chiamando Q l’intersezione di questa retta con il piano, calcolandola distanza PQ.La retta perpendicolare a π passante per il punto P ha equazioni

x = x0 + aty = y0 + btz = z0 + ct

,

Page 179: Algebra Lineare e Geometria Ottimo

17.6 Altri problemi su rette e piani 161

dunque Q(x0 + at, y0 + bt, z0 + ct) è il punto di intersezione di tale rettacon π, e la sua distanza da P è

|t|√

a2 + b2 + c2, (17.11)

se appartiene a π, cioè se

a(x0 + at) + b(y0 + bt) + c(z0 + ct) + d = 0

⇐⇒ t(a2 + b2 + c2) = −(ax0 + by0 + cz0 + d)

⇐⇒ t = − ax0 + by0 + cz0 + da2 + b2 + c2 .

Sostituendo questo valore nella formula 17.11 che esprime la distanza di Pda Q si ha la 17.10 nella pagina precedente.

Figura 17.3. Distanza di un punto da una retta

• Distanza di un punto da una retta: (v. fig. 17.3) siano P un punto e r una rettatali che P 6∈ r, il piano che passa per P ed è perpendicolare a r incontra laretta r in un punto R (che è la proiezione ortogonale di P su r) la distanza delpunto dalla retta sarà allora la distanza PR.

• Distanza di piani paralleli: se π1 : ax + by + cz + d1 = 0 e π2 : ax + by + cz +d2 = 0 sono due piani paralleli, allora la loro distanza è:

|d1 − d2|√a2 + b2 + c2

(17.12)

Page 180: Algebra Lineare e Geometria Ottimo

162 Rette e piani nello spazio

Infatti se P(x0, y0, z0) ∈ π1, è evidente che la distanza cercata è d(Pπ2) cioè|ax0 + by0 + cz0 + d2|√

a2 + b2 + c2=

|d2 − d1|√a2 + b2 + c2

• Distanza di due rette sghembe: se r1 e r2 sono due rette sghembe, si vedefacilmente che esistono due punti P ∈ r1 e Q ∈ r2 tali che la retta PQ èperpendicolare sia ad r1 che ad r2. La distanza PQ è la distanza delle duerette. Dal punto di vista geometrico, però è più comodo considerare ilpiano σ passante per r1 e parallelo a r2; la distanza cercata sarà quella di unqualsiasi punto P ∈ r2 da σ.

Esempio 17.10. Vogliamo calcolare la distanza delle rette sghembe dell’esempio 17.9a pagina 159. Calcoliamo l’equazione del piano per s parallelo ad r di cui una terna diparametri direttori è (1, 2,−3). Il fascio di piani che ha per sostegno s ha equazionex + y− z + k(x + z− 1) = 0. Dovrà essere k + 1 + 2− 3(k− 1) = 0 da cui k = 3,quindi il piano cercato ha equazione 4x + y + 2z− 3 = 0. La distanza richiesta sarà ladistanza di questo piano da un punto qualsiasi della r, per esempio il punto P(0, 0, 1)(corrispondente al valore t = 0) che è 1√

21.

17.6.4. Angoli tra rette, tra piani, tra rette e piani

Siano π1 : a1x + b1y + c1z + d1 = 0 e π2 : a2x + b2y + c2z + d2 = 0 duepiani. L’ampiezza ϕ ∈

[0,

π

2

]dell’angolo tra π1 e π2 è, se ~v = [a1, b1, c1] e

~w = [a2, b2, c2], tale che:

cos ϕ =〈~v, ~w〉‖~v‖ · ‖~w‖ .

Essa deriva dalla formula che dà l’angolo tra due vettori e dal fatto che se α èl’angolo tra ~v e ~w, essendo rispettivamente ~v e ~w ortogonali ai due piani, si ha

ϕ = α se α ≤ π

2e ϕ = π − α se α >

π

2e quindi cos ϕ = | cos α|.

Siano ora

r :

x = x1 + a1ty = y1 + b1tz = z1 + c1t

e s :

x = x2 + a2sy = y2 + b2sz = z2 + c2s

due rette nello spazio; e sia ϕ l’angolo da esse formato6, con ϕ ∈[0,

π

2

]; se esse

sono parallele diremo che ϕ = 0, in generale indicando con ~v = [a1, b1, c1] e~w = [a2, b2, c2] si ha

cos ϕ =〈~v, ~w〉‖~v‖ · ‖~w‖ .

6Ricordiamo, ancora una volta, che non è necessario che r e s si incontrino.

Page 181: Algebra Lineare e Geometria Ottimo

17.7 Simmetrie 163

Concludiamo considerando una retta

r :

x = x1 + aty = y1 + btz = z1 + ct

ed un piano π : αx + βy + γz + δ = 0, se v = [a, b, c] e w = [α, β, γ] e ϕ ∈[0,

π

2

]è l’angolo tra la retta ed il piano, si ha

sin ϕ =〈~v, ~w〉‖~v‖ · ‖~w‖ (17.13)

Infatti, detto ψ ∈[0,

π

2

]l’angolo tra r e la normale al piano, si ha

cos ψ =〈~v, ~w〉‖~v‖ · ‖~w‖

e poiché ϕ =π

2− ψ si ha cos ψ = sin ϕ e quindi la (17.13).

17.7. Simmetrie

In questo paragrafo presentiamo, per lo più mediante esempi, alcuni probleminello spazio riguardanti le simmetrie rispetto a punti a rette ed a piani.

17.7.1. Simmetrie rispetto ad un punto

Siano P e Q due punti distinti dello spazio; il simmetrico P′ di P rispetto a Q èil punto7 appartenente alla retta PQ e tale che Q sia punto medio del segmentoPP′.

Sia P un punto dello spazio e sia f una figura, la figura f ′ simmetrica di frispetto a P è il luogo dei punti simmetrici rispetto a P dei punti di f .

Esempio 17.11. Vogliamo il simmetrico A′ del punto A(1, 0, 0) rispetto al puntoM(−1, 2, 1). Dalla definizione si ha

xM =xA + xA′

2

yM =yA + yA′

2

zM =zA + zA′

2

da cui

xA′ = 2xM − xA

yA′ = 2yM − xA

zA′ = 2zM − zA

;

7unico

Page 182: Algebra Lineare e Geometria Ottimo

164 Rette e piani nello spazio

quindi, nel caso in esame, xA′ = 2(−1)− 1 = −3yA′ = 2 · 2− 0 = 4zA′ = 2 · 1− 0 = 2

da cui A′(−3, 4, 2).Esempio 17.12. Sia data la retta

r :

x = t + 1y = 2tz = t− 1

.

Vogliamo le equazioni della retta r′ simmetrica di r rispetto al punto P(1,−1, 2) cheè costituito dal luogo dei punti simmetrici di quelli di r rispetto a P. Esso sarà, comeè facile dimostrare, una retta parallela ad r. Scegliamo due punti “comodi” su r, peresempio quello per cui t = 0 cioè A(1, 0, 1) e quello per t = 1, cioè B(2, 2, 0). La rettacercata è quella che passa per A′ e B′, simmetrici di A e B rispettivamente. Procedendocome nell’esercizio 17.11 nella pagina precedente troviamo A′(1,−2, 5) e B′(0,−4, 4) edunque sarà

r′ :

x = −ty = −4− 2tz = 4− t

.

Esempio 17.13. Per determinare l’equazione del piano π′ simmetrico di π : x− y +z = 0 rispetto a T(2,−1, 0) consideriamo il generico punto P(x, y, z), scriviamo lecoordinate del suo simmetrico P′ rispetto a T procedendo come nell’esercizio 17.11 nellapagina precedente ed otteniamo x + x′ = 2xT, y + y′ = 2yT e z + z′ = 2zT da cui

x = 4− x′

y = −2− y′

z = −z′.

Poiché P sta su π se e solo se x− y+ z = 0 si ha che le coordinate di P′ devono soddisfarel’equazione 4− x′ + 2 + y′ − z′ = 0 che si può scrivere come x′ − y′ + z′ − 6 = 0 eche rappresenta un piano parallelo a π.

17.7.2. Simmetrie rispetto ad un piano

Siano P un punto e π un piano tali che P /∈ π; chiamiamo proiezione ortogonaledi P su π il punto H intersezione tra π stesso e la retta per P perpendicolare a π.Il simmetrico di un punto P rispetto ad un piano π è il simmetrico di P rispettoad H. Come nel caso della simmetria rispetto ad un punto8 anche in questo caso

8detta anche simmetria centrale

Page 183: Algebra Lineare e Geometria Ottimo

17.7 Simmetrie 165

si dimostra che la simmetrica di una retta rispetto ad un piano è una retta ed ilsimmetrico di un piano rispetto ad un piano è ancora un piano.

Figura 17.4. Simmetrica di una retta rispetto ad un piano

Esempio 17.14. Vogliamo le equazioni della retta simmetrica di

r :

x = ty = tz = t

rispetto al piano π : x− y + z = 0. La retta taglia il piano nell’origine. La retta cercatasarà dunque (vedi figura 17.4) la congiungente dell’origine con il punto P′ simmetricorispetto al piano di un qualsiasi punto P ∈ r diverso dal punto comune (nel nostro casol’origine O(0, 0, 0). Scegliamo, per esempio P(1, 1, 1). La retta per P ortogonale a π haequazioni9

x = 1 + τ

y = 1− τ

z = 1 + τ

da cui si ha 1 + τ − (1− τ) + 1 + τ = 0 e quindi H(

23 , 4

3 , 23

)dunque le coordinate di

P′ sono xP′ = 2 · 2

3− 1 =

13

yP′ = 2 · 43− 1 =

53

zP′ = 2 · 23− 1 =

13

9Usiamo un parametro diverso, il parametro τ per evitare equivoci. È ovvio che il nome del parametro èdel tutto arbitrario

Page 184: Algebra Lineare e Geometria Ottimo

166 Rette e piani nello spazio

allora la retta r′ , che congiunge O con H ha equazionix =

13

k

y =53

k

z =13

k

che possiamo anche scrivere (vedi la nota 9 )

x = α

y = 5α

z = α

.

Figura 17.5. Simmetrico di un piano rispetto ad un piano

Esempio 17.15. Per determinare l’equazione del piano α′ simmetrico di α : x = 1rispetto a π : x − y − z = 0 conviene utilizzare la teoria dei fasci di piani, infattiil piano cercato passerà per la retta r intersezione tra α e π (v. Fig. 17.5). Dunquel’equazione di α′ sarà del tipo x − y − z + k(x − 1) = 0. Il valore di k può esseredeterminato procedendo come nel caso precedente: se consideriamo su α un punto, peresempio P(1, 0, 0) la sua proiezione H su π stando sulla retta

x = 1 + ty = −tz = −t

perpendicolare a π e passante per P risulta individuata da t = −13 quindi è H =(

23 , 1

3 , 13

). Dunque il simmetrico P′ di P sarà P′(1

3 , 23 , 2

3) e sostituendo le sue coordinatenell’equazione del fascio si ottiene, con semplici calcoli, l’equazione del piano α′ che èx + 2y + 2z− 3 = 0.

Page 185: Algebra Lineare e Geometria Ottimo

17.7 Simmetrie 167

Figura 17.6. Simmetrico di un piano rispetto ad un piano parallelo

Figura 17.7. Simmetrica di una retta rispetto ad un altra retta

Nel caso in cui i due piani siano paralleli, vedi fig. 17.6 si può anche, peresempio, considerare la loro distanza: se essa è d basta scrivere l’equazione delpiano a distanza d da α.

17.7.3. Simmetrie rispetto ad una retta

Se P è un punto dello spazio ed r una retta che non lo contiene, chiamando Hla proiezione ortogonale di P su r, il simmetrico P′ di P rispetto ad r è il puntodello spazio simmetrico di P rispetto ad H.

La retta r’ simmetrica di r rispetto ad s si determina (v. fig. 17.7) considerandoi simmetrici di due punti di r

Page 186: Algebra Lineare e Geometria Ottimo

168 Rette e piani nello spazio

Esempio 17.16. Vogliamo le equazioni della rettta r′ simmetrica di

r :

x = 1y = tz = −t

rispetto ad s :

x = zy = 0

.

Si verifica subito che le due rette date sono sghembe; per determinare r′ occorre e bastadeterminare i simmetrici di due punti comodi di r e scrivere le equazioni della retta che licongiunge: per esempio siano P(1, 0, 0) e Q(1, 1,−1) (corrispondenti, rispettivamente,ai valori t = 0 e t = 1) i due punti: i due simmetrici sono, come si ricava facilmenteP′(0, 0,−1

2) e Q′(−1,−1, 1) dunque una terna di parametri direttori di s′ è 1, 1,−32

quindi la retta s′ ha equazioni x = 2t− 1y = 2t +−1z = −3t + 1

17.8. Coordinate omogenee nello spazio

In analogia con quanto visto nel piano, si può introdurre una sistema dicoordinate omogenee anche nello spazio: i punti saranno definiti da quaternedi coordinate omogenee. Quando la quarta coordinata omogenea (anche quiindicata con la lettera u) sarà non nulla si avrà a che fare con punti dello spazioordinario, mentre, anche qui, i punti la cui quarta coordinata è nulla verrannodetti impropri o all’infinito e corrisponderanno, nello spazio ordinario, alle variedirezioni di rette parallele. Saremo dunque in presenza di uno spazio ampliatocon i punti impropri, cioè i punti per cui u = 0 costituenti il cosiddetto pianoimproprio. Su ogni piano di equazione ax + by + cz + du = 0 esisterà una rettaimpropria, che sarà l’intersezione del piano stesso con il piano improprio e cheavrà quindi equazioni

ax + by + cz + du = 0u = 0

o anche

ax + by + cz = 0u = 0

Su ogni retta r ci sarà un punto improprio, intersezione tra le rette improprie deipiani passanti per r come mostra il seguente

Esempio 17.17. Determiniamo le coordinate del punto improprio della retta

r :

x = 1 + ty = 2tz = −t

.

Page 187: Algebra Lineare e Geometria Ottimo

17.8 Coordinate omogenee nello spazio 169

In coordinate cartesiane avremo

r :

y = 2x− 2z = −x + 1

che in coordinate omogenee diventa r :

2x− y− 2u = 0x + z− u = 0

.

Intersecando con il piano improprio si ottieney = 2xz = −xu = 0

da cui le coordinate del punto improprio P∞(1 : 2 : −1 : 0) che è il punto comune allerette improprie dei due piani y = 2x e z = −x le cui equazioni sono

2x− y = 0u = 0

e

x + z = 0u = 0

.

Nello spazio ampliato con gli elementi impropri il termine “complanarità” èsinonimo di “incidenza”: incidenza in un punto proprio per le rette incidentidello spazio ordinario, ed in un punto improprio per rette parallele.

In questo contesto risulta semplice l’interpretazione geometrica di sistemilineari in quattro incognite come insiemi di piani

Esempio 17.18. Vogliamo vedere se le rette

r :

x + ky− z = −22x + kz = −1

ed s :

x + 3y + (k− 1)z = −1(k + 1)y + z = k

sono sghembe. Dopo averle riscritte in coordinate omogenee, avremo a che fare conun sistema lineare omogeneo di quattro equazioni in quattro incognite che indicheràla complanarità delle rette, quando ammette autosoluzioni, ed il loro essere sghembe,quando ammetterà solo la soluzione banale10.

Quindi, nel nostro caso, avremo il sistemax + ky− z = −2

2x + kz = −1x + 3y + (k− 1)z = −1

(k + 1)y + z = k

di matrice dei coefficienti A :

1 k −1 20 2 k −11 3 k− 1 10 k + 1 1 −k

iIl cui rango è r = 4 per k 6= ±1, r = 3 per k = −1 ed r = 2 per k = −1. Questosignifica che per k 6= ±1 il sistema non ha autosoluzioni, quindi i piani non hanno,nello spazio ampliato con i punti impropri, alcun punto in comune: le due rette sono10La quaterna di coordinate omogenee (0 : 0 : 0 : 0) non rappresenta alcun punto.

Page 188: Algebra Lineare e Geometria Ottimo

170 Rette e piani nello spazio

dunque sghembe; per k = −1 ci sono ∞1 soluzioni, dunque esattamente11 un punto diintersezione, proprio o improprio (basta risolvere il sistema per scoprirlo, cioè per scoprirese le rette sono effettivamente incidenti o parallele); per k = 1 ci sono ∞2 soluzioni,dunque le due rette coincidono e sono, ovviamente complanari.

Concludiamo il paragrafo notando che l’introduzione dei punti impropri dellospazio permette di rimuovere, tra le altre, la dissimmetria nella trattazione deifasci di piani passanti per una retta o paralleli, dal momento che, in questocontesto, i piani paralleli passano tutti per una medesima retta impropria.

11Anche le coordinate omogenee dei punti dello spazio sono definite a meno di un fattore di proporzionalità.

Page 189: Algebra Lineare e Geometria Ottimo

18. Sui sistemi di riferimento

In questo capitolo ci occuperemo di alcune particolari trasformazioni delsistema di riferimento cartesiano ortogonale in sè e forniremo poi un brevecenno ad altri possibili sistemi di riferimento diversi da quello cartesiano, mausati spesso in vari settori della Matematica, nelle altre Scienze e nella Tecnologia.

18.1. Rototraslazioni

Risulta quasi immediato verificare che una trasformazione di assi, cioè ilpassaggio da un sistema di riferimento monometrico ad un altro con gli assiparalleli ed equiversi a quelli del precedente e con la stessa unità di misura1 èdescritto dalle equazioni2

x′ = x− α

y′ = y− β

z′ = z− γ

(18.1)

dove (α, β, γ) sono le coordinate della nuova origine nel sistema di riferimentoiniziale; x, y, z sono le coordinate del generico punto in questo sistema e lecoordinate accentate sono le coordinate nel nuovo sistema di riferimento.

Le traslazioni conservano le distanze: se due punti hanno distanza d rispetto adun sistema di riferimento, essi hanno distanza d rispetto a qualsiasi altro sistematraslato rispetto al primo quindi non vi è cambiamento di unità di misura.

Per quanto riguarda le rotazioni vale un teorema, analogo al Teorema 11.2a pagina 103, e che si dimostra con la stessa tecnica, secondo cui la matrice diuna rotazione è una matrice ortogonale. Più precisamente, con considerazionipuramente geometriche, si fà vedere che le equazioni di questa trasformazionesono:

1Noi considereremo sempre le trasformazioni geometriche nel modo cosiddetto passivo, nel senso, cioè,che saranno sempre gli assi del sistema di riferimento e non i punti a muoversi: risulterebbe interessantetrattare l’argomento anche in modo contrario, ma ciò comporterebbe un livello di astrazione superioreche esula dagli scopi di queste dispense.

2cioè tali equazioni legano le coordinate di un punto generico dello spazio nel vecchio sistema diriferimento a quelle del nuovo

Page 190: Algebra Lineare e Geometria Ottimo

172 Sui sistemi di riferimento

x′ = x cos α1 + y cos β1 + z cos γ1

y′ = x cos α2 + y cos β2 + z cos γ2

z′ = x cos α3 + y cos β3 + z cos γ3

(18.2)

dove cos α1, cos β1, cos γ1; cos α2, cos β2, cos γ2; cos α3, cos β3, cos γ3 sono,rispettivamente, i coseni direttori dei nuovi assi rispetto ai vecchi. Poiché lamatrice dei coefficienti è la matrice

Γ =

cos α1 cos β1 cos γ1cos α2 cos β2 cos γ2cos α3 cos β3 cos γ3

che è ortogonale, la matrice inversa è

Γ−1 = ΓT =

cos α1 cos α2 cos α3cos β1 cos β2 cos β3cos γ1 cos γ2 cos γ3

da cui si ricavano facilmente le equazioni della trasformazione inversa.

La composizione di una rotazione e di una traslazione è ancora una isometria3

che prende il nome di rototraslazione, le cui equazioni si ottengono mettendoinsieme la (18.1) e la (18.2) con il sistema

x′ = x cos α1 + y cos β1 + z cos γ1 + ay′ = x cos α2 + y cos β2 + z cos γ2 + bz′ = x cos α3 + y cos β3 + z cos γ3 + c

(18.3)

OSSERVAZIONE 18.1. La composizione di una rotazione e di una traslazionenon è, in generale, commutativa; cioè applicando prima la rotazione e poi latraslazione si ottiene in generale un risultato diverso da quello che si ottieneapplicando prima la traslazione e poi la rotazione.

Esempio 18.1. Consisderiamo la trasformazione

τ :

x′ = x + 2y′ = y− 1z′ = z− 2

e la rotazione $ :

x′′ =

1√2

x′ − 1√2

y′

y′′ =1√2

x′ +1√2

y′

z′′ = z′

3cioè una trasformazione dello spazio in sè che conserva le distanze.

Page 191: Algebra Lineare e Geometria Ottimo

18.2 Coordinate polari e coordinate cilindriche 173

sostituendo si ha :x′′ =

1√2(x + 2)− 1√

2(y− 1) =

1√2

x− 1√2

y +3√2

y′′ =1√2(x + 2) +

1√2(y− 1) =

1√2

x +1√2

y +3√2

z′′ = z− 2

Facendo agire, invece le due trasformazioni in ordine inverso, cio è eseguendo prima larotazione e poi la traslazione, si ha

$ :

x′ =

1√2

x− 1√2

y

y′ =1√2

x +1√2

y

z′ = z

e τ :

x′′ = x′ + 2y′′ = y′ − 1z′′ = z′ − 2

si ottiene facilmente x′′ =

1√2

x− 1√2

y + 2

y′′ =1√2

x +1√2

y− 1

z′′ = z− 2

che differisce dalla precedente.

18.2. Coordinate polari e coordinate cilindriche

Anche per i punti dello spazio si parla, come nel piano, di coordinate polari.Vediamo come si possono introdurre e come si passa da un sistema polare aduno cartesiano e viceversa.

Fissato nello spazio un sistema di coordinate cartesiane ortogonali4 (v. fi-gura 18.1 nella pagina successiva), consideriamo come asse polare l’asse z e lasemiretta ortogonale all’asse polare coincidente con la direzione positiva del-l’asse x; otteniamo un semipiano ω giacente sul piano xy che prende il nome disemipiano polare.

Ciò posto un qualunque punto P dello spazio individua un segmento OP = ρ

detto raggio vettore di P, inoltre il vettore ~OP (che ha quindi norma ρ) forma,4Nello spazio, come, del resto anche nel piano, si può, ovviamente, introdurre un riferimento polare anche

in assenza di uno cartesiano preesistente; qui preferiamo invece partire da un sistema cartesiano, inquanto siamo interessati alla determinazione del legame tra le coordinate di un punto in sistemi diriferimento diversi in qualche modo però legati tra loro.

Page 192: Algebra Lineare e Geometria Ottimo

174 Sui sistemi di riferimento

Figura 18.1. Coordinate polari

con l’asse polare, un angolo ϑ detto colatitudine o angolo (o distanza) zenitale di P(ovviamente si ha 0 ≤ ϑ ≤ π), infine il semipiano individuato da P e dall’assepolare forma, con il semipiano ω un angolo ϕ detto azimut o longitudine di P (siha 0 ≤ ϕ ≤ 2π). A volte, invece della colatitudine ϑ si considera la latitudineψ =

π

2− ϑ che è l’angolo formato dal raggio vettore con il piano equatoriale ε

passante per O e perpendicolare all’asse polare.

In tal modo ogni punto P viene individuato dalle sue coordinate polari5 (ρ, ϑ, ϕ)o (ρ, ψ, ϕ) molto usate, specialmente in Geografia ed in Astronomia.

Osservando ancora la figura 18.1 si possono facilmente scrivere le formule dipassaggio dalle coordinate polari alle cartesiane e viceversa. Infatti se con Q e Zsi indicano le proiezioni ortogonali di P sul piano xy e sull’asse z rispettivamentee con X e Y le proiezioni ortogonali di P sugli assi x e y, si hanno le formuleOZ = z = ρ cos ϑ, OQ = ρ sin ϑ, = X = x = OQ cos ϕ = ρ sin ϑ cos ϕ eXQ = OY = y = OQ sin ϕ = ρ sin ϑ sin ϕ, quindi

x = ρ sin ϑ cos ϕ

y = ρ sin ϑ sin ϕ

z = ρ cos ϑ

5In questo modo, infatti, ogni punto dello spazio viene individuato da una ed una sola terna di numeri; fàeccezione l’origine del riferimento, per cui si ha ρ = 0 e ϕ e ϑ indeterminati

Page 193: Algebra Lineare e Geometria Ottimo

18.2 Coordinate polari e coordinate cilindriche 175

e, all’inverso, come è facile verificare,ρ =

√x2 + y2 + z2

ϑ = arccosz√

x2 + y2 + z2

mentre, noti ρ e ϑ si ottiene ϕ, con le relazioni

cos ϕ =x

ρ sin ϑe sin ϕ =

yρ sin ϑ

Un altro tipo di coordinate per individuare un punto P dello spazio, che, in uncerto senso, è una via di mezzo tra quelle cartesiane e quelle polari è costituitoda quelle che si chiamano coordinate cilindriche: un punto P è rappresentato dallecoordinate polari della sua proiezione Q sul piano xy (vedi figura 18.2) e dallaquota z0 = z di P.

Figura 18.2. Coordinate cilindriche

Dunque si ha ρ0 = OQ e ϑ = XOQ detti rispettivamente distanza orizzontalee azimut. Le coordinate cilindriche di P sono allora (ρ0, ϑ, z0) e le formule dipassaggio si ricavano immediatamente dalla definizione:

x = ρ0 cos ϑ

y = ρ0 sin ϑ

z = z0

e, all’inverso, ρ0 =√

x2 + y2 e, noto ρ0 si può calcolare ϑ dalle relazioni cos ϑ =xρ0

e sin ϑ =yρ0

.

Page 194: Algebra Lineare e Geometria Ottimo
Page 195: Algebra Lineare e Geometria Ottimo

19. Linee e Superfici nello spazio

In questo capitolo vedremo come si rappresentano in generale linee e superficinello spazio.

19.1. Superfici

DEFINIZIONE 19.1. Si chiama superficie il luogo dei punti dello spazio, cheriferito ad un sistema di coordinate cartesiane ortogonali, soddisfano ad unequazione cartesiana

f (x, y, z) = 0 (19.1)

o ad una terna di equazioni parametrichex = g(u, v)y = h(u, v)z = i(u, v)

(19.2)

dove nella (19.1) la f è funzione reale di al più tre variabili, in genere reali enella (19.2) g, h ed i sono tre funzioni reali di al più due variabili.

Nella definizione 19.1 si parla di funzioni qualsiasi, che quindi possono darluogo a superfici anche molto lontane dal concetto intuitivo che abbiamo disuperficie.

La superficie più semplice è il piano che, come abbiamo visto, è rappresentatoda un’equazione cartesiana lineare, ax + by + cz + d = 0 purché i coefficienti a,b e c non siano tutti e tre nulli, ma anche da una terna di equazioni parametrichelineari

x = x0 + αu + βvy = y0 + γu + δvz = z0 + εu + ζv

(19.3)

con α, γ, ε non tutti e tre nulli ed ugualmente non contemporaneaamente nullala terna (β, δ, ζ). Le equazioni (19.2) rappresentano effettivamente un piano,perché eliminando da esse i due parametri u e v si ottiene una equazione (ed unasola) lineare.

Page 196: Algebra Lineare e Geometria Ottimo

178 Linee e Superfici nello spazio

OSSERVAZIONE 19.1. Mentre l’equazione cartesiana di un piano è sempre li-neare e, viceversa in un sistema di riferimento cartesiano ogni equazione linearerappresenta un piano, le equazioni parametriche di un piano possono anche nonessere lineari, addirittura non algebiche.

Esempio 19.1. Mostriamo infatti che il sistemax = u3 + log v

y = 2u3 + 3 log v

z = 3u3 + 7 log v

rappresenta un piano. Per far ciò basta eliminare i due parametri u e v ricavandou3 e log v dalle prime due equazioni: si ottiene u3 = 3x − y e, similmente, log v =y− 2x; sostituendo poi i valori trovati nella terza equazione, si perviene all’equazionecartesiana 5x − 4y + z = 0 che rappresenta appunto un piano. Per la precisione inquesto caso si dovrebbe parlare di un piano privato di una semiretta, infatti, poiché v èargomento di logaritmo, dev’essere v > 0 e cioè y− 2x > 0 quindi bisognerebbe scrivere

5x−4y+z =0y−2x >0 .

Tra le superfici di equazione ( 19.1 nella pagina precedente) esistono, adesempio, anche quelle rappresentate dall’equazione

x2 + y2 + z2 = k (19.4)

che per k > 0 rappresentano una superficie reale, quella formata da tutti (esoli) i punti che distano

√k dall’origine: si tratta di una sfera, superficie di

cui parleremo diffusamente nel prossimo capitolo. Ma se k = 0 si ottiene unasuperficie che ha un solo punto reale, l’origine O(0, 0, 0) e se k < 0 nessun puntodella superficie, che per comodità chiamiamo ancora sfera, è reale.

Quindi anche nel caso dello spazio occorre accettare superfici formate solo dapunti a coordinate complesse, ossevando, di passata, che anche le superfici realicontengono, in generale punti a coordinate complesse.

L’equazione cartesiana di una superficie, equazione ( 19.1 nella pagina prece-dente) si può, sotto certe ipotesi1 esplicitare, cioè scrivere nella forma

z = ϕ(x, y) (19.5)

che in molte occasioni può essere più comoda.

DEFINIZIONE 19.2. Una superficie si dice algebrica di ordine n se può essere rap-presentata da un equazione di tipo (19.1) in cui il primo membro è un polinomiodi grado n. Le superfici che non possono essere rappresentate in questo modo sichiamano trascendenti.

1che qui non importa precisare: si tratta di un noto teorema di Analisi sulle funzioni implicite di piùvariabili.

Page 197: Algebra Lineare e Geometria Ottimo

19.2 Linee 179

Quindi, per esempio, esaminando ancora un caso patologico, e seguendo ladefinizione 19.2 la superficie di equazione x = 0 deve essere considerata diversadalla superficie x2 = 0 pur essendo entrambe formate dagli stessi punti.

Sia ora f (x, y, z) = 0 una superficie algebrica di ordine n e sia r una genericaretta di equazioni parametriche

x = x0 + aty = y0 + btz = z0 + ct

.

Le intersezioni di r con la superficie sono ovviamente le soluzioni dell’equazione

f (x0 + at, y0 + bt, z0 + ct) = 0 (19.6)

che è un polinomio uguagliato a zero nella variabile t e di grado non maggioredi n, il quale, per il Teorema Fondamentale dell’Algebra, ammette m ≤ n radici,reali o complesse contate con le debite molteplicità. Quindi possiamo concludereche una retta ed una superficie algebrica di ordine n hanno al più n punti incomune.

Una retta si dice tangente alla superficie se l’equazione (19.6) risolvente l’inter-sezione ammette almeno una radice multipla. Questa radice è costituita dallecoordinate del punto di tangenza.

Una retta tangente può ovviamente intersecare la superficie anche in altri puntidiversi da quello di tangenza o addirittura essere tangente in più punti.

DEFINIZIONE 19.3. Un punto P di un a superficie algebrica Σ si dice multiploper la superficie Σ se ogni retta passante per P è tangente a Σ.

19.2. Linee

Una linea (o curva) L nello spazio può essere rappresentata da equazioniparametriche del tipo

L ≡

x = f (t)y = g(t)z = h(t)

(19.7)

che individuano le coordinate del generico punto di L al variare del parametro t.Se proviamo ad eliminare il parametro dalle equazioni (19.7) otteniamo sempredue equazioni cartesiane, quindi una curva può anche essere rappresentata comeintersezione di due superfici.

Se tutti i punti di una curva appartengono ad un medesimo piano la curva sidice piana, nel caso opposto si parla di curva sghemba o gobba. Un esempio dicurva gobba è fornito dal filetto di una comune vite.

Page 198: Algebra Lineare e Geometria Ottimo

180 Linee e Superfici nello spazio

Per stabilire se una linea è piana oppure gobba, si può procedere in vari modi,a seconda di come è rappresentata la linea:

• Se la linea è individuata dall’intersezione di due superfici, cioè da unsistema di due equazioni cartesiane, allora si può cercare di trovare unsistema equivalente che contenga un’equazione lineare. Se lo si trova allorasi può affermare che la curva è piana e l’equazione lineare trovata è quelladel piano che la contiene. Ovviamente il fatto di non riuscire a trovare ilsistema più semplice non sempre garantisce che non esista e quindi nongarantisce che la curva sia gobba.

• Se la curva, invece, è data mediante le sue equazioni parametriche (casoperaltro a cui ci si può sempre ricondurre, ed in generale con relativa facilità)basta sostituire le coordinate del punto generico della cuva ( 19.7 nellapagina precedente) nell’equazione del generico piano ax + by + cz + d = 0ottenendo

a · f (t) + b · g(t) + c · g(t) + d = 0 (19.8)

La curva è piana se e solo se la (19.8) è identicamente verificata, cioè èverificata da ogni valore del parametro t.Nel caso in cui il primo membro dell’equazione (19.8) sia un polinomio digrado n la condizione è verificata se e solo se ogni coefficiente del polinomio(compreso quindi anche il termine noto) è nullo. Ponendo uguali a zerotutti i coefficienti si ottiene un sistema lineare omogeneo di k ≤ n + 1equazioni nelle quattro incognite a, b, c e d. La curva è piana se e solo seun tale sistema ammette autosoluzioni, cioè se e solo se la matrice dei suoicoefficienti ha rango < 4.

Esempio 19.2. Sia data la curva di equazionix2 + y2 + z2 − 3x + 2y + z− 1 = 0

x2 + y2 + z2 − x + 1 = 0

sottraendo membro a membro si ottiene il sistema equivalentex2 + y2 + z2 − 3x + 2y + z− 1 = 0

−2x + 2y + z + 2 = 0

quindi la curva è piana ed appartiene al piano 2x− 2y− z− 2 = 0.

Esempio 19.3. Sia data la curva di equazioni parametrichex = t2 + ty = t− 1

z = t2 − 2t.

Page 199: Algebra Lineare e Geometria Ottimo

19.2 Linee 181

Vogliamo vedere se è piana.In questo caso la (19.8) diventa a(t2 + t) + b(t − 1) + c(t2 − 2t) + d = 0 che,

ordinando il polinomio, diventa (a + c)t2 + (a + b− 2c)t + d− b = 0, identicamenteverificata se e solo se il sistema

a + c = 0a + b− 2c = 0

d− b = 0

ammette autosoluzioni, il che accade, in quanto il rango della matrice dei coefficienti èpalesemente non maggiore di 3. L’equazione del piano si ottiene facilmente: i coefficientisono, ordinatamente, una di queste autosoluzioni.

Esempio 19.4. Sia L la linea x = t3

y = t3 + t2

z = t

si ha at3 + b(t3 + t2) + ct + d = 0 cioè (a + b)t3 + bt2 + ct + d = 0 da cui il sistemaa + b = 0

b = 0c = 0d = 0

che non ammette autosoluzioni, quindi possiamo concludere che la curva

non è piana.

Page 200: Algebra Lineare e Geometria Ottimo
Page 201: Algebra Lineare e Geometria Ottimo

20. Sfera e circonferenza nello spazio

20.1. La sfera

Si chiama sfera il luogo dei punti dello spazio equidistanti da un punto fissato.Se tale punto è C(α, β, γ) e la distanza è R ≥ 0 si vede subito che, indicando conP(x, y, z) un generico punto dello spazio, l’equazione della sfera è

(x− α)2 + (y− β)2 + (z− γ)2 = R2 (20.1)

che diventa

x2 + y2 + z2 − 2αx− 2βy− 2γz + α2 + β2 + γ2 − R2 = 0

Viceversa l’equazione

x2 + y2 + z2 + ax + by + cz + d = 0 (20.2)

caratterizzata dal fatto di avere i coefficienti dei termini quadratici uguali enon contenere termini rettangolari rappresenta la sfera con centro nel punto

C =

(− a

2,−b

2,− c

2

)e raggio R =

12

√a2 + b2 + c2 − 4d come si può facilmente

mostrare con ragionamenti analoghi a quelli effettuati per la circonferenza nelpiano. Ampliando lo spazio con i punti a coordinate complesse, come abbiamofatto per il piano, possiamo eliminare nella (20.1) l’eccezione R ≥ 0 ed affermareche ogni equazione della forma (20.2) rappresenta una sfera nello spazio.

20.2. Piani tangenti ad una sfera

Esaminiamo ora, su esempi, come si possa determinare l’equazione del pianotangente1 ad una sfera in un suo punto P.

Esempio 20.1. Sia data la sfera Σ ≡ x2 + y2 + z2 − 2x − 2y = 0 che ha centronel punto C(1,−1, 0) e raggio R =

√2. Vogliamo l’equazione del piano π tangente

nell’origine O(0, 0, 0) alla Σ. Il piano cercato è perpendicolare alla retta OC che haparametri direttori 1, −1, 0 , quindi possiamo scegliere questi parametri direttori per π;poiché, infine π passa per l’origine, la sua equazione è: x− y = 0.

1Il piano tangente ad una superficie in un suo punto P può essere inteso come il luogo delle rette tangentiin P alla superficie.

Page 202: Algebra Lineare e Geometria Ottimo

184 Sfera e circonferenza nello spazio

Notiamo, per inciso, che si può mostrare che il piano tangente nell’origine aduna sfera2 è rappresentato dall’equazione che si ottiene eguagliando a zero ilcomplesso dei termini lineari dell’equazione che la rappresenta.

Esempio 20.2. Siano Σ la sfera di equazione x2 + y2 + z2 = 1 ed r di equazionix = 3z = 0

. Vogliamo gli eventuali piani tangenti a Σ e passanti per r.

Si vede subito che la sfera data ha centro nell’origine e raggio R = 1 i piani cercatiappartengono allora al fascio che ha per sostegno la retta r, cioè al fascio x + λz− 3 = 0ed hanno distanza 1 dall’origine, quindi dev’essere 3√

1+λ2 = 1 da cui si ricava λ =

±2√

2.; in accordo con il fatto che i piani tangenti ad una sfera e passanti per una rettasono al più due.

20.3. Circonferenze nello spazio

L’intersezione di una sfera Σ con un piano π rappresenta una circonferenza,reale, se il piano taglia la sfera in punti reali, cioè se la sua distanza dal centro èminore del raggio R, ridotta ad un solo punto se il piano è tangente, cioè se ladistanza è R e immaginaria se il piano non taglia la sfera, cioè se la distanza èmaggiore di R, e viceversa ogni circonferenza dello spazio può essere vista comel’intersezione di un piano con una sfera. Quindi, in generale, una circonferenzasi può rappresentare nello spazio con le equazioni

Figura 20.1. Circonferenza nello spazio

γ ≡

x2 + y2 + z2 + ax + by + cz + d = 0αx + βy + γz + δ = 0

(20.3)

2anzi, ad una qualsiasi superficie algebrica.

Page 203: Algebra Lineare e Geometria Ottimo

20.4 Fasci di sfere 185

Ci proponiamo di calcolare le coordinate del centro e la lunghezza del raggio diγ. Se indichiamo con C e R rispettivamente il centro ed il raggio della sfera Σ,è facile rendersi conto (vedi Figura 20.1) che il centro C′ della γ è la proiezioneortogonale di C sul piano π, quindi si può determinare come intersezione tra ilpiano π e la retta ad esso perpendicolare passante per C. Per quanto riguradail raggio r della circonferenza, osservando sempre la figura 20.1, il Teorema diPitagora ci permette di scrivere che R2 = r2 + d2, dove con d abbiamo indicatola distanza di c dal piano π da cui immediatamente r =

√R2 − d2.

Esempio 20.3. Siano date le equazionix2 + y2 + z2 − 2x + 2y− z = 0

x + y− z = 0

che rappresentano l’intersezione della sfera di centro C(

1,−1,12

)e raggio R =

32

con

il piano x + y− z ; esse rappresentano una circonferenza reale, infatti il piano taglia la

sfera in punti reali dato che la distanza d di π da C è|1− 1− 1

2 |√3

, quindi d =1

2√

3< R.

Dunque r =√

94− 1

12=

12

√263

. Per trovare le coordinate del centro di γ osserviamo

che una terna di parametri direttori del piano è 1, 1, −1, quindi la retta perpendicolare

al piano passante per C avrà equazioni

x = 1 + ty = −1 + t

z =12− t

intersecandola con il piano si

ottiene 1+ t− 1+ t− 12 + t = 0 da cui t =

16

cui corrisponde il punto C′(

76

,−56

,13

)centro della circonferenza data.

20.4. Fasci di sfere

L’insieme F di tutte e sole le sfere che passano per una data circonferenza γ(reale o completamente immaginaria, degenere in un punto o meno) e dal pianoche la contiene costituisce quello che si chiama un fascio di sfere3 il piano che ne fàparte si chiama piano radicale del fascio e la circonferenza data si chiama sostegnodel fascio. Il luogo dei centri delle sfere di F risulta ovviamente costituito dallaretta che passa per il centro di γ ed è ortogonale al piano su cui γ giace.

3Anche qui, come nel caso delle circonferenze del piano, si considerano anche altri tipi di fasci: i fascicostituiti dalle sfere tangenti un piano dato in un punto dato (e qui la circonferenza sostegno ha raggionullo) o le sfere che hanno un dato centro.

Page 204: Algebra Lineare e Geometria Ottimo

186 Sfera e circonferenza nello spazio

In modo del tutto analogo ai fasci di piani si dimostra che l’equazione di tutti esoli gli elementi di un fascio di sfere si scrive come combinazione lineare non banale diquelle di due qualsiasi di esse.

Esempio 20.4. Sia data la circonferenza γ intersezione delle due sferex2 + y2 + z2 − 2x− 2y = 0

x2 + y2 + z2 + x− 2y + z− 1 = 0

Il fascio che ha per sostegno la γ ha equazione

λ(x2 + y2 + z2 − 2x− 2y) + µ(x2 + y2 + z2 + x− 2y + z− 1) = 0

che, come al solito e con le solite avvertenze sull’eventuale valore infinito del parametro,si può scrivere, con un parametro solo, nella forma

x2 + y2 + z2 − 2x− 2y + k(x2 + y2 + z2 + x− 2y + z− 1) = 0 (20.4)

che diventa

(k + 1)(x2 + y2 + z2) + (k− 2)x +−2(k + 1)y + kz− k = 0.

Per k = −1 la (20.4) diventa 3x + z− 1 = 0 che è l’equazione del piano radicale delfascio. Essa si ottiene comunque sottraendo membro a membro le equazioni della γ.

Esempio 20.5. Vogliamo l’equazione di una sfera che ha raggio R =√

62 e passa per la

circonferenza di equazioni

γ :

x2 + y2 + z2 − x = 1

x + y− z + 1 = 0.

Le sfere che soddisfano tali condizioni son al massimo due ed appartengono al fascio Fche ha per sostegno la γ, la cui equazione è

x2 + y2 + z2 − x− 1 + k(x + y− z + 1) = 0

L’equazione della generica sfera di F si può scrivere come

x2 + y2 + z2 + (k− 1)x + ky− kz + k− 1 = 0

e quindi il suo raggio è

R =12

√(k− 1)2 + k2 + k2 − 4(k− 1)

Uguagliando R al valore dato si ottiene un’equazione le cui soluzioni sono i raggi cercati.

Page 205: Algebra Lineare e Geometria Ottimo

21. Superfici rigate e di rotazione

21.1. Superfici rigate

Si dice rigata una superficie Σ tale che per ogni suo punto passi almeno unaretta reale tutta contenuta in Σ. Le rette che formano la Σ si chiamano generatricied ogni linea che appartiene a Σ ed incontra ogni generatrice si chiama (Curva)direttrice. Per esempio è rigata la supeficie Σ di equazione

xy− z2 + 1 = 0 (21.1)

infatti l’equazione (21.1) si può scrivere

x · y = (z + 1)(z− 1)

che ammette le stesse soluzioni dell’insieme costituito dai due sistemi di rettex = k(z− 1)

ky = z− 1

x = h(z + 1)

ky = z + 1;

al variare dei parametri h e k queste sono rette che giacciono per intero sullasuperficie e si verifica che per ogni punto della (21.1) passa almeno una di questerette, quindi la superficie è rigata.

È facile scrivere le equazioni parametriche di una superficie rigata quandosiano date una direttrice L ed un sistema di generatrici: se le equazioni delladirettrice sono

L =

x = f (t)y = g(t)z = h(t)

,

per ogni punto Pt( f (t), g(t), h(t)) di essa passa una generatrice i cui parametridirettori a(t), b(t), c(t) dipendono da Pt. La generatrice passante per Pt haquindi equazioni

x = f (t) + a(t)τy = g(t) + b(t)τz = h(t) + c(t)τ

. (21.2)

Page 206: Algebra Lineare e Geometria Ottimo

188 Superfici rigate e di rotazione

Il sistema (21.2), pensato come sistema nella sola incognita τ rappresenta lagenerica generatrice, mentre pensato come sistema nelle due incognite t e τrappresenta la superficie rigata cercata.

Naturalmente per avere l’equazione cartesiana della superficie bisogna elimi-nare i due parametri t e τ, cosa che può comportare conti un po’ laboriosi.

In particolare se f , g ed h sono funzioni lineari di t ed a, b e c funzioni costanti,si ha a che fare con le equazioni parametriche di un piano: lasciamo comeesercizio al lettore la costruzione di un esempio in cui si possano chiaramenteindividuare la direttrice e le generatrici di una superficie rigata costituita da unpiano.

Esempio 21.1. Cerchiamo l’equazione della superficie rigata che ha come direttrice la“cubica gobba” di equazioni1

x = t

y = t2

z = t3

e come generatrici rette di parametri direttori 1, 1, 1.Scriveremo allora il sistema

x = t + τ

y = t2 + τ

z = t3 + τ

che costituiscono una terna di equazioni parametriche della superficie cercata.Eliminando i parametri per passare alla forma cartesiana della superficie otteniamo,

dopo qualche calcolo, lungo ma non difficile, l’equazione

(x− y)3 − (y− z)(x− 2y + z) = 0.

21.2. Superfici di rotazione

Si chiama di rotazione o rotonda una superficie Σ (fig. 21.1 nella pagina successi-va) ottenuta facendo ruotare una linea L attorno ad una retta r, detta di solitoasse di rotazione.

Per scrivere l’equazione di una tale superficie basta considerare il genericopunto P ∈ L ed imporre che sul piano π passante per P ed ortogonale a resso descriva una circonferenza con centro l’intersezione tra r e π. In questomodo si ottengono due equazioni (di una sfera e del piano π); ambedue questeequazioni dipendono dal parametro che individua la posizione di P sulla lineaL ; eliminando questo parametro si ottiene l’equazione della superficie.

1Questo esempio mostra che la direttrice può anche non essere una curva piana.

Page 207: Algebra Lineare e Geometria Ottimo

21.2 Superfici di rotazione 189

Figura 21.1. Superficie di rotazione

Esempio 21.2. Vogliamo l’equazione cartesiana della superficie che si ottiene facendoruotare la linea L di equazioni parametriche

x = (t− 1)2

y = 0z = t

(21.3)

attorno alla retta r di equazioni x = 1y = 1

.

Un punto generico dello spazio P appartiene alla L se e solo se le sue coordinate soddi-sfano la (21.3) e quindi sono P

((t− 1)2, 0, t

); il piano π passante per P e ortogonale

ad r ha equazione z = t. La circonferenza è individuata tagliando il piano P con unaqualunque sfera avente centro C su r e raggio CP. Prendendo C(1, 1, 0) si ha l’equazionedella sfera

(x− 1)2 + (y− 1)2 + z2 =[(t− 1)2 − 1

]2+ 1 + t2

ottenendo così la circonferenza di equazioni (x− 1)2 + (y− 1)2 + z2 =[(t− 1)2 − 1

]2+ 1 + t2

z = t

Page 208: Algebra Lineare e Geometria Ottimo

190 Superfici rigate e di rotazione

In questo caso è particolarmente semplice l’eliminazione del parametro, dopo la quale,con opportune semplificazioni, si ottiene l’equazione

(x− 1)2 + (y− 1)2 + z2(z− 2)2 − 1 = 0

che rappresenta la superficie di rotazione cercata.

Page 209: Algebra Lineare e Geometria Ottimo

22. Cilindri , coni e proiezioni

22.1. Coni

DEFINIZIONE 22.1. Fissati nello spazio un punto V ed una curva algebrica1 L ,si chiama cono2 di vertice V e direttice L l’insieme di tutte e sole le rette passantiper V e secanti la L (Figura 22.1)

Figura 22.1. Cono

Ricordiamo che un’equazione intera, cioè polinomiale in tre variabili f (x, y, z) =0 si dice omogenea di grado k se accade che

f (tx, ty, tz) = tk f (x, y, z) ∀t ∈ R, ∀(x, y, z) ∈ R3

il che equivale a dire che il polinomio f (x, y, z) è costituito da monomi tutti dellostesso grado. A questo punto si può dimostrare facilmente che

Teorema 22.1. Le equazioni omogenee intere nelle incognite x, y, z rappresentano tuttie soli i coni con il vertice nell’origine.

1cioè rappresentabile mediante l’intersezione di due superfici algebriche.2La nozione di cono si potrebbe estendere anche al caso di direttrici non algebriche, ma in questo caso

occorrerebbe fare alcune precisazioni che appesantirebbero la trattazione.

Page 210: Algebra Lineare e Geometria Ottimo

192 Cilindri , coni e proiezioni

Dimostrazione. Infatti, supponiamo che l’equazione f (x, y, z) = 0 sia omogeneae che il punto P(x0, y0, z0) appartenga alla superficie da essa rappresentata,cioè sia tale che f (x0, y0, z0) = 0; allora, pioiché la f è omogenea, è anchef (tx0, ty0, tz0) = 0 ∀t ∈ R, quindi ogni punto della retta

x = x0ty = y0tz = z0t

,

che congiunge P con l’origine, appartiene alla superficie, la quale risulta quindiun cono con vertice nell’origine.

Viceversa se f (x, y, z) = 0 rappresenta un cono con vertice nell’origine, vuoldire che quando P(x0, y0, z0) appartiene al cono, ad esso appartiene l’intera rettache congiunge P con O e cioè la retta di equazioni

x = x0ty = y0tz = z0t

,

il che significa che f (x0, y0, z0) = 0 = f (tx0, ty0, tz0) = 0 ∀t ∈ R e ∀(x, y, z) ∈ R,quindi la f è omogenea.

Segue immediatamente il più generale

Corollario 22.2. Le equazioni omogenee nelle tre incognite x− α, y− β, z− γ rappre-sentano tutti e soli i coni con vertice nel punto V(α, β, γ).

Dimostrazione. Basta operare la traslazione d’assi che porta l’origine nel puntoV.

Abbiamo visto che un cono è dato quando siano dati il vertice ed una direttrice,vediamo come sfruttare questo fatto per scriverne l’equazione.

Sia V(a, b, c) il vertice e L la direttrice di equazionif (x, y, z) = 0g(x, y, z) = 0

.

Se P(x0, y0, z0) è un punto del cono esso dovrà stare su una retta che passa per Ve che taglia la direttrice. La generica retta per V ha equazioni

x = a− (x0 − a)ty = b− (y0 − b)tz = c− (z0 − c)t

(22.1)

Page 211: Algebra Lineare e Geometria Ottimo

22.1 Coni 193

Per imporre il fatto che la retta (22.1) tagli la direttrice, basta sostituire nelleequazioni della L i valori datti dalle (22.1) ed eliminare il parametro dalle dueequazioni.

Esempio 22.1. Vogliamo l’equazione del cono che ha vertice in V(0, 1, 0) e comedirettrice la circonferenza di equazioni

x2 + y2 + z2 − 2x = 0x− 2y + 3z = 0

.

Se P(x0, y0, z0) è un punto generico, esso sta sul cono deve anzittutto appartenere allaretta PV che ha equazioni

x = x0ty = 1 + (y0 − 1)tz = z0t

;

poi la retta PV deve tagliare la direttrice, quindi si ha il sistema:(x0t)2 + (1 + (y0 − 1)t)2 + (z0t)2 − 2(x0t) = 0x0t− 2(1 + (y0 − 1)t) + 3z0t = 0

.

Eliminando il parametro t dalle due equazioni si ottiene la relazione che deve intercorreretra le coordinate di P affiché quest’ultimo stia su rette passanti per V che intersecanola direttrice, cioè affinché P stia sul cono cercato. Nel nostro caso, con facili conti sitrova l’equazione x2− 13z2 + 8x(y− 1)− 6xz = 0 che è effettivamente omogenea nelledifferenze tra le coordinate x, y, z e le coordinate del vertice.

Quando il vertice è nell’origine è semplice verificare l’omogeneità, quandoinvece il vertice è un altro punto occorre spesso raccogliere opportunamente itermini.

Alcuni coni sono di rotazione, perché ottenuti dalla rotazione di una rettaattorno ad un’altra ad essa incidente

Esempio 22.2. Siano r e s rispettivamente le rette di equazionix = ty = tz = t

e

x = −ty = tz = 3t

;

vogliamo l’equazione del cono che si ottiene facendo ruotare la retta r attorno alla s. Talecono avrà come vertice il punto comune a r e s e si potrà anche scrivere come superficiedi rotazione.

OSSERVAZIONE 22.1. Otteniamo un cono se e solo se le rette sono incidenti; sesono parallele otteniamo, come vedremo tra poco, un cilindro, se sono sghembeuna superficie del second’ordine detta iperboloide.

Page 212: Algebra Lineare e Geometria Ottimo

194 Cilindri , coni e proiezioni

22.2. Cilindri

DEFINIZIONE 22.2. Fissata nello spazio una curva algebrica γ ed una retta r cheinterseca γ si chiama cilindro di direttrice γ e generatrice r la superficie (rigata)formata da tutte e sole le rette parallele ad r che intersecano la γ. (Figura 22.2).

Figura 22.2. Cilindro

Quindi il cilindro è ben di più del cilindro circolare che siamo abituati aconoscere.OSSERVAZIONE 22.2. Si vede subito che ogni equazione del tipo

f (x, y) = 0 (22.2)

rappresenta, nello spazio, un cilindro con le generatrici parallele all’asse z edavente come generatrice sul piano xy la curva di equazioni

f (x, y) = 0z = 0

;

infatti si verifica subito che, se P(x0, y0) è un punto le cui coordinate soddisfanol’equazione (22.2), allora (e solo allora) qualunque punto della retta

x = x0

y = y0

(che è la generica retta parallela all’asse z passante per P) soddisfa l’equazio-ne (22.2).

Page 213: Algebra Lineare e Geometria Ottimo

22.3 Proiezioni 195

Quindi, generalizzando l’osservazione 22.2, possiamo dire che un’equazione indue variabili rappresenta sempre, nello spazio, un cilindro con le generatrici parallelealla variabile che manca.

Per scrivere l’equazione di un cilindro con le generatrici in direzione generica,cioè non necessariamente parallelle ad uno degli assi coordinati, si può sfruttarela definizione, vale a dire che si può pensare al fatto che un generico puntoP(x0, y0, z0) dello spazio appartiene al cilindro se e solo se sta su una rettaparallela alla generatrice che interseca la curva direttrice.

Esempio 22.3. Vogliamo l’equazione del cilindro con le generatrici parallele alla rettar di equazioni x = y = z che taglia il piano xy sulla parabola di equazione y2 = x edavente come direttrice la curva

y2 = xz = 0

.

Sia P(x0, y0, z0) un generico punto dello spazio; la retta passante per P e parallela ad rha equazioni

x = x0 + ty = y0 + tz = z0 + t

.

Il punto P appartiene al cilindro se e soltanto se quest’ultima retta taglia la parabola.Quindi deve essere verificato il sistema

(y0 + t)2 = x0 + tz0 + t = 0

.

Eliminando, con semplici calcoli, il parametro t dalle due equazioni del sistema si ottienela relazione che deve intercorrere tra le coordinate di P perché questi appartenga alcilindro: (y− z)2 = x− z

OSSERVAZIONE 22.3. Esistono, ovviamente, cilindri rotondi, cioè che hannouna direttrice formata da una circonferenza. La loro equazione si può anchescrivere come quella di una superficie di rotazione.OSSERVAZIONE 22.4. Non sempre i calcoli per l’eliminazione del parametrosono così immediati come nell’esempio 22.3: a volte possono essere piuttostolunghi e laboriosi.

22.3. Proiezioni

DEFINIZIONE 22.3. Si chiama proiezione di una curva γ da un punto V sul piano αl’intersezione tra il piano α stesso ed il cono avente vertice in V e come direttriceγ. (v. figura 22.3 nella pagina seguente)

Page 214: Algebra Lineare e Geometria Ottimo

196 Cilindri , coni e proiezioni

Figura 22.3. Proiezione centrale

Figura 22.4. Proiezione parallela

Si chiama proiezione di una curva γ dalla direzione della retta r sul piano α (v.fig. 22.4) l’intersezione tra il piano α stesso ed il clindro avente γ come generatricee generatrici parallele a r.

Dalla definizione 22.3 escludiamo, per evitare casi patologici, che V ∈ α oppurer sia parallela ad α.

Esempio 22.4. Cerchiamo le equazioni della proiezione della curva

γ ≡

x = y2 + 1z = x + 1

dall’origine O(0, 0, 0) sul piano x = 1.Il cono che ha vertice nell’origine e come direttrice la γ ha equazione (verificarlo per

esercizio)y2 + x(x− z) + (x− z)2 = 0

Page 215: Algebra Lineare e Geometria Ottimo

22.3 Proiezioni 197

evidentemente omogenea nelle tre variabili. quindi la curva proiezione può essereindividuata dal sistema

y2 + x(x− z) + (x− z)2 = 0x = 1

.

Se sostituiamo nella prima equazione il valore di x dato dalla seconda, otteniamo lastessa curva, rappresentata però come intersezione di un cilindro con le generatriciperpendicolari al piano:

y2 + z2 − 3z + 2 = 0x = 1

.

22.3.1. Riconoscimento di una conica nello spazio

Si può mostrare che nello spazio ogni conica irriducibile può essere vista comesezione piana di un cono circolare. Più precisamente se tagliamo un cono rotondotale che la generatrice formi un angolo α con l’asse di rotazione con un pianonon passante per il vertice e che formi un angolo β con lo stesso asse di rotazioneotteniamo rispettivamente

• una parabola se α = β

• un’ellisse se α < β

• un’iperbole se α > β

Si può inoltre mostrare che qualunque sezione piana di una superficie del secon-do ordine è una conica, eventualmente degenere. Per riconoscerla, si può usareil seguente teorema, che enunciamo senza dimostrazione.

Teorema 22.3. Ogni proiezione parallela di una conica non ne altera la natura, seeffettuata da una direzione non parallela al piano su cui giace la conica stessa.

Quindi per studiare la natura di una conica nello spazio basta proiettarla, sepossibile, su uno dei piani coordinati3.

Esempio 22.5. Vogliamo riconoscere la conica di equazioni:x2 + xy + z2 − x + 1 = 0

x− y− z = 0

3ovviamente se la conica giace già su un piano parallelo ad uno dei piani coordinati questo non è possibile,ma in tal caso il riconoscimento procede come già abbiamo visto nel piano.

Page 216: Algebra Lineare e Geometria Ottimo

198 Cilindri , coni e proiezioni

Eliminando dal sistema una delle incognite, per esempio la z, si ottiene l’equazione delcilindro che proietta la conica ortogonalmente al piano xy, che ha quindi equazionex2 + xy + (x− y)2 − x + 1 = 0, la proiezione sarà dunque.

x2 + xy + (x− y)2 − x + 1 = 0z = 0

che sul piano xy rappresenta un’ellisse; dunque la conica data è un’ellisse.

Page 217: Algebra Lineare e Geometria Ottimo

23. Superfici quadriche

In questo capitolo parleremo delle superfici algebriche del secondo ordine, cioèrappresentabili con equazioni polinomiali di secondo grado, classsifficandole,indicando le loro forme canoniche, ed alcuni procedimenti atti ad ottenere il lororiconoscimento.

23.1. Prime proprietà delle quadriche

DEFINIZIONE 23.1. Si chiama superficie quadrica o più brevemente quadricaogni superficie rappresentata, nello spazio riferito ad un sistema di coordinatecartesiane ortogonali, da un’equazione di secondo grado nelle variabili x, y e z.

Per esempio abbiamo già visto che sono quadriche le sfere ed alcune superfici,per esempio quelle che si ottengono dalla rotazione di una retta intorno adun’altra retta.

La più generale equazione di secondo grado in x, y e z ha la forma

ax2 + by2 + cz2 + dxy + exz + f yz + gx + hy + iz + l = 0. (23.1)

che dipende da 10 coefficienti omogenei (cioè definiti a meno di un fattore diproporzionalità non nullo) e quindi da 9 coefficienti non omogenei. Partendodal fatto che per determinare questi nove coefficienti occorre e basta imporre 9condizioni lineaari indipendenti, si può dimostrare in modo analogo a come si èfatto per le coniche, che

Teorema 23.1. Per 9 punti, a 4 a 4 non complanari, passa una ed una sola quadricairriducibile.

Come abbiamo fatto per le coniche nel piano, possiamo associare ad unaquadrica una matrice simmetrica costruita a partire dai suoi coefficienti:

A =

a d

2e2

g2

d2 b f

2h2

e2

f2 c i

2g2

h2

i2 l

Page 218: Algebra Lineare e Geometria Ottimo

200 Superfici quadriche

In tal modo possiamo riscrivere l’equazione di una generica quadrica ( 23.1 nellapagina precedente) nel seguente modo

~xA~xT = 0 (23.2)

essendo ~x il vettore [x, y, z, 1].Il rango della matrice A, invariante per rototraslazioni, ci fornisce molte in-

formazioni sulla quadrica. Se il determinante di A è uguale a zero diciamo chela quadrica è specializzata con indice di specializzazione uguale a 4− r(A): sidimostra che una quadrica non specializzata non ha punti multipli e che unaquadica specializzata con indice di specializzazione uguale a 1 (o, come si dicespecializzata una volta, cioè per cui è r(A) = 3 è un cono o un cilindro quadrico.Se è un cono, ammette come unico punto multiplo il suo vertice, mentre se è uncilindro non possiede punti multipli al finito.

Si può inoltre provare che se l’indice di specializzazione è maggiore di 1, cioèse r(A) ≤ 2 la quadrica è riducibile: più precisamente se r(A) = 2 la quadricaè spezzata in una coppia di piani distinti, e, se tali piani non sono paralleli, lasuperficie ammette come punti multipli tutti e soli i punti della retta comune aidue piani, mentre se r(A) = 1 si ha una coppia di piani coincidenti.

Esempio 23.1. La quadrica di equazione

x2 + y2 + z2 + 2xy− 2xz− 2yz− 5x− 5y + 5z + 6 = 0è spezzata. Infatti è facile vedere che la matrice

A =

1 1 −1 −5

21 1 −1 −5

2−1 −1 1 5

2−5

2 −52

52 6

ha rango 1. Del resto la sua equazione diventa facilmente

(x + y− z)2 − 5(x + y− z) + 6 = 0

che si scompone in

[(x + y− z)− 2] [(x + y− z)− 3] = 0che mette in luce i due piani paralleli in cui è spezzata.

23.2. Quadriche in forma canonica e loro classificazione

L’equazione di una qualunque quadrica si può ricondurre, con una opportunatrasformazione del sistema di riferimento, ad una ed una sola delle forme canoni-che elencate nella tabella 23.1 nella pagina successiva che riguarda le quadrichespecializzate e 23.2 a pagina 202 che riguarda quelle non specializzate.

Page 219: Algebra Lineare e Geometria Ottimo

23.2 Quadriche in forma canonica e loro classificazione 201

Tabella 23.1. Forma canonica delle quadriche specializzate

irriducibili

x2

a2 +y2

b2 +z2

c2 = 0 cono quadrico immaginario

x2

a2 +y2

b2 +z2

c2 = 0 cono quadrico reale

x2

a2 +y2

b2 = 1 cilindro quadrico a sezione ellittica

x2

a2 −y2

b2 = 1 cilindro quadrico a sezione iperbolica

x2

a2 +y2

b2 = −1 cilindro quadrico completamente immaginario

y2 = 2px, p = 0 cilindro quadrico a sezione parabolica

riducibili

x2

a2 −y2

b2 = 0 piani reali incidenti

x2

a2 +y2

b2 = 0 piani immaginari incidenti

y2 = a2, a 6= 0 Piani reali paralleliy2 = −a2, a 6= 0 Piani immaginari paralleliy2 = 0 piani reali coincidenti

OSSERVAZIONE 23.1. In riferimento alle tabelle citate osserviamo che le quadri-che dette a centro sono quelle che ammettono un centro di simmetria che, nellaforma canonica, è l’origine del riferimento, mentre il paraboloide a sella è cosìchiamato a causa della sua caratteristica forma. A pagina 204 trovate le figuredelle quadriche. La denominazione completamente immaginaria è riservata a su-perfici su cui non vi sono punti a coordinate reali, mentre la dizione immaginariasi riferisce a quelle superfici per cui i punti a coordinate reali sono al massimoquelli di una retta: nel caso del cono immaginario il vertice ha coordinate reali,

mentre la quadrica di equazionex2

a2 +y2

b2 = 0 si spezza nei due piani di equazionixa± i

yb= 0 che hanno in comune una retta reale, l’asse z. Aggiungiamo che

la denominazione ellittica o iperbolica dipende dalla natura dei loro punti (vedi§ 23.3 a pagina 206); invece i cilindri vengono distinti a seconda della naturadelle coniche che si ottengono intersecandoli con un piano perpendicolare allegeneratrici.

È semplice verificare che, tra le quadriche non specializzate, vi sono superficirigate: esse sono l’iperboloide ed il paraboloide iperbolici.

Page 220: Algebra Lineare e Geometria Ottimo

202 Superfici quadriche

Tabella 23.2. Forma canonica delle quadriche non specializzate

a centro

x2

a2 +y2

b2 +z2

c2 = 1 ellissoide reale

x2

a2 +y2

b2 +z2

c2 = −1 ellissoide completamente immaginario

x2

a2 +y2

b2 −z2

c2 = 1 iperboloide iperbolico (o ad una falda)

x2

a2 −y2

b2 −z2

c2 = 1 iperboloide ellittico ( a due falde)

non a centro

x2

a2 +y2

b2 = 2pz, p 6= 0 paraboloide ellittico

x2

a2 −y2

b2 = 2pz, p 6= 0 paraboloide iperbolico (o a sella)

Esempio 23.2. La forma canonica del paraboloide a sella, che è

x2

a2 −y2

b2 = 2pz

si può anche scrivere nella forma(xa− y

b

) (xa+

yb

)= 2p · z

e quindi si vede subito che su di esso ci sono due sistemi di rette, definiti, al variare deiparametri k e h dai sistemi

xa− y

b= kz

k(x

a+

yb

)= 2p

e

xa+

yb= 2hp

h(x

a− y

b

)= z

Riferendoci ancora alla forma canonica delle quadriche, possiamo notare chetutte le volte che vi figurano coefficienti uguali per due delle tre incognite si haa che fare con una quadrica ottenuta dalla rotazione di una opportuna curvaattorno all’asse con il nome della terza incognita.

Possiamo infine dare equazioni parametriche1 delle quadriche non specializ-zate (tabella 23.2):

1A questo punto dev’essere chiaro che queste non sono le uniche possibili equazioni parametriche dellequadriche, bensì quelle maggiormente usate.

Page 221: Algebra Lineare e Geometria Ottimo

23.2 Quadriche in forma canonica e loro classificazione 203

• il sistema x = a cos ϑ cos ϕ

y = b cos ϑ sin ϕ

z = c sin ϑ

(con 0 ≤ ϕ < 2π e 0 ≤ ϑ < 2π) rappresenta un ellissoide reale: sea = b = c = R si ha la sfera di centro nell’origine e raggio R.

• il sistema x = a cosh ϕ cos ϑ

y = b cosh ϕ sin ϑ

z = c sinh ϕ

(con 0 ≤ ϑ < 2π e ϕ ∈ R) rappresenta un iperboloide ad una falda.

• il sistema x = a cos ϑ

y = b sin ϑ cosh ϕ

z = c sin ϑ sinh ϕ

(con 0 ≤ ϑ < 2π e ϕ ∈ R) rappresenta un iperboloide a due falde.

• il sistema x = aty = bs

z =t2 + s2

2p

(con s, t ∈ R) rappresenta un paraboloide ellittico.

• il sistema x = aty = bs

z =t2 − s2

2p

(con s, t ∈ R) rappresenta un paraboloide iperbolico.

Page 222: Algebra Lineare e Geometria Ottimo

204 Superfici quadriche

Figura 23.1. Ellissoide

Figura 23.2. Gli iperboloidi

Page 223: Algebra Lineare e Geometria Ottimo

23.2 Quadriche in forma canonica e loro classificazione 205

Figura 23.3. Paraboloide ellittico

Figura 23.4. Paraboloide iperbolico

Page 224: Algebra Lineare e Geometria Ottimo

206 Superfici quadriche

23.3. Natura dei punti e riconoscimento di una quadrica

Poiché le quadriche sono superfici del second’ordine, le loro intersezioni conun piano sono delle coniche. Se P(x0, y0, z0) è un punto semplice di una qua-drica irriducibile Σ e se consideriamo i vettori ~p = [x0, y0, z0, 1] e ~x = [x, y, z, 1]allora l’equazione ~pA~xT = 0, dove A è la matrice dei coefficienti della quadrica,rappresenta il piano tangente in P alla quadrica.

Si può anche provare che l’intersezione tra una quadrica ed il piano tangentein un suo punto semplice P è sempre una conica degenere in una coppia di rette;a questo proposito sussiste la

DEFINIZIONE 23.2. Un punto P di una quadrica Σ si dice parabolico, ellitticoo iperbolico a seconda che il piano tangente in P tagli la quadrica secondo ri-spettivamente due rette coincidenti, due rette immaginarie o due rette distinte.

Si dimostra anche che tutti i punti di una quadrica hanno la stessa natura, cioèsono tutti di uno ed uno solo dei tre tipi considerati e che i diversi tipi sonodiscriminati dal segno del determinante della matrice A dei coefficienti dellaconica: precisamente i punti sono iperbolici se det A > 0, ellittici se det A < 0 eparabolici se det A = 0.

Uno dei modi per riconoscere una quadrica passa attraverso lo studio dellanatura dei suoi punti:

• Una quadrica a punti iperbolici è ovviamente rigata e non specializzata,quindi può essere solo un paraboloide a sella oppure un iperboloide ad unafalda: i due casi si distinguono osservando se la sottomatrice B di A formatadai termini di secondo grado (cioè dalle prime tre righe e dalle prime trecolonne di A) ammette o no un autovalore nullo, cioè se det B = 0.

• Se i punti sono ellittici si ha a che fare con un paraboloide ellittico, unellissoide od un iperboloide a due falde, anche qui i tre casi si discriminanoosservando il determinante di B, precisamente se |B| = 0 si tratta delparaboloide, se det B > 0 la quadrica è un ellissoide, se invece det B < 0 sitratta dell’iperboloide.

• una quadrica a punti parabolici è sempre specializzata.

I casi esaminati sono riassunti nella tabella 23.3 nella pagina successiva.Concludiamo il paragrafo dicendo che per distinguere i vari cilindri quadrici (a

sezione ellittica, iperbolica o parabolica), si possono considerare i tre autovaloridella matrice B introdotta prima: se uno di essi è nullo e gli altri sono discordi, laquadrica è un cilindro a sezione iperbolica, mentre se sono concordi il cilindro è asezione ellittica, se invece gli autovalori nulli sono due, la quadrica è un cilindroa sezione parabolica2.

2Non è difficile dimostrare che gli autovalori di B non possono essere tutti e tre nulli.

Page 225: Algebra Lineare e Geometria Ottimo

23.3 Natura dei punti e riconoscimento di una quadrica 207

Tabella 23.3. Riconoscimento di una quadrica non degenere

Punti iperbolici det A > 0|B| = 0 Paraboloide iperbolico|B| < 0 Iperboloide ad una falda|B| > 0 Ellissoide completamente immaginario

Punti ellittici det A < 0|B| = 0 Paraboloide ellittico|B| < 0 Iperboloide a due falde|B| > 0 Ellissoide reale

Punti parabolici det A = 0|B| = 0 Cilindro quadrico|B| < 0 Cono quadrico reale|B| > 0 Cono quadrico immaginario

Esempio 23.3. Vogliamo riconoscere la quadrica di equazione xy − z = 0. La suamatrice dei coefficienti è

A =

1 1

2 0 012 0 0 00 0 0 −1

20 0 −1

2 0

che, come si verifica subito, ha det A = 1

16 > 0, quindi è una quadrica irriducibile nonspecializzata ed a punti iperbolici, fatto che si può anche constatare tenendo conto che ilpiano tangente nell’origine ad una qualsiasi superficie algebrica ha come equazione ilcomplesso dei termini di primo grado; intersecando questo piano con la quadrica, si vedesubito che l’intersezione è spezzata nelle due rette

x = 0z = 0

e

y = 0z = 0

reali e distinte, quindi l’origine è un punto iperbolico, di conseguenza la quadrica è a

punti iperbolici. La matrice B =

0 12 0

12 0 00 0 0

è singolare e di rango 2, quindi la quadrica

è un paraboloide iperbolico.

Esempio 23.4. Consideriamo la quadrica x2 + 2xy − 2xz − 2 = 0. La matrice deicoefficiienti è:

1 1 −1 01 0 0 0−1 0 0 0

0 0 0 −2

Page 226: Algebra Lineare e Geometria Ottimo

208 Superfici quadriche

singolare e di rango 3: si tratta di una quadrica irriducibile specializzata una sola volta;

la matrice B =

1 1 −11 0 0−1 0 0

è singolare e di rango 2, quindi abbiamo a che fare con

un cilindro a sezione ellittica o iperbolica: siccome gli autovalori non nulli di B sonosoluzioni dell’equazione λ2 − λ− 2 = 0 essi sono discordi, quindi la quadrica è uncilindro a sezione iperbolica.

23.3.1. Riduzione a forma canonica

Per ridurre a forma canonica l’equazione di una quadrica osserviamo prima ditutto che la matrice B relativa ai termini di secondo grado è reale e simmetrica,quindi, in virtù del teorema 9.8 a pagina 80, è diagonalizzabile; la matrice che ladiagonalizza si costruisce, come abbiamo visto, a partire da una base ortonormaledi B

È facile dimostrare che ciascuno dei tre autovettori che formano la base ammet-te come componenti i coseni direttori degli assi della quadrica: ciò significa cheesiste sempre una rototraslazione che porta ad un sistema di riferimento i cui assicoincidono con gli assi di simmetria della quadrica, e quindi l’equazione assumeuna delle forme elencate nelle tabelle 23.1 a pagina 201 e 23.2 a pagina 202.

Esempio 23.5. Supponiamo di aver già operato la la rotazione del riferimento che portala forma quadratica dell’equazione di una quadrica Σ a forma canonica, quindi idiaver a che fare, ad esempio con la quadrica rappresentata, in un opportuno sistema diriferimento, dall’equazione

x2 − 2y2 + z2 − 2x + y + 3 = 0

(per i passaggi necessari basta ricordare come ridurre a forma canonica una formaquadratica: vedi § 9.3 a pagina 83). I tre autovalori della forma quadratica sono nonnulli, il che equivale a dire che il suo determinante |B| è diverso da zero. Σ è dunque unaconica a centro. Cerchiamo allora la traslazione del riferimento

x = X + x0

y = Y + y0

z = Z + z0

che porta la sua equazione ad una delle forme canoniche: avremo così, sostituendo

(X + x0)−2(Y + y0) + (Z + z0)

2 − 2(X + x0) + (Y + y0) + 3 = 0

cioè, semplificando

X2− 2Y2 +Z2 + 2(x0− 1)X− (4y0− 1)Y+ 2z0Z+ x20− 2y2

0 + z20− 2x0 + y0 + 3 = 0.

Page 227: Algebra Lineare e Geometria Ottimo

23.3 Natura dei punti e riconoscimento di una quadrica 209

Per eliminare i termini lineari occorre e basta averex0 − 1 = 0

4y0 − 1 = 02z0 = 0

e quindi X2 − 2Y2 + Z2 + 178 = 0 da cui la forma

−X2

178

+Y2

1716

− Z2

178

= 1

ne segue anche che il centro ha coordinate C(1, 14 , 0).

Operiamo ora la trasformazione x′ = Zy′ = Xz′ = Y

che, come si verifica subito è una rotazione in quanto la sua matrice è ortogonale adeterminante positivo e che ha lo scopo di cambiare il nome agli assi da cui:

x′21716

− y′2178

− z′2178

= 1

si tratta quindi di un iperboloide ellittico o a due falde.

23.3.2. I punti impropri delle quadriche

Se consideriamo, come abbiamo fatto nel piano, lo spazio ampliato con isuoi punti impropri, sorgono alcune questioni interessanti che qui brevementeaccenniamo. Ad esempio in questa ambientazione coni e cilindri non sono piùdistinguibili, nel senso che i cilindri sono particolari coni il cui vertice è il puntoimproprio della retta generatrice. Nella stessa ottica, la quadrica di equazionex2 − 1 che si spezza nei due piani paralleli π1 : x + 1 = 0 e π2 : x − 1 = 0ammette come punti multipli tutti e soli quelli della retta impropria r∞ : π1 ∩ π2.Se P(x0 : y0 : z0 : u0) è un punto semplice (e ~ρ = [x0, y0, z0, u0] il vettore dellesue coordinate) della quadrica irriducibile Σ di equazione

f (x, y, z, u) = a11x2 + · · ·+ a33z2+

+ 2a12xy + · · ·+ a13xz+

+ 2a14xu + · · ·+ a34zu + a44u2 = 0 (23.3)

Page 228: Algebra Lineare e Geometria Ottimo

210 Superfici quadriche

che si scrive anche~xA~xT = 0 (23.4)

allora si dimostra che il piano tangente in P ha come equazione una delle quattroseguenti forme che si possono dimostrare equivalenti:

x(

∂ f∂x

)P+ y

(∂ f∂y

)P+ z

(∂ f∂z

)P+ u

(∂ f∂u

)P= 0 (23.5)

x0∂ f∂x

+ y0∂ f∂y

+ z0∂ f∂z

+ u0∂ f∂u

= 0 (23.6)

~ρA~xT (23.7)~xA~ρT (23.8)

Un semplicissimo calcolo (che proponiamo come esercizio al lettore) mostra chele (23.5. . . 23.8) sono equazioni lineari che rappresentano il medesimo piano: perl’appunto il piano tangente in P alla Σ.

Per riconoscere una quadrica irriducibile Σ si può allora studiare l’intersezionedella Σ con il piano improprio π∞ : u = 0: si tratta ovviamente di una conica, cheprende il nome di conica all’infinito della Σ e che è rappresentata dalle equazioni

a11x2 + a12y2 + a33z2 + 2a12xy + a13xz + a23yz = 0u = 0

(23.9)

o, similmente il cono che la proietta dall’origine, detto cono asintotico per laquadrica, la cui equazione è la prima delle due del sistema (23.9).

La conica all’infinito è:

reale e non degenere per gli iperboloidi ed il cono quadrico reale;

immaginaria non degenere per gli ellissoidi ed il cono quadrico immagi-nario;

degenere in due rette reali ed incidenti per il paraboloide iperbolico ed il cilindroquadrico a sezione iperbolica;

degenere in due rette immaginarie per il paraboloide ellittico e l’ellissoide, maanche per il cilindro quadrico a sezione ellit-tica completamente immaginario.

degenere in due rette reali coincidenti per il cilindro quadrico a sezione parabolica.

Esempio 23.6. Consideriamo la quadrica di equazione xy = z. In coordinate omogenee,la sua intersezione con il piano improprio ha equazioni

xy− zu = 0u = 0

equivalente a

xy = 0u = 0

Page 229: Algebra Lineare e Geometria Ottimo

23.3 Natura dei punti e riconoscimento di una quadrica 211

cioè le due rette improprie reali e incidentix = 0u = 0

e

y = 0u = 0

quindi si tratta di un paraboloide iperbolico o di un cilindro a sezione iperbolica. Se

esaminiamo il rango della matrice A =12

0 1 0 01 0 0 00 0 0 10 0 1 0

si vede immediatamente che

è det A 6= 0 quindi la quadrica non è specializzata dunque si tratta di un paraboloideiperbolico.

Vale la pena di notare in conclusione che, come già accadeva nel piano, l’am-pliamento dello spazio con i punti impropri permette di eliminare fastidiosedissimmetrie.

Page 230: Algebra Lineare e Geometria Ottimo
Page 231: Algebra Lineare e Geometria Ottimo

Indice analitico

AAngolo di due rette

nel piano, 96nello spazio, 151

Applicazione, 57biiettiva, 57biunivoca, 57iniettiva, 57inversa, 60lineare, 58suriettiva, 57

Asintoti di un’iperbole, 116Asse

di una conica, 147Autosoluzioni

di un sistema omogeneo, 54Autospazio, 75Autovalori, 72

regolari, 75Autovettori, 72

BBase, 36

ortogonale, 67ortonormale, 67

BinetTeorema di, 47

CCaratteristica

vedi Rango 48Cayley-Hamilton

Teorema di, 88Centro

di una conica, 143Cilindri, 194Circonferenza

nello spazio, 184Codominio, 57Coefficiente angolare, 95Coefficiente binomiale, 9Combinazione lineare

di matrici, 19di vettori, 34

Combinazioni, 8Complemento algebrico, 44Coni, 191Conica all’infinito, 210Conica per cinque punti, 121Coniche, 113Coniche a centro, 143Coniche degeneri, 118Cono asintotico, 210Controimmagine, 57Coordinate

cilindriche, 173polari

nello spazio, 173Coordinate omogenee

nello spazio, 168Coordinate polari

nel piano, 104Coppia involutoria, 131Coseni direttori, 151

di un vettore, 67Cramer

Teorema di, 53Curva

Page 232: Algebra Lineare e Geometria Ottimo

214 Indice analitico

direttrice, 187gobba, 179sghemba, 179

DDeterminante, 43

definizione classica, 45Definizione ricorsiva, 43proprietà, 46

Diametrodi una conica, 143

Dimensionedi uno spazio vettoriale, 37

Disposizioni, 8Distanza

di due vettori, 65proprietà, 65

Distanze nello spazio, 159di due punti, 160di due rette sghembe, 162di piani paralleli, 161di un punto da un piano, 160di un punto da una retta, 161

Dominio, 57

EEccentricità di una conica, 113Ellisse, 113Ellissoide, 202Endomorfismo, 72Equazione

del piano, 152della circonferenza

nel piano, 105della retta

canonica, 95normale, 95segmentaria, 96

omogenea, 191Equazioni canoniche

delle coniche, 117, 119Equazioni parametriche

dell’ellisse, 115

della circonferenza, 106di una retta

nel piano, 97nello spazio, 151

FFasci

di sfere, 185Fascio

di circonferenze, 108di coniche, 124di piani, 156di rette, 99

Forma bilineare, 69proprietà, 69

Forma canonicadelle quadriche non specializza-

te, 202delle quadriche specializzate, 201

Forma proiettiva di prima specie, 129Forma quadratica

definita negativa, 86definita positiva, 85semidefinita negativa, 86semidefinita positiva, 85

Forme quadratiche, 83Funzione, 57

GGauss

algoritmo di , 28Generatori

di uno spazio vettoriale, 36Generatrici, 187Grassmann

formula di, 40

IImmagine, 57Insieme, 3

differenza, 3intersezione, 3parzialmente ordinato, 5

Page 233: Algebra Lineare e Geometria Ottimo

Indice analitico 215

sottoinsieme, 3totalmente ordinato, 5unione, 3vuoto, 3

Intersezione tra retta e piano, 157Invarianti

di una conica, 118Inversa

di un’applicazione lineare, 60Involuzione

circolare, 146dei diametri coniugati, 144dei punti coniugati, 140dei punti reciproci, 140

Involuzioni, 131ellittiche, 132iperboliche, 132

Iperbole, 115Iperboloide

ellittico, 202iperbolico, 202

Isomorfismo, 59

KKroneker

Teorema di, 50

LLagrange

Teorema di, 85Laplace

primo teorema di, 45secondo teorema di, 45

Linee nello spazio, 179

MMatrice, 15

aggiunta, 86associata ad una forma quadrati-

ca, 83autoaggiunta, 86dei complementi algebrici, 51del cambiamento di base, 38

diagonale, 17diagonale principale, 17diagonalizzabile, 77elementi principali, 17elevazione a potenza, 22emisimmetrica, 16hermitiana, 86inversa, 51invertibile, 51normale, 86nulla, 18operazioni elementari

sulle colonne, 25sulle righe, 25

orlare, 50ortogonale, 79ortogonalmente diagonalizzabi-

le, 80quadrata, 16ridotta, 27scalare, 17simmetrica, 16singolare, 46traccia di una, 17trasposta, 16triangolare, 17unità, 17unitaria, 86

Matrice associataad un’applicazione lineare, 61

Matricia blocchi, 23conformabili, 20equivalenti, 25idempotenti, 23invertibili, proprietà, 52linearmente dipendenti, 20linearmente indipendenti, 20nilpotenti, 23polinomi di, 23prodotto, 20prodotto per uno scalare, 19

Page 234: Algebra Lineare e Geometria Ottimo

216 Indice analitico

simili, 71somma, 18uguali, 16

Minore, 48complementare, 43principale, 74

Molteplicitàalgebrica, 73geometrica, 75

NNatura dei punti di una quadrica,

206Norma di un vettore, 64

proprietà, 65Nucleo

di un’applicazione lineare, 58

OOmomorfismo, 58

PParaboloide

ellittico, 202iperbolico, 202

Parallelismo e perpendicolaritàtra due piani nello spazio, 153tra due rette nello spazio, 154tra un piano ed una retta nello

spazio, 154Parallelismo e perpendicolarità nello

spazio, 153Parametri direttori

di un piano, 152di una retta, 151di una retta nel piano, 95

Permutazione, 7con ripetizione, 8scambio, 7

Piano tangentead una sfera, 183

Plückerlegge di, 137

Polare di un punto, 135Polinomio caratteristico, 72Polinomio minimo, 90Polo, 135Principio di induzione, 6Prodotto associato, 44Prodotto cartesiano

di due insiemi, 68Prodotto scalare

in Rn, 65in generale, 69proprietà, 66

Proiettività, 129ellittica, 130iperbolica, 130parabolica, 130

Proiezione ortogonale, 164Proiezioni, 195

centrali, 195parallele, 196

Pundi base di un fasciodi coniche, 124

Punticoniugati, 139ellittici, 206iperbolici, 206multipli, 179parabolici, 206reciproci, 139

Punti base di un fasciodi circonferenze, 108

Punti ciclici, 110Punti impropri

di una quadrica, 209Punti uniti, 130Punto improprio, 100

QQuadriche, 199Quadriche in forma canonica

loro classificazione, 200

Page 235: Algebra Lineare e Geometria Ottimo

Indice analitico 217

RRango

calcolo del, 49di una forma quadratica, 83di una matrice, 27, 48proprietà, 49

Reciprocitàlegge di, 137

Regola del parallelogrammo, 63Relazioni, 4

d’ordine, 4di equivalenza, 4insieme quoziente, 4

Retta impropria, 101Rette

punteggiate, 129Rette isotrope, 119Rette sghembe, 158Riconoscimento di una conica

nello spazio, 197Riconoscimento di una quadrica non

degenere, 207Riduzione a forma canonica

dell’equazione di una quadrica,208

Rototraslazioni, 171Rouché-Capelli

Teorema di, 28, 54

SSfera, 183Simmetrie, 163

rispetto ad un piano, 164rispetto ad un punto, 163rispetto ad una retta, 167

Sistema di riferimentonel piano, 62nello spazio, 62

Sistema lineare, 11omogeneo, 54risoluzione elementare, 13soluzioni, 12

Sistemi lineari

teoria dei, 53Somma

di sottospazi, 39Somma diretta

di sottospazi, 39∑ sommatoria, 5Sostegno

di un fascio, 99Sottospazio, 35Spazi vettoriali

proprietà, 33Spazio euclideo, 69Spazio vettoriale, 34

su R, 33Spettro

di una matrice, 73Superfici, 177

di rotazione, 188rigate, 187

Superficiealgebrica, 178

TTangente

ad una superficie, 179Tangenti

ad una circonferenza, 107Tangenti ad una conica

in forma canonica, 121Triangoli autopolari, 141

VVandermonde

determinante di, 48Versore, 67Vettore

unitario, 67Vettori

disgiunti, 38fondamentali, 35linearmente dipendenti, 35linearmente indipendenti, 34ortogonali, 67ortonormali, 67