Geometria ed Algebra Lineare

20
Università degli Studi di Trieste Piazzale Europa 1, 34100 Trieste Facoltà di INGEGNERIA Corso di Laurea in INGEGNERIA INFORMATICA Anno Accademico 2001/2002 Geometria ed algebra lineare Studente: Giorgio Davanzo [email protected] Docente: Prof. Michela Brundu

Transcript of Geometria ed Algebra Lineare

Page 1: Geometria ed Algebra Lineare

Università degli Studi di Trieste Piazzale Europa 1, 34100 Trieste

Facoltà di INGEGNERIA

Corso di Laurea in

INGEGNERIA INFORMATICA

Anno Accademico 2001/2002

Geometria ed algebra lineare

Studente: Giorgio Davanzo [email protected]

Docente: Prof. Michela Brundu

Page 2: Geometria ed Algebra Lineare

GEOMETRIAdi Giorgio DAVANZO

STRUTTURE ALGEBRICHE ELEMENTARI:

Prodotto cartesiano: presi due insiemi A,B (anche ∞) si dice prodotto cartesiano AxB={(a,b)| a∈A, b∈B}, dove (a,b) è la generica coppia ordinata.Relazione binaria: sia A insieme; una relazione binaria in A è un sottoinsieme di AxA detto R. Due elementi di A a,b sono in relazione tra loro se (a,b)∈ R e si scrive a R b Relazione d’equivalenza: è una relazione binaria con le seguenti proprietà (es: uguaglianza, triangoli simili,//):

riflessiva: aRa ∀a∈A; simmetrica: aRb => bRa ∀a,b∈A; transitiva: aRb e bRc => aRc ∀a,b,c∈A;

Classe d’equivalenza: sia A dotato di una R. ∀a∈A l’insieme {x∈A | xRa} si dice classe d’equivalenza di a e si scrive [a]. Ogni x di [a] si dice rappresentante di [a]. Una classe gode delle proprietà:

se aRb allora [a]=[b]; se (a,b)∉R, allora [a]∩[b]=∅; l’unione A=Ua∈A[a] è disgiunta.

Insieme quoziente: {[a] | a∈A}, indicato con A/R, è l’insieme quoziente di A modulo R; si dice proiezione normale sul quoziente l’applicazione π: A→A/R definita da π(x)=[x];

GRUPPI:

Struttura algebrica: insieme dotato di una o più operazioni (se sono più di una devono essere compatibili).Operazione binaria: un’operazione binaria * nell’insieme G è f:GxG→G. Il risultato dell’operazione tra due elementi a e b si denota a * b; (G,*) indica che nella struttura algebrica G è presente l’operazione *.Definizione proprietà: sia G dotato dell’operazione binaria *:

associativa: * è associativa se a*(b*c)=(a*b)*c ∀a,b,c ∈ G commutativa: * è commutativa se a*b=b*a ∀a,b ∈ G.

Elemento neutro: sia (G,*); e è elemento neutro di G se a*e=e*a=a ∀a ∈G. Se (G,*) ha elemento neutro si scriverà (G,*,e).Inverso (o opposto se * è la somma): (G,*,e) y∈G si dice inverso di x∈G se x*y=y*x=e.Gruppo: sia (G,*); se valgono le proprietà (G,*,e) è un gruppo:

* è associativa; ∃ e∈G che sia elemento neutro rispetto a *; ∀x∈G, ∃ y∈G inverso di x.

Se inoltre * è commutativa allora G è un gruppo commutativo o abeliano. Se (G,*,e) è un gruppo allora• l’elemento neutro è unico; • l’inverso di un elemento è unico;

Anello: sia A un insieme con 2 operazioni binarie +, •. A è un anello se: (A, +, OA) è un gruppo commutativo • (cioè il prodotto) è associativo 1 è elemento neutro rispetto al prodotto (a+b)•c=ac+bc; c(a+b)=ca+cb ∀a,b,c ∈A

Anello commutativo: un anello è commutativo se anche • è commutativo. Notazione: (A,+,0A,•,1A). Per esempio, (Z,+,0Z,•,1Z) è un anello commutativo ma (Z,•,1Z) non è un gruppo (mancano i reciproci).

Anello dei polinomi a coefficienti interi: p(x)= ∑=

n

oi

ii xa con ai∈Z e n∈N grado del polinomio se an≠ 0. Chiamiamo

Z[x] l’insieme dei polinomi ad una variabile x a coefficienti in Z, cioè l’insieme dei p(x). L’insieme Z[x] è un anello commutativo le cui operazioni sono:

p(x)+q(x)= ∑=

),max( mn

oi

ii xc con ci=ai+bi dove a e b sono i coefficienti di p(x) e q(x).

p(x)•q(x)= ∑+

=

mn

oi

ii xh e hi= Σ j+k=1 ajbk .

CLASSI DI RESTO:

Page 3: Geometria ed Algebra Lineare

Si consideri in Z la relazione aR2b (a,b∈Z) <=> a-b=2q per qualche q∈Z. R è una relazione di equivalenza e le classi di equiv. di Z/R2 sono due: [0]=[2]=..=[2n] e [1]=[3]=..=[2n+1]. In generale, per p∈N si definisce la r.d.eq. Rp e, con le operazioni di somma e prodotto, Rp diventa un anello commutativo.

NUMERI RAZIONALI:

Z*=Z\{0}; definiamo Q=(ZxZ*)/R dove R è la relazione (a,b)R(c,d) ad=bc; questa è una r.d.eq e si scrive [(a,b)]=a/b.N.B.: N non è un anello; Z è un anello; Q è un gruppo abeliano (ha il reciproco).Campo: sia K un anello commutativo; K è un campo se ogni elemento non nullo ammette inverso moltiplicativo. es: Q,R,C sono campi e anche Zp se p è primo.Esempio: K campo; K[x]= {polinomi a coefficienti reali in K}; ; allora K[x] è un anello commutativo.

VETTORI GEOMETRICI:

Vettore applicato: è determinato da direzione, verso, modulo e punto di applicazione. Detto S uno spazio ordinario e A,B∈S; il vettore B-A ha per direzione la retta AB, verso da A a B, modulo ||B-A|| la lunghezza del segmento e punto di applicazione in A.Notazione: W3 è l’insieme dei vettori applicati nello spazio S, cioè W3={B-A| A,B∈S}. VA

3 ={B-A|B∈S}⊂ W3

è l’insieme dei vettori applicati in A. Si osservi che W3=UA∈S VA3 .

Osservazione: fissato O, Vo3={B–O|B∈S}è in corrispondenza biunivoca con S.

Somma di vettori: avviene con la regola del parallelogrammo e ha come proprietà: 1) esiste l’elemento nullo O–O; 2) è commutativa; 3) è associativa; 4) esiste l’opposto: è identico all’originale ma con verso opposto.Proposizione: (Vo

3, +, 0) è un gruppo commutativo. Prodotto di uno scalare per un vettore: v=A–O, λ v ha direzione di A–O, modulo pari a |λ |·||A–O|| e verso pari a A–O se λ >0, opposto se <0. Se λ =0, λ v è il vettore nullo per definizione. Proprietà: λ ,µ∈ R e A,B∈S

λ (µ (A–O))=(λ µ )(A–O) 1(A–O)=(A–O) (λ +µ )(A–O)=λ (A–O)+µ (A–O) λ ((A–O)+(B–O))=λ (A–O)+λ (B–O)

Spazio vettoriale reale: Un insieme V non vuoto si dice R-s.v. se (es.: Vo3):

1. in V è definita la somma2. è definito un prodotto tra elementi di V e scalari di R3. sono soddisfatte le proprietà:

∃ un elemento 0v tale che (V,+,0v) sia un gruppo commutativo ∀ λ , λ ’ ∈R, ∀ v, v’ ∈V:

a. (λ +λ ’)v = λ v+λ ’vb. λ (v+v’) = λ v+λ v’c. λ (λ ’v) = ( λ λ ’)vd. 1·v = v

Isomorfismo: V,V’ R-s.v.; un’applicazione biunivoca f: VV’ si dice isomorfismo se ∀u,v∈V ∀u,v∈V f(u+v)=f(u) + f(v) ∀λ∈ R, ∀v∈V f(λ v)= λ ·f(v)

Vettori liberi: sia nell’insieme W3 dei vettori applicati nello spazio la rel.d’eq. (B–A)R(D–C)<=> B–A e D–C sono equipollenti, cioè se sono i vertici ordinati di un parallelogramma; l’insieme V3=W3/R è l’insieme dei vettori liberi: dunque un vettore libero è costituito da infiniti vettori applicati. Scriveremo v=vett.libero=[B–A]=B–A. trasferimento di proprietà: se scelgo ∀v∈V3 un rappresentante applicato in un punto fisso O∈S (cioè v=A–O) esiste una corrispondenza biunivoca tra V3 e Vo

3: v=[A–O]→A–O e, viceversa, [B–O]←B–O; in questo modo trasferisco la struttura di R-s.v. da Vo

3 a V3, cioè definisco la somma di vettori (v+w=[(A–O)+Vo³(B–O)]) è il prodotto per scalare (λ v=[λ (A–O)]). Tali operazioni rendono V3 un R-s.v. automaticamente.

SISTEMI DI RIFERIMENTO:

p(x)= ∑=

n

oi

ii xa con ai∈K

Page 4: Geometria ed Algebra Lineare

Terna destrorsa: preso un sistema di 3 assi ortogonali, guardando dall’asse z si vede y andare verso x compiendo π /2 gradi in senso antiorario.Sistema di riferimento cartesiano ortogonale: Nello spazio S un sistema cartesiano ort. Σ è dato da:

un punto O∈S una terna destrorso di vettori a due a due ortogonali: i=[A–O],j=[A2–O], k=[A3–O] con ||Ai–O|| costante.

||A1–O|| si dice unità di misura di Σ , mentre i,j,k sono i versori fondamentali (vettori con modulo 1), attraverso cui è possibile individuare ogni vettore dello spazio. Questo sistema si indica Σ =(O;i,j,k).Componenti del vettore: preso un vettore v∈V3; v=x·i+y·j+z·k= vx·i+vy·j+vz·k ; x,y,z sono le componenti.Modulo: v∈V3 e v=(vx,vy,vz). ||v||=√( vx

2+vy2+vz

2)Operazioni: ∀v=(vx,vy,vz) e w=(wx,wy,wz) ∈V3, ∀λ∈ R si ha:

v+w=(vx+wx, vy+wy, vz+wz). λ v=(λ vx, λ vy, λ vz).

Proposizione: per la linearità di V3 e R3, V3 è in relazione biunivoca con R3 e R3 è un R-s.v. con le operazioni sopra descritte.Corollario: V3 e R3 sono isomorfi e si in dica con V3≅ R3.

SPAZI VETTORIALI:

K-spazio vettoriale: sia V un insieme non vuoto, K un campo; siano date le operazioni di somma S:VxVV e di prodotto per scalare P:KxVV tali che:

(V,+,Ov) sia un gruppo commutativo ∀ λ , λ ’ ∈K, ∀ v, v’ ∈V:

• (λ +λ ’)v = λ v+λ ’v• λ (v+v’) = λ v+λ v’• λ (λ ’v) = ( λ λ ’)v• 1k·v = v

allora V si dice K-spazio vettoriale (o spazio vett. su K). Un elemento di V si dice vettore. Kn={(x1,..,xn)|xi∈K}Notazione: v=(x1,…,xn)∈Kn; xi è la i-esima componente di v; se K=R ogni elemento di Kn si dice n-upla reale.Il campo dei complessi: C è un campo con somma e prodotto si definisce il prodotto di reale per complesso (z=a+ib∈R se b=0)è un R-spazio vettoriale. (come lo è anche K[x]).Polinomi di grado limitato: r∈N, k[x]r={polinomi ∈k[x] con grado≤r}è un K-s.v.;ha grado <0 se è il pol.nulloProposizione: se V,V’ sono K-s.v., allora VxV’ è un K-s.v. rispetto alle operazioni di somma e prodotto.Osservazione: poiché (v,+,0v) è un gruppo commutativo (additivo) si ha:

• 0v è unico. • l’opposto è unico. • vale la legge della cancellazione della somma: a,b,c∈V. se a+c=b+ca=b.

IV.1.6 - Proprietà dei K-s.v.: sia V un K-s.v.; ∀k∈K, ∀v∈V si ha che:i. 0k·v=0v

ii. k·0v=0v iii. k·v=0v, allora o k=0k o v=0v. iv. (–k)v= –(kv)=k(–v).

Legge di annullamento del prodotto vettore-scalare: deriva da i.+ii.+iii. ; k·v=0v ↔ k=0k V v=0v

SOTTOSPAZI VETTORIALI:

IV.2.2 - Definizione di ssv: sia V un k-s.v.; W si dice sottospazio vettoriale di V se è uno spazio vettoriale rispetto alle stesse operazioni di V. Se W⊆V sono equivalenti:

i. W è un sottospazio vettoriale di Vii. W è chiuso rispetto alle due operazioni di V, cioè i loro risultati appartengono a W

iii. W è chiuso rispetto alle combinazioni lineari, cioè λ v+λ ’v’ ∈WSottospazi banali: {0v}è un ssv di V, come lo è anche V stesso: sono sempre presenti in uno s.v., rappresentando il più piccolo ed il più grande ssv ma sono detti banali perché non danno informazioni sullo s.v.Retta vettoriale: v(≠ 0v)∈V; la retta vettoriale generata da v è L(v):={λ v|λ∈ K}. Passa sempre per l’origine perché 0kv=0v e ogni L(v) è un ssv.

Page 5: Geometria ed Algebra Lineare

IV.2.3 - Intersezioni di ssv: siano W1 e W2 due ssv di V (K-s.v.). Allora W1∩W2 è un ssv di V. Unione di ssv: in generale l’unione non porta a ssv; si pensi alla somma di due rette vettoriali: il vettore somma è la diagonale del parallelogramma non appartiene alle due rette.IV.2.5 - Sottospazio somma: siano W1 e W2 ssv di V e W1+W2:={v∈V|v=w1+w2; w1∈W1; w2∈W2}. Allora W1+W2 è il più piccolo ssv di V contenente W1∪W2, cioè la somma è contenuta in tutti i ssv contenenti l’unione.

COMBINAZIONI LINEARI:

Definizione di combinazione lineare: V K-s.v.; v1,…,vn∈V. un vettore V è combinazione lineare di v1,…,vn se ∃ λ 1,…,λ n∈K tale che v=λ 1v1+…+λ nvn. Le comb. lin. di v1…vn si denotano con L(v1,…,vn). IV.3.2 - Teorema: L(v1,…,vn) è un ssv generato da v1,…,vn. Spazio vettoriale finitamente generato: V K-s.v. si dice finitamente generato se ∃v1,…,vn∈V tali che V=L(v1,…,vn). Allora v1,…,vn si dice sistema di generatori per V.Vettori linearmente indipendenti: dato un insieme di vettori I={v1,…,vn} di un K-s.v. essi si dicono linearmente indipendenti sei il vettore nullo si ottiene come loro combinazione lineare solo con coefficienti nulli, cioè λ 1v1+…+λ nvn=0v λ 1=…=λ n=0k. I è libero se ogni suo sottoinsieme finito lo è.IV.3.6 - Proprietà relative agli insiemi di vettori: sia I={v

1,…,v

n} e V un K-s.v.; Valgono:

i. 0v∈II non è libero.

ii. se n=1, cioè I={v1}, allora I è libero (se v

1≠ 0

v).

iii. molto importante: I non è libero ↔ almeno uno dei vi è combinazione degli altri.

iv. se I non è libero e J⊇I J non è libero

v. se I è libero e J⊆I J è libero.

IV.4.1 - Teorema: V è K-s.v.; v1,…,v

n ∈V. Sono equivalenti:

i. v1,…,v

n sono linearmente indipendenti

ii. v1≠ 0

v e ogni v non è comb. lin. dei precedenti.

IV.4.2 - Teorema: Ogni sistema finito di generatori contiene un sistema libero di generatori. dim: I={v1,…,v

n}

generatori di V K-s.v.; I1:={v

1∈I | v

1≠ 0

v}; I

1 genera V. Osserviamo ora v

2: ci sono due possibilità; 1) se ∈L(v

1) allora I

2:=I

1\{v

2}. 2) se

∉ L(v1) allora I

2:=I

1 . E’ un procedimento ricorsivo, e I

i⊇I

i+1 : I

2 genera V perché L(I

1)=L(I

2)=V. Questo è il metodo degli scarti

successivi.

BASI:

Base di V: sia V un K-sv; un suo sistema libero di generatori si dice base di V. (è un teorema!!!). In altre parole, una base è un insieme ordinato di vettori e si indicherà con parentesi rotonde.Corollario: ogni spazio vettoriale finitamente generato ammette una base.IV.4.5 - Teorema: Un insieme I={v1,…,vn} è libero se e solo se ogni elemento di L(v1,…,vn) si scrive in modo unico come combinazione lineare di v1,…,vn. In particolare, I=(v1,…,vn) è una base di V ses ogni v∈V si scrive in modo unico v=λ 1v1+…+λ nvn. Notazione: sia I=(v1,…,vn) una base di V K-sv; ∀v∈V esiste un’unica scrittura v=λ 1v1+…+λ nvn e λ 1,…,λ n

si dicono componenti di v rispetto a I e si scrive v=(λ 1,…,λ n)I Base canonica: e1=(1,0,0,….0) e2=(0,1,0,…0) en=(0,…,0,1). E=(e1,…,en) è la base canonica, l’unica base in cui gli elementi di v coincidono con le componenti: v=(α 1,… α n)= α 1e1+…+α nen=(α 1,… α n)E

Componenti di somma e prodotto per scalare: sono la somma e il prodotto per scalare delle componenti. 4.4.11Teorema del completamento ad una base: Sia V un K-sv finitamente generato; allora ogni insieme libero di vettori è contenuto in una base. Osservazione.: l’insieme che si ottiene non è più libero (i v1 generavano già tutto lo spazio).Teorema: Sia V un K-sv avente una base di n elementi; allora:

1. Ogni insieme libero di V è finito e ha al più n elementi2. Ogni base di V ha n elementi3. Ogni sistema di generatori di V ha almeno n elementi.

Corollario: Ogni sistema di generatori di n elementi è una base, come anche ogni insieme libero di n elementi.

Page 6: Geometria ed Algebra Lineare

Dimensione di V: V K-sv finitamente generato; si dice dimensione di V il numero di elementi di una sua qualunque base e si indica con dim(V). dim(0v)=0, e dim(V)=∞ se V non è finitamente generato. Inoltre se W è un ssv di Vdim W ≤ dim V.IV.5.3 - Corollario: V K-sv; dim(V)=n; v1,…,vn ∈V. Sono equivalenti:

i. (v1,…,vn) è una baseii. {v1,…,vn} è un insieme libero

iii. {v1,…,vn} è un sistema di generatori.IV.5.4 - Teorema di Grassmann: V è K-sv; U,W ssv di V. Allora dim(U+V)=dim(U)+dim(W)–dim(U∩W).

MATRICI:

Matrice: una matrice mxn (n,m ∈N+) a elementi in K è una tabella di elementi di K di m righe e n colonne; si indica anche con A=(aij) e aij è l’elemento che occupa la i-esima riga e la j-esima colonnaMatrici particolari: matrice riga: se m=1; matrice colonna: se n=1; matrice quadrata: se n=m>1. gli elementi del tipo aii sono la diagonale principale di A.Matrici e vettori: una matrice può essere vista anche come una tabella di vettori riga o vettori colonna. Si indica con Km,n := {matrici mxn a elementi in K} e Kn,n := {matrici quadrate di ordine n a elementi in K}.Matrice nulla: è la matrice E=(eij) con eij =0 sempre; è indicata con 0(k

m,n) .

Operazioni: A,B ∈Km,n A=(aij) e B=(bij). λ∈ K. Si definiscono le operazioni:• somma: A+B=C∈Km,n dove C=(cij) e cij := aij + bij ∀i=1,…m ∀j=1,…,n . • prodotto per scalare: λ A=D ∈Km,n

dove D=(dij) e dij := λ aij .Osservazione (Km,n è un gruppo comm.): la somma è associativa e commutativa e ogni A∈Km,n ammette opposto

Km,n è un gruppo commutativo; inoltre il prodotto scalare è distributivo,…,Km,n é un K-sv.Proposizione (dimensione di Km,n): col le operazioni precedenti Km,n è un K-sv di dimensione mn. Matrice prodotto: A=(aij)∈Km,n e B=(bij)∈Kn,p . AB=C=(cij)∈Km,p è la matrice prodotto di A per B, dove cij=

∑=

⋅n

ikjik ba

1cioè i-esima riga di A per j-esima colonna di B. Ha come proprietà:

• non è commutativo• è associativo , cioè A(BC)=(AB)C (lo si verifica calcolando le dimensioni delle matrici risultanti dai sottoprodotti)

• distributivo rispetto alla somma: A(B+C)=AB+ACCorollario: Km,n è un anello non commutativoMatrice identica: In ∈Kn,n = (aij) con aij

pari a 1 se i=j, 0 se i≠ j.Gruppo lineare generale: è l’insieme delle matrici invertibili di Kn,n. sin indica con GL(n,K).Matrice trasposta: data A=(aij) di dice trasposta di A la matrice tA=(bij) con bij=aji ∀i,j. Proprietà:

• A,B∈Km,nt(A+B)= tA+tB• A∈Km,n, B∈Kn,p t(AB)=tBtA (≠ tAtB)• se A∈GL(n)t(A)∈GL(n) e (tA)–1 = t(A-1).

Matrice simmetrica: A∈Kn,n se A=tA si dice simmetrica. Spazio delle righe e delle colonne: Km,n ∋ A=(aij) che può essere espressa come:

• una colonna di vettori riga t(R1…Rn) dove Ri=(ai1,…,ain) è il vettore riga e ∈Kn. Le righe generano L(R1,…,Rm)⊆Kn che si dice spazio delle righe di A: R(A).

• una riga di vettori colonna dove Cj è il vettore colonna ∈Km. Come le righe, C(A):=L(C1,…,Cn) è lo spazio delle colonne di A.

Teorema: A∈Km,n. Allora dim(R(A))=dim(C(A)) e tale numero si dice rango di A, indicato con ρ (A).Corollario: ρ (A)=ρ (tA).V.2.9 - Sottomatrice: una sottomatrice si ottiene intersecando p righe e q colonne di A. Se B è una sottomatrice di A, allora ρ (A)≥ ρ (B). Da questo deriva che se B è ottenuta da A aggiungendo righe nulle ρ (A)=ρ (B) perché R(A)=R(B).Matrice diagonale: A∈Km,n; A=(aij) è diagonale se aij=0 ∀i≠ j; allora ρ (A) è il numero di elementi non nulli della diagonale.Matrici triangolari: sia A∈Km,n. Vi sono tre tipi di triangolare:

• TS: triangolare superiore, cioè sotto la diagonale principale ci sono solo 0• TI: triangolare inferiore, cioè sopra la diagonale principale ci sono solo 0• TSC(TIC): triangolare superiore completa: aij = 0 ∀j<i e aij≠ 0 se i=j.

nna

a

0000

*...000

**...00

***...0

****11

Page 7: Geometria ed Algebra Lineare

V.2.13 - Proposizione (rango di una tsc quadrata): A∈Kn,n è TSC; allora ρ (A)=n. Proposizione: A∈Km,n TSC; posto p=min(m,n) allora la sottomatrice di A ottenuta intersecando le prime p righe e le prime p colonne è TSC quadrata di ordine p. In particolare ρ (A)=p.Osservazione: la sottomatrice B ottenuta da A permutando le righe ha lo stesso rango (lo stesso per le colonne)Matrice ridotta per righe: A matrice si dice ridotta per righe se, eliminate le eventuali righe nulle, esiste una permutazione delle colonne per cui si ottiene una TSC che sotto al termine amm ha solo elementi nulli.Teorema (indipendenza lineare): se A è una matrice ridotta per righe allora le righe non nulle sono linearmente indipendenti; il numero di righe non nulle è ρ (A).Teorema di caratterizzazione delle matrici ridotte: una matrice è ridotta per righe se e solo se verifica la seguente proprietà: in ogni riga non nulla esiste un elemento non nullo al di sotto del quale ci sono solo zeri; gli elementi non nulli che al di sotto hanno solo 0 sono detti elementi speciali. Conversione di matrici qualunque: avviene per mezzo delle trasformazioni elementari, che sono: S) scambio; λ ) moltiplicazione per scalare ≠ 0; D) RiRi+α Rj . V.4.2 Matrice trasformata per righe di A: se R(A)=R(B) allora B si dice che è trasformata per righe di A;Se B si ottiene da A con una successione di trasformazioni elementari allora B è trasf.ta per righe di A e ρ (A)=ρ (B).Applicazioni (calcolo di una base di V): sia V=L(v1,…,vr)⊂Kn. Voglio determinare una base di V: scrivo la matrice A che ha sulle righe i vettori di V; V=R(A). Ora la riduco per righe e il rango che ottengo è la dim(V).

SISTEMI LINEARI:

Equazione lineare: un’equazione in n incognite a coefficienti in campo K si dice lineare se è della forma a1x1+…+anxn=b con a1,b∈K. Le xi si dicono incognite, mentre una sua soluzione è α 1,…,α n tale che a1α 1+…+α nxn=b . Osservazione: mentre la prima è un’equazione la seconda è un’eguaglianza tra insiemi.Sistema lineare: è dato da un’insieme di equazioni lineari e si indica con Σ . Una sua soluzione è α 1,…,α n∈Kn che è soluzione di ogni equazione di Σ . Matrice dei coefficienti: quella che ha su ogni riga i coefficienti di un’equazione del sistema; si indica con A.Matrice completa: è la matrice dei coefficienti a cui si aggiunge alla fine una colonna contenente i termini “b”. Si in dica con (A,B).Sistema risolubile o compatibile:se Σ ha soluzioni si dice che è risolubile (o compatibile), altrimenti lo si definisce incompatibile.Spazio delle soluzioni: l’insieme delle soluzioni di Σ .Sistema rindondante: se tutte le equazioni di Σ sono linearmente combinate.Sistemi equivalenti: due sistemi sono equivalenti se lo spazio delle soluzioni è lo stesso per entrambi.Notazione: sia AX la matrice contenente sulle righe i termini “ax” del sistema; allora Σ : AX=B . Sistema ridotto: un sistema è ridotto se A è ridotta per righe; allora Σ si risolve col metodo delle eliminazioni successive, ma prima di togliere righe nulle si deve controllare che Σ non sia incompatibile.Notazione: si indica con ∞k le infinite soluzioni dipendenti da k parametri. k=numero incognite – ρ (A).Teorema: sia AX=B un sistema lineare e (A’,B’) la matrice trasformata per righe di (A,B). Allora i sistemi AX=B e A’X=B’ sono equivalenti. Σ : a11x1+…+a1mxn=b1 ; Σ ’: (a11+λ a21)x1+…+(a1n+λ a2n)xn=b1+λ b2 .Teorema di Rouchè–Cappelli: Sia Σ : AX=B un sistema lineare a n incognite; ρ =ρ (A). Allora:

a) Σ è risolubile se e solo se ρ (A,B)=ρ (A).b) se è risolubile le incognite libere sono in numero n–ρc) si possono scegliere come incognite libere quelle corrispondenti a colonne di A tali che le restanti

colonne siano linearmente indipendenti.Sistemi omogenei: un sistema Σ : AX=B è omogeneo se la matrice B è composta di soli 0. Un sistema omogeneo è sempre risolubile; lo si vede sostituendo a X: (0…0).Proposizione (dimensione di SΣ ): Σ : AX=B in n incognite. Allora SΣ ⊆Kn è un ssv di Kn di dimensione n-ρ (A).

APPLICAZIONI LINEARI:

Matrice associata ad un’applicazione: sia A=(aij)∈Km,n a cui associo f:KnKm definita da f(X)=AX dove X è una matrice formata solo da una colonna. Dalle proprietà del prodotto di matrici si ricavano le proprietà:

• L1 additività: f(X+Y)=A(X+Y)=…dim : eseguire i calcoli=f(X)+f(Y).• L2 omogeneità: f(λ X)= λ f(X).

Page 8: Geometria ed Algebra Lineare

Applicazione lineare: V,W K-sv e f:VW applicazione; f si dice lineare se verifica L1 e L2. Si può generare il procedimento per associare un’applicazione ad una matrice a spazi vettoriali qualunque. Siano V,W K-sv e B=(v1,…,vn), C=(w1,…,wn) due rispettive basi. Ad una matrice A=(aij)∈Km,n si associa l’applicazione f: VW definita come segue: ∀v∈V v=v1x1+…+vnxn=(v1,…,vn)B ∈V. Posto X=t(x1,…,xn) ∈Km, AX=t(y1,…,yn). w:=(y1,…,yn)c∈W. Definisco f(v)=w, cioè f((x1,…,xn)B)=(At(x1,…,xn))C . La f così definita si denota con fA

B,C.Proposizione: con la notazione precedente fA

B,C è lineare.Matrice associata a f: data un’applicazione lineare f:VW, con B base di V e C base di W si può associare a f una matrice Mf

B,C; definiamo la prima colonna di MfB,C come le componenti rispetto a C del primo vettore di B,

e così via fino all’n-esimo vettore di B. Proposizione: V,W K-sv, B e C rispettive basi.

• se f:VW, posta A= MfB,C, allora fA

B,C≡ f.• se A∈Km,n, posta fA

B,C=f allora MfB,C=A.

Corollario: fissati W,V,B e C esiste una corrispondenza biunivoca tra {f:Vw lineari} e Km,n

VII.1.7 - Proposizione (proprietà appl.lin.):• f(av1+bv2)=a·f(v1)+b·f(v2)• f(Σ aivi)=Σ aif(vi)• f(0v)=0w • f(–v)=-(f(v))

VII.1.10 - Proposizione: v,w K-sv. B=(v1,…,vn) base di V e siano w1,…,wn ∈W; allora ∃ ! applicazione lineare f:VW tale che f(vi)=wi ∀i. Osservazione: le colonne di A sono le componenti dei wi rispetto a C.Immagine: A,B insieme; f: AB applicazione. B⊇Im(f):={y∈B| ∃x∈A: f(x)=y}Nucleo: sia V,W k-sv; f:VW applicazione lineare. Ker(f):={x∈V|f(x)=0w}⊆V. Proprietà:

• ker(f) è un ssv di V. • Im(f) è ssv di W. • se B=(v1,…,vn) è una base di VIm(f)=L(f(v1),…f(vn)).

Osservazione (sul nucleo e i sistemi): A=MfB,C. Ker(f)={(x1,…,xn)B∈V| (At(x1,…,xn))C=0w}={(x1,…,xn)B∈V|

(At(x1,…,xn)=t(0…0)}={(x1,…,xn)B∈V| ((x1,…,xn)∈SΣ } dove Σ : AX=0. Proposizione: f:VW applicazione lineare; dim ker(f)=dim(SΣ )=dimV–ρ (A) dove A è una qualunque matrice associata ad f.Controimmagine di w: f–1(w):={v∈V|f(v)=w}⊂V è eventualmente vuoto. Se w=0w, allora f–1(0w)=ker fProposizione (come calcolare f–1(w)): posto A=Mf

B,C e B=t(y1,…,ym) f–1(w) è in rel. biunivoca con SΣ , dove Σ :AX=B. VII.2.2 - Proposizione (calcolo dell’immagine): f:VW B base di V; allora Im(f)=L(f(v1),…,f(vn)). A=Mf

B,C. Si prova che facilmente che la corrispondenza binaria Km⊃C(A)⇔Im(f)= L(f(v1),…,f(vn)) è isomorfismo di K-s.v. Bisogna ridurre per colonne la matrice A: le colonne non nulle di A’ sono una base per C(A). Oppure, si può calcolare ρ (A) e scegliere ρ (A) colonne linearmente indipendenti.Criterio di iniettività: f: VW; sono equivalenti:

i. f è iniettivaii. ker f={0v}

iii. ρ (A)=dim (V), ∀A associata ad f.Osservazione (sull’iniettività): n=dimV, m=dim W. A∈Km,n. Se f è iniettiva allora n≥ m di sicuro, cioè dimW≥ dimV. Criterio di surriettività: f:VW; è surriettiva se dim(V)≥ dim(W); è equivalente a dire che ρ (A)=dim W. Proposizione: dim ker(f)+dim Im(f)=dim V. dim: ovvia, vedi sopra.VII.2.19 - Criterio di isomorfismo: un’applicazione lineare è un isomorfismo se è iniettiva e surriettiva, cioè se dimV=dim WCorollario: se V K-sv, allora V è isomorfo a Kn, per n opportuno.Composizione di applicazioni lineari: V,W,Z K-sv. f:VW, g:WZ sono applicazioni lineari; (g○f)(v):= g(f(v).Notazione: si indica con VB lo spazio vettoriale V riferito alla base B.

Page 9: Geometria ed Algebra Lineare

Teorema (sulla composta): f:VW, g:WZ sono applicazioni lineari; B,C,D basi rispettive di V,W,Z. M g○fB,D=

MgC,D·Mf

B,C. Proposizione: una applicazione lineare è invertibile ⇔è biunivoca ⇔ è iniettiva e surriettivaProposizione: f:VW a.l.; sono equivalenti:

i. f è invertibileii. f è isomorfa

iii. ∀B base di V, ∀C base di W MfB,C è quadrata e invertibile: (Mf

B,C)–1= MfC,B.

Cambiamento di base: V k-sv; B,C basi di V. v∈V, v=(x1,…,xn)B=(y1,…,yn)C. Allora MidVB,C · t(x1,…,xn)= t(y1,

…,yn).Matrice del cambio di base:la matrice Midv

B,Csi indica con MB,Ce si chiama matrice del cambio di b. da B a C.Matrice del cambio di base inverso: è la matrice MC,B=(MB,C)–1. MC,B · MB,C=MB,B=IV

VII.5.6 - Teorema: f:VW appl.lineare, B e B’ basi di V, C e C’ basi di W. MfB’,C’=M(idw o f o idv)

B’,C’= MC,C’·Mf

B,C·MB’,B.

IL DETERMINANTE:

Definizione: sia A una matrice ∈ K2,2. det(A)=|A|:= a11a22 – a12a21

Minore complementare: A=(aij) ∈Kn,n; scelgo (i,j) con i,j∈{1,…,n}: si dice minore complementare di (i,j) la sottomatrice di A ottenuta cancellando la i-esima riga e la j-esima colonna : Aij∈Kn-1,n-1.Complemento algebrico: il complemento algebrico di Aij è il numero (-1)i+j|Aij|, denotato con α ij

Determinante di Laplace: A=(ai,j)∈Kn,n. det(A) = a11α 11+…+ a1nα 1n . Può essere calcolato con qualunque riga o colonna (qui è stato fatto con la prima riga, da qui la presenza costante dell’uno).Proprietà: (valgono anche per le righe)

• det(α C1,…,Cn) = α ⋅ det(A) ∀C, ∀α∈ K• se Ci=0 per qualche i allora det(A)=0• se C1=Cj allora det(A)=0• det(α 2C2+…+α nCn)=0• det(C1+α 2⋅ C2,…, α nCn , C2, ... ,Cn) = det(A)• se B è ottenuta da A scambiando due colonne det(B) = - det(A)

Lemma (calcolo del det di una TS): A=(aij)∈Kn,n TS det(A) = a11⋅ a22⋅ …⋅ ann

Metodo di calcolo del det: 1. Riduco A per righe e ottengo A’2. r := numero di scambi di colonne per ottenere A’’, TSC3. det(A)=det(A’)=(-1)r⋅ det(A’’)

Proposizione: A∈Kn,n; se ρ (A)=n det(A)≠ 0Corollario: f:VV det(Mf

B,C)≠ 0 f è un isomorfismoProprietà di matrici invertibili: sia A∈Kn,n una matrice invertibile (cioè ∈GL(n))

• ρ (A)=n;• A=(v1,…,vn) vettori colonna: sono linearmente indipendenti• B=(v1,…,vn) è una base di Kn A=MB,E

DIAGONALIZZAZIONE DI MATRICI:

Endomorfismo: sia V un k-s.v.; Un’applicazione lineare ϕ :VV si dice endomorfismo di V; si definisce inoltre l’insieme End(V)={endomorfismi di V} ϕ∈ End(V). Consideriamo per ogni endom. la matrice associata all’applicazione Mϕ B,B dove B è una base di VMatrici simili: A,B∈Kn si dicono simili se sono associate allo stesso endomorfismo di Kn e si indica A~B

IX.1.3 - Proposizione: si osservi il diagramma a lato, commutativo: B=P-1AP (P è invertibile), A,B ∈ Kn,n. A~B ∃ P∈ GL(n) tale che B= P-1APOsservazione: “~” è una relazione d’equivalenza. dim: 1) riflessiva: A~A, basta prendere P=In

2) simmetrica: A~BB~A. Ipotesi: ∃P: B=P-1AP; Tesi: ∃Q: B=Q-1BQ.basta prendere Q=P-1∈GL(n) e si ha che B=Q-1BQ=P(P-1AP)P-1=(PP-1)A(PP-1)= IA = A 3) transitiva: A~B, B~CA~C. ipotesi: ∃P: B = P-1AP, ∃Q: C=Q-1AQ. Tesi : ∃R: C=R-1AR. Basta prendere R=PQ

Matrice diagonalizzabile: A∈Kn,n si dice diagonalizzabile se ∃ una matrice diagonale ∆∈ Kn,n t.c. A~∆ IX.1.6 - Proposizione: V sia un K-s.v.; φ∈ End(V). Sono equivalenti:

KBn φ Aφ

B,B KBn

P=MC,B MB,C=P-1

KCn φ Bφ

C,C KCn

Page 10: Geometria ed Algebra Lineare

1. ∃base B di V tale che MΦB,B è diagonalizzabile

2. ∀base C di V MΦC,C è diagonalizzabile

3. ∃base D di V tale che MΦD,D è diagonale

Applicazione semplice: φ∈ End(V) si dice semplice se verifica le condizioni precedenti. Da ciò deriva che ∃D tale che Mφ

D,D è diagonale, cioè φ (v1)=a11v1.Autovettore e autovalore: ϕ :VV; v∈V, v≠ OV. Se ∃ λ∈ K t.c. ϕ (v)=λ v allora v si dice autovettore e λ autovalore.Osservazione (su φ semplici): φ semplice ∃ base D di V composta da autovettori; in tal caso Mφ

D,D è diagonaleAutospazio associato a λ : V∈End(V), λ∈ K autovalore. Sia Vλ ={v∈V|ϕ (V)=λ v}⊃ e ≠ {autovettori di λ } (≠ perché c’è anche 0v . Allora Vλ è un ssv di V detto autospazio associato a λ . Osservazione: B base di V, A=Mϕ

B,B. Allora Mϕ rB,B = Mϕ

B,B - λ MidVB,B = A - λ I

Somma diretta: siano W1,W2 ssv di V. La loro somma si dice diretta se ogni vettore di W1+W2 si scrive come w1+w2 in modo unico. Si indica con ⊕. Proposizione: W1+W2è somma diretta W1∩W2 = 0v .IX.1.12 - Proposizione (legame tra autovalori e insiemi liberi): ϕ∈ End(V), siano λ 1,…,λ s ∈K autovalori distinti di ϕ e siano ∀i= 1,…,s dei vettori vi≠ 0v, vi∈Vλ i . Allora {v1,…,vs} è libero. Corollario: V K-s.v., dim V=n. ϕ∈ End(V). allora:

1. ϕ ha al più n autovalori distinti .2. se λ 1,…,λ s ∈K sono autovalori distinti. allora Vλ 1+…+Vλ s è somma diretta.

Proposizione: deriva dal T.di Grassman; siano V1,…,Vn ⊂W. dim(V1⊕…⊕Vn) = Σ (i=1…n) dim Vi .Osservazione: φ : VV, λ∈ K. φ (λ ): VV, φ λ =φ -idv. Allora λ è autovalore Vλ ≠ {0v}

ker(φ λ )≠ {0v} non è un isomorfismo (né iniettiva né surriettiva) det(Mφ λB,B)=0. Ricordo anche che

f:VV è un isomorfismo Mfx,y è invertibile ρ (Mf) ha rango massimo |Mf| ≠ 0.

Proposizione: ϕ∈ End(V), λ∈ K. allora λ autovalore di ϕ |MϕB,B - λ In| = 0 dove B è una base di V

qualunque

POLINOMIO CARATTERISTICO:

Polinomio caratteristico: A∈Kn,n. PA(T) := |A – TIn| è un polinomio di grado n in T.Proposizione: se A~B∈Kn,n allora PA(T)=PB(T).Polinomio caratteristico di ϕ : sia A associata a ϕ∈ End(V). PA(T) è detto polinomio caratteristico di ϕ e si scrive Pϕ (T).Teorema: φ∈ End(V), λ∈ K. Allora λ è autovalore di φ λ è una radice di Pφ (T).Corollario: V K-s.v. ϕ∈ End(V). Gli autovalori di ϕ sono le radici di Pϕ (T) appartenenti a KFattorizza totalmente: K campo, P(x)∈K[x]. P(x) si fattorizza totalmente in K se P(x)=a(x-α 1)⋅ …⋅ (x-α n)Polinomio irriducibile: è un polinomio che non si fattorizza totalmente.Proposizione: P(x)∈K[x], α∈ K è radice P(x) è divisibile per (x-α ).Molteplicità: è il numero di volte in cui una radice compare in un polinomio.Proposizione: φ∈ End(V). λ∈ K autovalore: 1≤ dim(Vλ )≤ m(λ ) dove m(λ ) sono le molteplicità. IX.2.10 - Teorema: V K-s.v. , ϕ∈ End(V). siano λ 1,..., λ sle radici distinte di Pϕ (T) di molteplicità rispettivamente m1,…,ms. Sono equivalenti:

1. ϕ è semplice2. ∃ base costituita da autovettori3. V=Vλ 1⊕…⊕Vλ s

4. λ 1,...,λ s∈K e dim(Vλ i)=mi ∀i=1,…,s.Molteplicità nel campo complesso: ϕ è semplice se λ 1∈C e m(λ 1)=1∀i

SPAZI EUCLIDEI:

Prodotto scalare: si dice prodotto scalare in Rn a valori reali l’applicazione •: RnxRnR tale che:1. v•w=w•v2. (a1v1+a2v2) •w=a1(v1•w)+a2(v2•w)

3. v•v ≥ 04. v•v=0 v = 0R

n

Page 11: Geometria ed Algebra Lineare

Prodotto scalare canonico: sia • : RnxRnR che associa ((x1,…,xn),(y1,…,yn))x1y1+…+xnyn. Spazio euclideo: è lo spazio (Rn, • ) con “•” = prodotto scalare canonico, e si indica con En

Norma: l’applicazione ||…||: RnR definita da ||v||:=√v⋅ v si dice norma; per n=2 è il teorema di Pitagora.Proprietà della norma:

1. ||v|| > 02. ||v||=0 v=0R

n

3. ||av||=|a|⋅ ||v||. NB: ||v||+||w||≠ ||v+w|| (regola del parallelogramma)Ortogonalità: v,w ∈En si dicono ortogonali se v⋅ w = 0, e si scrive v⊥wProposizione: siano v,w1,…,ws ∈En. se v⊥wi ∀i=1…s allora lo è a ogni loro combinazione lineare. dim: v(λ 1w1+…+λ nwn)=λ 1(v⋅ w1)+…+λ n(v⋅ wn), (v⋅ wi)=0 per ipotesi il tutto è pari a 0.

Proposizione: Siano v1,…,vs ∈En\{0Rn} tali che vi⋅ vj=0 ∀i,j (i≠ j). Allora v1,…,vs sono linearmente

indipendenti. Sottospazio ortogonale: W ssv di En; si dice ortogonale di W l’insieme W⊥={v∈En|v⋅ w=0 ∀w∈W}Proposizione: W⊥ è un ssv di En. Proposizione: se W=L(w1,…,ws) allora W⊥={v∈En|v⋅ wi=0 ∀i=1,…,s}Insieme ortonormale: En, un insieme {v1,…,vr} si dice ortonormale se vi⊥vj ∀i≠ j e ||vi||=1 i. Base ortonormale: B=(v1,…,vn) base di En si dice ortonormale se è un insieme ortonormale.Ortonormalizzazione di Gram-Schmidt: (v1,…,vn) e1 = v1/||v1||; eh=[vh - Σ (i=1…h-1)(vh⋅ ei)ei)]/||nominatore||.Proposizione: ortonormalizzando con G-S si ottiene una base ortonormale.

GEOMETRIA LINEARE:

Nomenclatura: in En vi siano due punti P e Q: v=Q-P è il vettore da P a QRetta per l’origine: in En è una retta vettoriale di Rn

Sistema di riferimento: in En è (O,B) dove O∈En è un punto, detto origine, e B è una base ortonormale di En

Equazioni vettoriali e parametriche di una retta: in En, l’equazione di una retta r per l’origine ha forma P=λ v, con P=(x1,…,xn)B e v=(v1,…,vn)B. L’equazione parametrica è x1=λ v1,…,xn=λ vn

Retta di En: è l’insieme dei punti P∈En tali che P=Q+λ V con λ∈ R, Q∈En, V∈Rn.Equazione cartesiana di una retta: si ottiene eliminando il parametro λ dall’equazione parametrica.Proposizione: una retta in E2 è il luogo dei punti che soddisfano l’equazione ax+by+c=0 per opportuni a,b,c.Piano per l’origine: è un sottospazio di R3 di dimensione 2.Equazione vettoriale di un piano di E3: P=Q+λ V1+µ V2

Equazione parametrica di un piano in E3: Q=(xo,yo,zo), V1=(a1,a2,a3), V2=(b1,b2,b3) π : x=x0+λ a1+µ b1, …Equazione cartesiana di un piano in E3: si eliminano i parametri λ ,µ e si ha ax+by+cz+d=0.Osservazione (unicità delle equazioni): l’equazione di una retta in E2 o di un piano in E3 sono uniche a meno di un coefficiente di proporzionalità. Varietà lineare: in En, è un insieme di punti definito da L:P=Q+λ 1v1+...+λ rvr con Q∈En, λ i∈R, vi∈Rn.Giacitura: la giacitura di una varietà lineare L è il sottospazio vettoriale di Rn SL=L(v1,...,vr).Osservazione: L individua univocamente SL, in quanto L=Q+SL.Varietà lineari parallele: due varietà lineari L e L’ si dicono parallele in En se dimL=dimL’ e SL=SL’

Varietà lineari di tipo diverso parallele: L,L’ varietà lineari in En sono parallele se SL⊆SL’ o se SL⊇SL’ .Varietà lineari incidenti: L,L’ var. lineari di En. Sono incidenti se L∩L’ ≠ ∅Varietà lineari sghembe: L,L’ var. lineari di En. Sono sghembe se non sono nè parallele nè incidentiProposizione (retta per due punti): A,B∈En, A≠ B. Allora ∃ ! retta per A e B e una sua equazione è r:P=A+λ (B-A) Proposizione (piano per tre punti): A,B,C ∈En, non allineati, allora ∃ ! piano per A,B,C di equazione π : P=A+λ (B-A)+µ (C-A).Proposizione: la giacitura di una retta r:ax+by+c=0 di E2 ha equazione Sr:ax+by=0.(per il piano: 1 incognita in più). Intersezione di due rette in E2: r: ax+by+c=0 e r’: a’x+b’y+c’=0. Ci sono tre possibilità: r//r’, r∩r’=1 punto, r ≡ r’. Scrivo la matrice (A,B)

del sistema delle due equazioni: (A,B)=

'c'b'a

cba .

ρ (A) ρ (A,B) SΣ r∩r’1 1 ∞1 r≡ r’1 2 incomp. r//r’2 2 1 r∩r’={P}

Page 12: Geometria ed Algebra Lineare

Intersezione retta-piano: definisco la retta come l’intersezione di due piani e il piano come π : α x+β y+γ z+δ =0. r ∩ π =SΣ ; Se scrivo la

retta come r:

=+++=+++

0'dz'cy'bx'a0dczbyax

la matrice è (A,B)=

δγβα'd'c'b'a

dcba. Di

sicuro ρ (A) è >1 (se fosse 1 avrei due piani paralleli → r non esisterebbe); inoltre ρ (A,B) deve essere ≥ 2 (se fosse <2 i due piani generanti r sarebbero coincidenti← r non esisterebbe)Intersezione di due piani in E3: π :ax+by+cz+d=0;

π ’:a’x+b’y+c’z+d’=0. π∩ π ’=? (A,B)=

'd'c'b'a

dcba

------->Intersezione di due rette in E3: prendiamo due rette definite come l’intersezione di quattro piani e vediamo il sistema Σ : r ∩ r’ .

r:

=+++=+++

0dzcybxa0dzcybxa

2222

1111 e r’:

=+++=+++

0'dz'cy'bx'a0'dz'cy'bx'a

2222

1111

Non è presente la combinazione π (A)=2 e ρ (A,B)=4 in quanto un teorema sulle matrici dice che l’aggiunta di una riga o di una colonna non può far aumentare di due il rango iniziale.Iperpiano: è una varietà linearedi En la cui giacitura è L(v1,…,vr) con r = n-1. Si indicano con HEquazione normale di r: se A∈R, u⊥r. (P-A)u=0 è l’equazione normale di rOsservazione: in En, sia H:a1x1+…+anxn=b iperpiano; SH: a1x1+…+anxn=0 ha dim=n-1ed è ⊂En. SH

⊥ ha dim=1 SH

⊥=L(u) è l’equazione normale di H. (P-A)u=0, A∈H è un punto qualunque.Varietà lineari ortogonali: Siano L1,L2 due varietà lineari di En tali che dim(L1)+dim(L2)=n; esse si dicono ortogonali se SL1=(SL2)

⊥ o, equivalentemente, se (SL1)⊥=SL2

Ortogonalità: Siano L1,L2 due varietà lineari di En; esse sono ortogonali se SL1⊇(SL2)⊥o se (SL1)

⊥⊆SL2.Rette ortogonali: due rette r e r’ si dicono ortogonali se lo sono i due vettori v//r e v’//r’Proposizione: Siano r,r’ rette in E3; sono equivalenti:

• r e r’ sono ortogonali• ∃ ! piano α ⊃r, α⊥ r’ (e viceversa)

Osservazione: osserviamo i ssv di En W e W⊥

1. la loro somma è diretta; 2. W⊕W⊥=En. 3. dimW + dimW⊥=n.

Piani ortogonali: α ,β piani di E3 si dicono ortogonali se lo sono due vettori ad essi ortogonali.

DISTANZE:

Distanza: A,B ∈En (serve la norma). Si dice distanza tra A e B d(A,B):=||A-B||. Ha come proprietà:1. d(A,B)≥ 0 ∀A,B∈En

2. d(A,B)=0 <=> A=B3. d(A,B)=d(B,A)4. siano A,B,C i vertici di un triangolo : d(A,B)≤ d(A,C)+d(B,C) (dalla disuguaglianza triangolare)

Definizione astratta di distanza: In En si dice distanza un’applicazione d: EnxEnR tale che valgono le 4 precedenti proprietà.Proposizione: L varietà lineare, A punto di En. ∃Ao∈L tale che d(A,P)≥ d(A,Ao) ∀P∈L; Ao=L∩(A+SL

⊥). dim: graficamente, basta pensare ad L come ad un piano e A un punto sopra di esso.

Distanza punto-varietà lineare: Sia L var. lin., A punto di En. d(A,L) è il minimo delle distanze d(A,P), P∈LXbis.2.9 - Proposizione (distanza punto-iperpiano): A punto, H iperpiano di En, u versore normale ad H. allora d(A,H)=|(A-B)⋅ u| dove B è un qualunque punto di H e |(A-B)⋅ u| la componente normale ad H del segmento AB. Poniamo A=(α 1,…,α n) e H:a1x1+…+anxn+b=0. B∈H: B=(β 1,…,β n) tale che β 1x1+…+β nxn+b=0.

Allora d(A,H) = ( ) ( )( ) ( ) ( )

2n

21

nn11nnn111

n1n1

n1nn11

a...a

ba...aa(,...,a)

a,...,a

1

a,...,a

a,...,a,...,

++

+α++α=β−αβ−α=⋅β−αβ−α . NB: vale

solo tra punti e iperpiani!

ρ (A) ρ (A,B) SΣ r∩r’2 2 ∞1 r ⊂ π2 3 incomp. r//π3 3 1 r∩π ={P

}

ρ (A) ρ (A,B) SΣ r∩r’1 1 ∞2 π ≡ π ’1 2 ∅ π //π2 2 ∞1 π ∩π ’=re

tta

ρ (A) ρ (A,B) SΣ r∩r’2 21 ∞1 r≡ r’2 3 ∅ r//r’3 3 1! r∩r’={P}3 4 ∅ r,r’sghembe

Page 13: Geometria ed Algebra Lineare

Distanza tra varietà lineari: L,L’ varietà lineari di En. d(L,L’):=min{d(P,P’)|P∈L,P’∈L’}Xbis.2.12 - Distanza tra due rette parallele: prese due rette in forma cartesiana di E2 d(r,r’)=|c-c’|/√(a2+b2)Osservazione (sulle rette sghembe e i piani): se r e r’ sono rette sghembe di E3allora esistono dei piani paralleli ad entrambe. r:Sr=L(v), r’:Sr’=L(v’). Tutti i piani di giacitura L(v,v’) sono paralleli a r e r’.Distanza tra due rette sghembe in E3 (teorema): siano r,r’ sghembe

1. ∃ ! retta l ortogonale e incidente r e r’, detta retta della minima distanza; . 2. Posti A0=l∩r’, Ao’=l∩r’ d(r,r’)=d(Ao,Ao’); 3. posti v,v’ vettori paralleli a r e r’ rispettivamente, allora d(r,r’)=|(A-A’)⋅ (v∧v’)/||v∧v’|| | dove A∈r, A’∈r’

qualunque

FASCI DI RETTE:

Fascio di rette: sia A un punto di E2; si dice fascio di rette di centro A l’insieme di tutte le rette passanti per A e si denota con FA.Xbis.5.2 - Proposizione: Sia A il punto di intersezione delle rette r: ax+by+c=0 e r’: a’x+b’y+c’=0. Allora FA è costituito da tutte e sole le rette di equazione λ (ax+by+c)+µ (a’x+b’y+c’)=0, λ ,µ∈ R e (λ ,µ )≠ (0,0). Rette generatrici: Se FA ha equazione λ (ax+by+c)+µ (a’x+b’y+c’)=0 le due rette r: ax+by+c=0 e r’: a’x+b’y+c’=0 si dicono generatori di FA=F(r,r’).Osservazione: qualunque coppia di rette di FA genera FA.Osservazione: A=(xo,yo). x-xo=0 e y-yo=0 sono due rette per A FA:λ (x-xo)+µ (y-yo)=0Osservazione: le coppie (λ ,µ ) e (hλ ,hµ ), con h≠ 0, individuano la stessa retta di FA.

MATRICI ORTOGONALI:

Matrice ortogonale: una matrice A∈Rn,n si dice ortogonale se le sue colonne costituiscono una base ortonormale di En. (cioè Ci⋅ Cj=0 e Ci⋅ Ci=1)X.2.22 - Proposizione: A∈Rn,n è ortogonale tA⋅ A=In Teorema: A,B∈Rn,n. det(AB)=det(A)⋅ det(B).Osservazione (sul determinante): A ortogonale tAA=In det(tAA)=det(In)det(tA)⋅ det(A)=1, det(tA)=det(A) det(A)2=1det(A)=± 1. NB: non vale il ragionamento opposto!Ortogonale speciale e non: A ortogonale è speciale se |A|=1, non speciale se |A|=-1Osservazione: B base di En. P=MB,E P ortogonale B ortonormaleTeorema: Sia C una base ortonormale di En. Se B è una qualunque base di En e P=MB,C; allora P è ortogonale B è ortonormale.Lemma: P è ortogonale tP=P-1

Teorema: Sia A∈Rn,n (non vale per Cn,n); allora ∃ matrice ortogonale P tale che tPAP è diagonale.

TRASLAZIONI:Traslazione: Siano (O,B) e (O’,B) due sistemi di riferimento cartesiani ortogonali di En, con B base ortonormale. Il cambio di riferimento dal primo al secondo si dice traslazione mediante O-O’Proposizione: Dati due sistemi di riferimento (O,B) e (O’,B) di En e un punto P∈En di coordinate (x1,…,xn) rispetto a (O,B) e (x1’,…,xn’) rispetto a (O’,B); posto T=O’-O=(α 1,…,α n) allora X=X’+T

ROTAZIONI:

Prendiamo due sistemi di riferimento(O,B) e (O,B’) con B=(e1,e2) e B’=(e1’,e2’) basi ortonormali, B’ ottenuta ruotando di ϕ (∈[o,2π [) gradi B. P=(x,y) rispetto a (O,B) = (x’,y’) rispetto a (O,B’). P-O=xe1+ye2= xe1’+ye2’; poiché B è ortonormale v=(v⋅ e1)e1+(v⋅ e2)e2 ∀v∈E2. Allora e1’=(e1’⋅ e1)e1+(e1’⋅ e2)e2 e e2’=(e2’⋅ e1)e1+(e2’⋅ e2)e2

ricordo che v⋅ w=|v|⋅ |w|⋅ cosϕ e1’=cosϕ ⋅ e1+cos(π /2-ϕ )⋅ e2 e e2’=(-sinϕ )⋅ e1+cosϕ ⋅ e2 e1’=cosϕ ⋅ e1+sinϕ ⋅ e2 e e2’=-sinϕ ⋅ e1+cosϕ ⋅ e2 xe1+ye2=x’(cosϕ ⋅ e1+sinϕ ⋅ e2)+y’(-sinϕ ⋅ e1+cosϕ ⋅ e2)

ϕϕϕ−ϕ=

'y'x

cossinsincos

yx

la matrice con i sin e cos è MB’,B in quanto le colonne sono le componenti di B’ su B;

allora posto P=MB’,B X=PX’Osservazione: P è ortogonale e speciale (basta fare i conti)Rotazione: Presi in En due sistemi di riferimento (O,B) e (O,B’) si dice che un si ottiene dall’altro per rotazione se MB’,B è ortogonale speciale.Sistema di riferimento cartesiano ortogonale: lo è (O,B) se MB,E è ortogonale speciale

Page 14: Geometria ed Algebra Lineare

Osservazione: se (O,B) e (O,B’) sono entrambi sistemi di riferimento cartesiani ortonormali sono legati da una rotazione. Teorema: A,B ortogonali => AB è ortogonale

ROTOTRASLAZIONI:

Considero in E2 (O,B) e (O’,B’). P∈E2 ha coordinate (x,y) in (O,B) e (x’,y’) in (O’,B’). Sia MB’,B la matrice

della traslazione MB’,B =

2221

1211

pppp

è T il vettore di traslazione, T=

ba . Allora

=

1'y'x

bppapp

yx

2221

2111 ma posso

anche scrivere

=

1'y'x

100bppapp

1yx

2221

1211

è chiamo Q la matrice

100bppapp

2221

1211

, detta di rototraslazione.

Osservazione: P è ortogonale speciale; Q non è ortogonale ma |Q|=1.

CONICHE:

Definizione:a) parabola: fissata una retta δ detta direttrice e un punto F del piano detto fuoco, il luogo dei punti

equidistanti da δ e da F si dice parabola;b) ellisse: fissati due punti F1 e F2 del piano detti fuochi il luogo dei punti tali che la somma delle distanze

da F1 e F2 sia costante si dice ellisse;c) iperbole: fissati due punti F1 e F2 del piano detti fuochi il luogo dei punti tali che la differenza delle

distanze da F1 e F2 sia costante si dice ellisse;Parabola: cerchiamo l’equazione di una parabola centrata nell’origine. Sia δ =-P/2 F(0,P/2). P(x,y)∈parabolad(P,F)=d(P,δ ),cioè d(P,F)=d(P,P’) con P’=(x,-p/2)||(x,y-P/2)||2=||(0,y+P/2)||2x2+(y-P/2)2

= (y+P/2)2 x2=2Py.Ellisse: ne cerco l’equazione.F1=(-q,0) e F2=(q,0) con q>0, P=(x,y).d(P,F1)+d(P,F2)=k>2q. A=(a,0),A’=(-a, 0),B=(0,b),B’=(o,-b) le intersezioni con l’asse. A∈ellisse d(A,F1)+d(A,F2)=k=d(A,A’)k=2a; inoltre B∈ellisse d(B,F1)+d(B,F2)=k ||(q,b)||+||(-q,b)||=k 2√(q2+b2)=k=2a q2+b2=2° q2=a2-b2. Allora la relazione iniziale diventa ||(x+q,y)||+||(x-q,y)||=kelevo al quadrato(x+q)2+y2+(x-q)2+y2+2√([(x+q)2+y2][(x-q)2+y2])=k2b2k2+a2y2=a2b2x2/a2+y2/b2=1. Allora F1=(+√(a2-b2),0)Osservazione: se q=0a=b ho una circonferenza: x2+y2=a2 di raggio a e centro l’origine.Iperbole: ponendo b2:=q2-a2 si dimostra analogamente che ha equazione x2/a2-y2/b2=1Punto simmetrico: un punto A’ è simmetrico di A rispetto a M se e solo se M è punto medio di AA’Simmetrie: Sia C una curva e r una retta; C è simmetrica rispetto a r se ∀P∈C il punto P’, simmetrico di P rispetto a r, appartiene a C. r si chiama asse di simmetria. Analogamente un punto M è centro di simmetria per C se ∀P∈C il punto P’ simmetrico rispetto a M appartiene a C.Definizioni:

a) la retta r ⊥ δ passante per F si dice asse;b) la retta che unisce i due fuochi è asse di simmetria, come anche l’asse del segmento F1F2. L’intersezione

dei due assi è centro di simmetria ed è detto centro dell’ellisse;c) la retta che unisce i fuochi e l’asse del segmento F1F2 sono detti assi e la loro intersezione determina un

centro di simmetria detto centro dell’iperbole.Proposizione:

1. se C è una parabola, il suo asse è asse di simmetria e il suo vertice è equidistante da fuoco e direttrice.

2. C ellisse (non circonferenza) o iperbole, allora i suoi assi sono assi di simmetria e il suo centro è centro di simmetria.

Conica degenere: una conica si dice degenere se è unione di due rette (distinte o coincidenti,reali o complesse) E’ doppiamente degenere se è data dall’unione di due rette coincidenti, altrimenti è semplicemente degenere.Conica: luogo dei punti con equazione a11x2+2a12xy+a22y2+2a13x+2a23y+a33=0Matrici associate alla conica:

• matrice completa o dei coefficienti:

=

332313

232212

131211

aaaaaaaaa

B è simmetrica

Page 15: Geometria ed Algebra Lineare

• matrice della forma quadratica:

=

2212

1211

aaaa

A è simmetrica

Equazione matriciale di C: (x y 1) B t(x y 1) = 0 mi dà il polinomioForma canonica: si dice forma canonica di una conica C non degenere una sua equazione che è del tipo i) o ii):(P) parabola i) x2=2py ii) y2=2px (ruotata di 90°)

(E) ellisse i) x2/a2+y2/b2=1 ii) x2/a2+y2/b2= -1 (ellisse immaginaria)

(I) iperbole i) x2/a2 - y2/b2=1 ii) x2/a2 - y2/b2= -1Forma canonica di una conica degenere : si indicano con iii)

• parabola: x2=q o y2=q; si ottiene con casi particolari del completamento del quadrato; le due rette possono essere reali o complesse ma sono sempre parallele;

• ellisse: x2/a2+y2/b2=0 ; è una conica formata dalle rette complesse x= ±iay/bè semplicemente degen.• iperbole: x2/a2 - y2/b2=0 ; sono due rette reali distinte non parallele.

Teorema: Sia C una conica (anche degenere) di equazione priva del monomio “xy” in (O; x,y). Allora ∃ un sdr (O’;X,Y) (ottenuto con una traslazione) in cui C ha un’equazione canonica. Teorema: C conica (O;x,y) con matrici A,B. Se (O’;X,Y) si ottiene con una rototraslazione associata a Q e P allora le matrici B’ e A’ associate a C in (O’;X,Y) sono B’=tQBQ e A’=tPAP=P-1APMetodo di riduzione a forma canonica: Sia C conica in forma generale nel sdr (O;x,y) con matrici B e A.

1) diagonalizzare A; se a12=0a diagonalizzatasi passa a 2); se a12≠ 0base ortonormale di autovettori per fA: v1=(p11,p21), v2=(p12,p22).

2) posta Q’=

1000pp0pp

2221

1211

si opera la rotazione t(x y 1)=Q’ t(x’ y’ 1).In (O;x’,y’) la conica a matrici A’ e B’,

ma B’=tQ’ B Q’B’ non ha il monomio x’y’.3) Si opera il completamento dei quadrati, cioè una traslazione da (O;x’,y’) a (O’;X,Y): X=x’+α ,

Y=y’+β ; si sostituisce nell’equazione di C in (O;x’,y’) si ha la forma canonica.Teorema: Sia C data in (O;x,y). Allora ∃ un sdr (O’;X,Y) ottenuto dal precedente con una rototraslazione in cui C ha un’equazione in forma canonica.Teorema: Sia C una conica di matrici B e A in (O;x,y) e B’ e A’ in (O’;X,Y). Allora:

1) PA(T)≡ PA’(T)2) det(B’)=det(B)3) det(A’)=det(A)

Teorema di classificazione affine delle coniche: Il suo enunciato deriva da una tabella che raffronta i vari valori di |A| e |B|; Sia C una conica e A,B le matrici associate in un qualunque sdr. allora:

1) C è degenere |B|=0;2) se C non è degenere, allora:

• C parabola |A|=0;• C ellisse |A|>0;• C iperbole |A|<0.

Metodo rapido di riduzione a forma canonica: si divide in due casi:

1) |A|=0; siano α e β autovalori di A; |A|=α β =0 α o β =0; supponiamo β =0

γ−γ−

α=

0000

00B |

B|=-α γ 2 γ =±√(-|B|/α )

2) |A|≠ 0; siano α e β autovalori di A; |A|=α β ;

γ−β

α=

000000

B |B|=-α β γ . Se |B|=0γ =0

(degenere); altrimenti γ = -|B|/|A|.XIII.6.2 – Proposizione: se C ha per centro l’origine nella sua equazione i monomi in x e y non compaiono. XIII.6.3 – Osservazione (calcolo del centro): C ha equazione a11x2+2a12xy+a22y2+2a13x+2a23y+a33=0 e sia M=(u,v) il suo centro. Quanto valgono (u,v)? faccio la traslazione: X=x-u, Y=y-v; sostituisco e raccolgo i coefficienti dei monomi di X e Y; (u,v) è centro se i coefficienti di X e Y sono 0sistema lineare a due equazioni (inc:u,v).Osservazione: il sistema lineare la cui soluzione è il centro ha per matrice completa la sottomatrice di B costituita dalle prime due righe.Lemma: C con matrice A,B. Gli autospazi di A sono invarianti rispetto al sistema di riferimento.Proposizione: C conica degenere; A,B matrici associate a C (in un qualunque sdr). Allora:

Page 16: Geometria ed Algebra Lineare

1. se C è al centro, allora i sui assi sono le due rette passanti per il centro e aventi per giacitura gli autospazi di A

2. se C è una parabola, l’asse è la ratta per il vertice avente per giacitura l’autospazio associato all’autovalore nullo.

Proposizione (intersez. conica-retta): una conica non degenere e una retta hanno in comune al più due punti reali.Tangente: L’intersezione retta(r)-conica(C) (non degenere) porta a un’equazione di secondo grado di una variabile, e se le due soluzioni sono coincidenti e reali allora r si dice tangente a C in P.Molteplicità d’intersezione: nel caso della tangente r e C hanno molteplicità 2 in P e si indica con P2.Definizione: sia C conica non degenere e r una retta; r si dice

• secante: r interseca C in due punti reali e distinti• tangente: r interseca C in due punti reali e coincidenti• esterna: r interseca C in due punti complessi e coniugati

Notazione (per la tangente): Po ∈C; la retta tangente a C in Po si denota con TPo(C). Vettore tangente: è un vettore parallelo a TPo(C) e si indica con tPo(C).XIII.7.7 – Proposizione (tangente all’origine): Sia C una conica per l’origine: a11x2+2a12xy+a22y2+2a13x+2a23y=0; Allora esiste ed è unica la retta TPo(C) : a13x+a23y=0. XIII.7.9 – Proposizione (tangente generica): Sia C una conica di forma a11x2+2a12xy+a22y2+2a13x+2a23y+a33=0 di cui vogliamo calcolare la tangente in Po=(xo,yo). Procediamo traslando la conica in modo che il punto sia l’origine: x=X+xo, y=Y+yo. Sostituisco: a11(X+xo)2+2a12(X+xo)(Y+yo)+a22(Y+yo)2+2a13(X+xo)+2a23(Y+yo)+ a33=0; allora (2a11xo+2a12yo+2a13)X+(2a12xo+2a22yo+2a23)Y=0 è la tangente nel sdr traslato nel sdr originale ha equazione (a11xo+a12yo+a13)(x-xo)+(a12xo+a22yo+a23)(y-yo)=0Metodo per il calcolo della tangente da un punto esterno: si interseca il fascio di rette del punto con la conica: le due soluzioni devono coincidere ∆ =0.Lemma 1 (assi e vertici di parab.): l’asse di una parabola e la retta tangente nel vertice sono ortogonaliLemma 2: il vertice di una parabola è l’unico punto in cui la tangente alla parabola in V e l’asse sono ortog.Metodo per determinare asse e vertice di una parabola: C parabola, B e A matrici associate

i. determinare la giacitura dell’asse: Vo=ker(fAE,E)=L(v1)

ii. sia v1=(a,b); rh:ax+by+h=0 (fascio improprio di rette ortogonali a v1). tra queste si sceglie l’unica tangente a C: rho: ax+by+ho=0. Per lemma 1 e 2 rho∩C=V

iii. la retta parallela a v1 e passante per V è l’asseMetodo alternativo: i’. = i.

ii’. si determina il vettore tPo(C)=(-∂f/∂y|Po , ∂f/∂x|Po) nel generico punto Po=(xo,yo)∈Ciii’. si impone che tPo(C) sia ortogonale a v1. Per il lemma 2, l’unico punto Po in cui accade è il vertice.

Page 17: Geometria ed Algebra Lineare

IV.1.6 - Proprietà dei K-s.v.: sia V un K-s.v.; ∀k∈K, ∀v∈V si ha che:i. 0k·v=0v. dim: 0k·v=(0k+0k)·v=0k·v+0k·v legge della cancellazione 0v=0k·v.

ii. k·0v=0v dim: analoga alla precedenteiii. k·v=0v, allora o k=0k o v=0v. dim: se k≠ 0k ∃k-1∈K k-1(kv)= k-1·0v(k-1k)v=0v1k·v=0vv=0v

iv. (–k)v= –(kv)=k(–v). dim: banaleIV.2.2 - Definizione di ssv: sia V un k-s.v.; W si dice sottospazio vettoriale di V se è uno spazio vettoriale rispetto alle stesse operazioni di V. Se W⊆V sono equivalenti:

i. W è un sottospazio vettoriale di Vii. W è chiuso rispetto alle due operazioni di V, cioè i loro risultati appartengono a W

iii. W è chiuso rispetto alle combinazioni lineari, cioè λ v+λ ’v’ ∈Wdim: i.ii. e ii.iii. è ovvio; iii.ii. : prendo, per la somma, λ =λ ’=1k , per il prodotto λ ’=0k. ii.i. : le proprietà ass., comm. e distributiva valgono in Vvalgono in W (per ii.); se 0v∈W allora è anche zero di W: ∀w∈W 0v+w=w+0v=w poiché w∈V. allora 0k·w=0v (prodotto per scalare). Analog. per l’opposto.

IV.2.3 - Intersezioni di ssv: siano W1 e W2 due ssv di V (K-s.v.). Allora W1∩W2 è un ssv di V. dim: a,b∈K e v,w∈ W1∩W2. so che av+bw∈W1 e a W2; allora av+bw appartiene all’intersezione.

IV.2.5 - Sottospazio somma: siano W1 e W2 ssv di V e W1+W2:={v∈V|v=w1+w2; w1∈W1; w2∈W2}. Allora W1+W2 è il più piccolo ssv di V contenente W1∪W2, cioè la somma è contenuta in tutti i ssv contenenti l’unione. dim: x,y∈W1+W2. Tesi: x+y∈W1+W2. x=w1+w2, y=v1+v2 (w1,v1∈W1 e w2,v2∈W2). x+y=(w1+w2)+(v1+v2)=(w1+v1)[∈W1]+ (w2+v2)[∈W2]∈ W1+W2. analogamente, ∀λ∈ K ∀x∈ W1+W2 λ x∈W1+W2. Inoltre W1è contenuto in W1+W2: nella somma si prende w2=0V

IV.3.2 - Teorema: L(v1,…,vn) è un ssv generato da v1,…,vn. dim: banale, si prendono x,y∈L(v1,…,vn) e si fa la somma per componenti, lo stesso per il prodotto.

IV.3.6 - Proprietà relative agli insiemi di vettori: sia I={v1,…,v

n} e V un K-s.v.; Valgono:

i. 0v∈II non è libero. dim: sia v

1=0

v , λ

1=5 e tutti gli altri λ ≠ 0

v: allora λ

1v

1+…+λ

nv

n=0

v anche se non sono tutti

λ =0.

ii. se n=1, cioè I={v1}, allora I è libero (se v

1≠ 0

v). dim: se v

1≠ 0

v, λ

1v

1=0

v ses λ

1=0

k.

iii. molto importante: I non è libero ↔ almeno uno dei vi è combinazione degli altri. dim: “⇒”: Se I non è libero

∃ almeno un λ =0v;supponiamo sia λ

n; λ

1v

1+…+λ

n–1 · v

n–1=–(λ

nv

n). allora, moltip. per –(λ

n)-1 ho v

n= –λ

n–1λ

1v

1–…–λ

n–

1λn–1

vn–1

“⇐”: se v1=α

2v

2+α

nv

n 1·v

1+(–α

2v

2–…–α

nv

n)=0

v e so che v

1 non ha coefficiente nullo.

iv. se I non è libero e J⊇I J non è libero dim: sia J=I∪{w1,…,w

r}; se I non è libero allora esistono λ

1,…,λ

n ∈K e

≠ (0,..,0) tali che λ1v

1+…+λ

nv

n=0

V. per provare che J non è libero basta considerare λ

1v

1+…+λ

nv

n+0w

1+…+0w

r=0

v

v. se I è libero e J⊆I J è libero.dim: sia J={v1,…,v

s} con s≤ n. Se esistono degli scalari λ

1,…λ

s tali che v

1+…

+vsλ

s= =0

v, allora v

1+…+v

s+0v

s+1+…+0v

n=0.

IV.4.1 - Teorema: V è K-s.v.; v1,…,v

n ∈V. Sono equivalenti:

i. v1,…,v

n sono linearmente indipendenti

ii. v1≠ 0

v e ogni v non è comb. lin. dei precedenti. dim: “i⇒ii”: Se sono indipendenti non vi è il vettore nullo e dal

teorema prec. non ci sono comb.lin. “ii⇒i”: λ1v

1+…+λ

nv

n=0

v se ci fosse un λ ≠ 0

k potrei isolarlo e dividere per quel λ .

IV.4.2 - Teorema: Ogni sistema finito di generatori contiene un sistema libero di generatori. dim: I={v1,…,v

n}

generatori di V K-s.v.; I1:={v

1∈I | v

1≠ 0

v}; I

1 genera V. Osserviamo ora v

2: ci sono due possibilità; 1) se ∈L(v

1) allora I

2:=I

1\{v

2}. 2) se

∉ L(v1) allora I

2:=I

1 . E’ un procedimento ricorsivo, e I

i⊇I

i+1 : I

2 genera V perché L(I

1)=L(I

2)=V. Questo è il metodo degli scarti

successivi

IV.4.5 - Teorema: Un insieme I={v1,…,vn} è libero se e solo se ogni elemento di L(v1,…,vn) si scrive in modo unico come combinazione lineare di v1,…,vn. In particolare, I=(v1,…,vn) è una base di V ses ogni v∈V si scrive in modo unico v=λ 1v1+…+λ nvn. dim: “⇒”: Sia I libero; λ 1v1+…+λ nvn=µ 1v1+…+µ nvn (λ 1–µ 1)v1+…+(λ n–µ n)vn=0v ogni λ i–µ i = 0 perché I è libero; allora λ i=µ i ∀i. “⇐”:λ 1v1+…+λ nvn=0v Tesi: λ i=0 ∀i; allora 0v=0kv1+…+0kvn

per ipotesi λ i=0k∀i.4.4.11Teorema del completamento ad una base: Sia V un K-sv finitamente generato; allora ogni insieme libero di vettori è contenuto in una base. dim: sia I={v1,…,vs} insieme libero e ordinato; Per il teorema di esistenza di una base ∃ B=(e1,…,en) base di V. B∪I genera V: applico gli scarti successivi e di sicuro non elimino gli elementi v1,…,vs perché sono liberi; alla fine ho una base C=(v1,…,vs,e1,…,ek). Osservazione.: l’insieme che si ottiene non è più libero (i v1 generavano già tutto lo spazio).

IV.5.3 - Corollario: V K-sv; dim(V)=n; v1,…,vn ∈V. Sono equivalenti:

Page 18: Geometria ed Algebra Lineare

i. (v1,…,vn) è una baseii. {v1,…,vn} è un insieme libero

iii. {v1,…,vn} è un sistema di generatori. dim: “i⇒ii” e “i⇒iii” sono ovvie; “ii⇒i”: sia W=L(v1,…,vn) (v1,…,vn) è una base di W. dimW=n, ma W⊆V W=V. “iii⇒i”: applico gli scarti successivi.

IV.5.4 - Teorema di Grassmann: V è K-sv; U,W ssv di V. Allora dim(U+V)=dim(U)+dim(W)–dim(U∩W). dim: r=dim(U), s=dim(W), p=dim(U∩W). Tesi: esiste una base di U+W di r+s-p elementi. Base di U∩W: (v1,…,vp). completo ad una base di U: (v1,…,vp,u1,…,ur–p) e completo ad una base di W: (v1,…,vp,w1,…,ws–p). Allora considero I=(v1,…,vp,u1,…,ur–p,w1,…,Ws–

p): sono r+s-p. Provo che I è base di U+W: 1) “I genera”: x∈U+W: x=y+z; ma y∈L(v1,…,vp,u1,…,ur–p) e z∈L(v1,…,vp,w1,…,ws–

p)x∈L(I) I genera U+W. 2) “I è libero”: sia v=α 1v1+…+α pvp u=β 1u1+…+β r–pur–p w=γ 1w1+…+γ s–pws–p e u+v+w=0v. w= –v–uw∈U∩W w=λ 1v1+…+λ pvpλ i=0 e γ i=0. v+w=0vα i=β i=0.

V.2.9 - Sottomatrice: Se B è una sottomatrice di A, allora ρ (A)≥ ρ (B). dim: sia B la sottomatrice ottenuta intersecando le colonne Ci1…Cis con le righe Rj1…Rjp. Posta, ad esempio, B’=(Ci1…Cis) si ha che ρ (B)≤ ρ (B’)≤ ρ (A).

V.2.13 - Preposizione (rango di una tsc quadrata): A∈Kn,n è TSC; allora ρ (A)=n. dim: vedi la matrice disegnata ⇑⇑. Provo che C1…Cn sono linearmente indipendenti, cioè se λ 1c1+…+λ ncn=0vλ i=0k ∀i. esplicitamente posso scrivere al posto di C i vettori associati; allora ottengo che 1) λ 1a11+…+λ na1n=0; 2) λ 2a22+…+λ na2n=0; …3) λ n–1an–1,n–1+λ nan-1,n=0. 4) λ nan,n=0 : so che an,n≠ 0λ n=0. Ora sostituisco all’indietro e ho la tesi.V.4.2 Matrice trasformata per righe di A: se R(A)=R(B) allora B si dice che è trasformata per righe di A;Se B si ottiene da A con una successione di trasformazioni elementari allora B è trasf.ta per righe di A e ρ (A)=ρ (B). dim: sia A’ ottenuta da A con una trasformazione di tipo D), ad es. Riri+aRj.R(A’)⊆R(A), perché R(A’)=L(R1,…,Ri-1,Ri+aRj,…, Rm) e R(A)=L(R1,…,Ri-1,Ri,Ri+1,…,Rm). Ora dim. che R(A)⊆R(A’): tutte le righe di A’ sono uguali a quelle di A eccetto che per la i-esima basta provare che questa è comb.lin. delle righe di A’: infatti Ri=(Ri+aRj)-aRj. Per le altre trasf: evidente.VII.1.7 - Preposizione (proprietà appl.lin.):

• f(av1+bv2)=a·f(v1)+b·f(v2) dim: 1)prima dimostro che f(v1+…+vp)=f(v1)+…+f(vp). Vale per p=2 (L1), la suppongo vera per p-1 e proviamo per p (induzione): w=v1+…+vp-1 -->f(w+vp)=f(w)+f(vp) per L1. Ma per l’ipotesi induttiva f(w)=f(v1)+…+f(vp-1), dunque la tesi. 2) f(a1v1+…+apvp)=f(a1v1)+…+f(apvp)=a1f(v1)+...+apf(vp)

• f(0v)=0w dim: f(0v)=f(0k0v)=0kf(0v)=0w

• f(–v)=-(f(v)) dim: -v=(-1)v (per L2) --> f(-v)=f((-1)v)=(-1)f(v)= -f(v)

VII.1.10 - Preposizione: v,w K-sv. B=(v1,…,vn) base di V e siano w1,…,wn ∈W; allora ∃ ! applicazione lineare f:VW tale che f(vi)=wi ∀i. dim: definisco f ∀v∈V: v=λ 1v1+…+λ nvn (unico). Pongo f(v):=λ 1w1+…+λ nwn . Ovviamente f(vi)=wi ∀i. Devo provare che tale f è lineare: x,y∈V , α∈ K. x=x1v1+…+xnvn=(x1,…,xn)B . y= y1v1+…+ynvn=(y1,…,yn)B x+y= (x1+y1+…+xnyn)B. Ma f(x+y)=(x1w1+...+xnwn)+(y1w1+...+ynwn) --> vale L1. lo stesso per L2, procedendo per assurdo.VII.2.2 - Preposizione (calcolo dell’immagine): data un’applicazione lineare f:V-->W, ker(f) è un sottospazio vettoriale di V e Im(f) è un sottospazio vettoriale di W. In particolare Im(f)=L(f(v1),…,f(vn)), ove (v1,…,vn) è una qualunque base di V. dim: v,v’∈ ker(f) e λ ,λ ’∈K. λ v+λ ’v’∈ker(f), cioè f(λ v+λ ’v’)=0W. Per ipotesi f(v)=0W=f(v’); f(λ v+λ ’v’)=λ f(v)+λ ’f(v’)=0W-->ker(f) è un ssv di V. Siano ora w,w’∈Im(f) e λ ,λ ’∈K. Per ipotesi esistono v,v’∈V tali che w=f(v) e w’=f(v’); dunque λ w+λ ’w’=λ f(v)+λ ’f(v’)=f(λ v+λ ’v’)∈Im(f). Dunque Im(f) è un ssv di V. Infine sia w∈Im(f), cioè w=f(v) per un opportuno v∈V. Poiché (v1,…,vn) è una base di V si può scrivere v=a1v1+…+anvn; dunque w=a1f(v1)+…+anf(vn). Pertanto Im(f)⊆L(f(v1),…,f(vn)). Il viceversa è ovvio, perché Im(f) è un ssv di V.VII.2.19 - Criterio di isomorfismo: un’applicazione lineare è un isomorfismo se è iniettiva e surriettiva, cioè se dimV=dim W dim: basta costruire un isomorfismo f:V-->W. Per questo fissiamo una base B=(v1,…vn) di V e una base C=(w1,…wn) di W. sia f(vi)=wi per ogni i; tale f esiste ed è unica. Poiché Mf

B,C=In e ρ (In)=n, si ha che f è un isomorfismo.

VII.5.6 - Teorema: f:VW appl.lineare, B e B’ basi di V, C e C’ basi di W. sia f:V-->W un’applicazione lineare; allora Mf

B’,C’=MC,C’⋅ MfB,C⋅ MB,B’. dim: tutto si basa sul diagramma a lato, che è

commutativo e riassume il problema. f=idW ⋅ f ⋅ idV . Con le matrici: MfB’,C’=Midw ⋅ f ⋅ ifv

B’,C’. Applicando l’associatività della composizione delle app.lin. si ha Mf

B’,C’=Midw ⋅ f ⋅ ifv B’,C’ = Midw

C,C’ ⋅ Mf

B,C ⋅ MidvB’,B .

IX.1.3 - Preposizione: due matrici A,B ∈Kn,n si dicono simili se e solo se esiste una matrice P∈GL(n) tale che P-

1AP=B. dim: supponiamo che A~B; allora esiste un endomorfismo φ :Kn-->Kn e due basi B e C di Kn tali che A=MφB,B e B=Mφ

C,C. Pertanto B=MB,CAMC,B, Ma MC,B è invertibile e (MC,B)-1=MB,C. Si conclude ponendo P=MC,B. Viceversa, supponiamo che esista P∈GL(n) tale che P-1AP=B. Esiste una base C di Kn tale che P=MC,E e quindi P-1=ME,C. Sia quindi φ =FA

E,E l’endomorfismo di Kn

associato alla matrice A rispetto alla base canonica E, da cui A=MφE,E. Pertanto B=P-1AP=ME,CMφ

E,EMC,E=MφC,C. Quindi anche B è

associata allo stesso endomorfismo di φ ; pertanto A e B sono simili.

IX.1.6 - Preposizione: V sia un K-s.v.; φ∈ End(V). Sono equivalenti:1. ∃base B di V tale che MΦ

B,B è diagonalizzabile2. ∀base C di V MΦ

C,C è diagonalizzabile

VB f WcidV idW

VB’ f WC’

Page 19: Geometria ed Algebra Lineare

3. ∃base D di V tale che MΦD,D è diagonale dim: 2)1) ovvio; 1)2): per ipotesi ∃∆ diagonalizz. t.c. Mφ B,B~∆ .

∀base C Mφ B,B~ Mφ C,C. Per la transitività di “~”Mφ C,C~∆ . 1)3): per ipotesi ∃∆ diagonale tale che Mφ B,B~∆ , cioè ∆ è associata a φ rispetto a una certa base D: ∆ := Mφ D,D. 3)2): ∀base C, per def., Mφ C,C~ Mφ D,D, che è diagonale per ipotesi.

IX.1.12 - Preposizione (legame tra autovalori e insiemi liberi): ϕ∈ End(V), siano λ 1,…,λ s ∈K autovalori distinti di ϕ e siano ∀i= 1,…,s dei vettori vi≠ 0v, vi∈Vλ i . Allora {v1,…,vs} è libero. dim: per assurdo, siano tutti liberi tranne vio

combinazione lineare dei precedenti, cioè vio= α 1v1+…+α io-1 ⋅ vio-1 . Applico ϕ all’equazione e ottengo ϕ (vio)= ϕ (α 1v1)+…+ϕ (α io-1 ⋅ vio-1). so che ϕ (vk)=λ kvk, quindi riscrivo l’equazione ϕ (vio)=λ iovio=λ io(α 1v1+…+α io-1 ⋅ vio-1). scomponendo ho λ ioα 1 - α 1λ 1=0,… λ ioα io-1 - α io-1λ io-1=0 raccogliendo nel primo si ha α 1(λ io-λ 1)= 0 α 1=0 (tutti i λ sono distinti), lo stesso per le altre equazioni. Allora vio=0v, ma è assurdo: tutti i vettori v sono non nulli!

IX.2.10 - Teorema: V K-s.v. , ϕ∈ End(V). siano λ 1,..., λ sle radici distinte di Pϕ (T) di molteplicità rispettivamente m1,…,ms. Sono equivalenti:

1. ϕ è semplice2. ∃ base costituita da autovettori3. V=Vλ 1⊕…⊕Vλ s

4. λ 1,...,λ s∈K e dim(Vλ i)=mi ∀i=1,…,s. dim: 1)2) già vista; 2)3): n=dimV, ∃base B=(v1,…,vn) di autovettori. Ogni vi ∈ a qualche autospazioL(v1,…,vn)⊆ Vλ 1+…+Vλ s V⊆ Vλ 1⊕…⊕Vλ s . “⊇”è ovvia. 3)4) vale n=dimV= dim(Vλ 1⊕…⊕Vλ S)=(grassman)=dimVλ 1+...+dimVλ S ≤ m1+...+ms(per la prop.prec.)≤ n, perchè m=m1+...+ms+deg(q) e Pϕ (T)= (x-λ 1)m1…(x-λ s)ms⋅ q(x) non è una disequazione, vale solo come uguaglianzadimVλ i = mi ∀i. 4)3): dimV=n=m1+…+ ms= dimVλ 1+...+dimVλ S= dim(Vλ 1⊕…⊕Vλ S)V= Vλ 1⊕…⊕Vλ s . 3)2): Sia Bi la base di Vλ 1 ∀λ i , i =1,…,s. B=B1∪…∪Bs è anche una base di V costituita da autovettori.

X.2.22 - Preposizione: A∈Rn,n è ortogonale tA⋅ A=In dim: prendiamo una matrice 2x2; perché sia ortonormale devo avere tutte le colonne ortogonali e norma 1: C1⋅ C2=0, C1⋅ C1=1, C2⋅ C2=1. Ora prendo la trasposta e riscrivo i prodotti: C1⋅ R2(tA)=0, C1⋅ R1(tA)=1, C2⋅ R2(tA)=1. quindi ho 0 ovunque tranne che sulla diagonale, formata da 1 tA⋅ A=In

Xbis.2.9 - Preposizione (distanza punto-iperpiano): A punto, H iperpiano di En, u versore normale ad H. allora d(A,H)=|(A-B)⋅ u| dove B è un qualunque punto di H e |(A-B)⋅ u| la componente normale ad H del segmento AB. Poniamo A=(α 1,…,α n) e H:a1x1+…+anxn+b=0. B∈H: B=(β 1,…,β n) tale che β 1x1+…+β nxn+b=0.

Allora d(A,H) = ( ) ( )( ) ( ) ( )

2n

21

nn11nnn111

n1n1

n1nn11

a...a

ba...aa(,...,a)

a,...,a

1

a,...,a

a,...,a,...,

++

+α++α=β−αβ−α=⋅β−αβ−α . NB: vale

solo tra punti e iperpiani!Xbis.2.12 - Distanza tra due Iperpiani: presi due iperpiani d(H,H’)=|b’-b|/√(a1

2+…+an2) dim: H:a1x1+…+anxn+b=0

e H’: a1’x1+…+an’xn+b’=0, la distanza è quella tra A e H’, dove A è un qualunque punto di H.Xbis.5.2 - Preposizione: Sia A il punto di intersezione delle rette r: ax+by+c=0 e r’: a’x+b’y+c’=0. Allora FA è costituito da tutte e sole le rette di equazione λ (ax+by+c)+µ (a’x+b’y+c’)=0, λ ,µ∈ R e (λ ,µ )≠ (0,0). dim: λ (ax+by+c)=0 è l’equazione di una retta per A, come l’altra. Sia t:α x+β y+γ =0 l’equazione di una qualunque retta per A. Il sistema delle tre equazioni deve dare una sola soluzione per ipotesi: A, quindi il grado della matrice associata al sistema è 2 visto che le prime due righe sono l.i. la terza è combinazione lineare delle altre.

Xbis.5.12 - Fascio di piani: Sia A∈R3 e siano π 1,π 2,π 3 tre piani di equazione π i:aix+biy+ciz+di=0 tali che A=loro intersezione. Allora la stella di piani di centro A è costituita da tutti e soli i piani di equazione λ 1(a1x+b1y+c1z+d1) +λ 2(a2x+b2y+c2z+d2)+ λ 3(a3x+b3y+c3z+d3)=0. con λ 1,λ 2,λ 3 ≠ (0,0,0). i tre piani sono detti generatori di SA. dim: ognuno dei piani di SA passa per A perché ognuno dei piani passa per A. Viceversa, sia τ : ax+by+cz+d=0 un piano per A; vogliamo provare che esiste una terna (α ,β ,γ ) ≠ (0,0,0) tale che π α ,β ,γ =τ . Scrivo il sistema dei tre piani: ha una sola soluzione --> ρ (A)=3- Le prime tre linee sono linearmente indipendenti (A=intersez. dei tre)--> la quarta è c.l. delle altreXIII.6.2 – Preposizione: se C ha per centro l’origine nella sua equazione i monomi in x e y non compaiono. dim: partiamo da α x2+β y2=γ (centro (0,0)); resta al centro quando è solo ruotatala ruoto: X=p11x+p12y; Y=p21x+p22y. Svolgendo i conti si ottiene ax2+bxy+cy2+d=0.XIII.6.3 – Osservazione (calcolo del centro): C ha equazione a11x2+2a12xy+a22y2+2a13x+2a23y+a33=0 e sia M=(u,v) il suo centro. Quanto valgono (u,v)? faccio la traslazione: X=x-u, Y=y-v; sostituisco e raccolgo i coefficienti dei monomi di X e Y; (u,v) è centro se i coefficienti di X e Y sono 0sistema lineare a due equazioni (inc:u,v).XIII.7.7 – Preposizione (tangente all’origine): Sia C una conica per l’origine: a11x2+2a12xy+a22y2+2a13x+2a23y=0; Allora esiste ed è unica la retta TPo(C) : a13x+a23y=0. dim: sia r: P=λ (m,n) r//(m,n). Calcolo r∩C: a11λ 2m2+2a12λ mn+a22λ 2n2+2a13λ m+2a23λ n=0; deve essere a13m+a23n=0 (m,n)//(a23,-a13) To(C) : P=λ (a23,-a13)a13x+a23y=0XIII.7.9 – Preposizione (tangente generica): Sia C una conica di forma a11x2+2a12xy+a22y2+2a13x+2a23y+a33=0 di cui vogliamo calcolare la tangente in Po=(xo,yo). Procediamo traslando la conica in modo che il punto sia

Page 20: Geometria ed Algebra Lineare

l’origine: x=X+xo, y=Y+yo. Sostituisco: a11(X+xo)2+2a12(X+xo)(Y+yo)+a22(Y+yo)2+2a13(X+xo)+2a23(Y+yo)+ a33=0; allora (2a11xo+2a12yo+2a13)X+(2a12xo+2a22yo+2a23)Y=0 è la tangente nel sdr traslato nel sdr originale ha equazione (a11xo+a12yo+a13)(x-xo)+(a12xo+a22yo+a23)(y-yo)=0