0-formequadratiche (1)

3
MATRICI ORTOGONALI E FORME QUADRATICHE MATRICI SIMMETRICHE E ORTOGONALI Definizione. Dati in R n due vettori v =(x 1 , ··· ,x n )e w =(y 1 , ··· ,y n ), diciamo loro prodotto scalare il numero reale (x 1 , ··· ,x n ) · (y 1 , ··· ,y n )= n i=1 x i y i . Se identifichiamo v e w come vettori colonna di R n,1 possiamo scrivere v · w = t vw Questo prodotto ha le stesse proprieta’ riscontrate nel caso n =2, 3, come si verifica facilmente in base alla definizione: 1) v · w = w · v 2) (mv) · w = v · (mw)= m(v · w) 3) u · (v + w)= u · v + u · w 4) v · v = n i=1 v i 2 0, per ogni v e v · v = 0 se e solo se v = 0 In analogia con quanto accade nello spazio della geometria (n =2, 3) diremo che in R n due vettori v, w sono ortogonali se v · w = 0; definiamo inoltre modulo o norma di un vettore v il numero v = v · v = ( n i=1 v i 2 ) 1 2 . Teorema. La norma di un vettore soddisfa le seguenti proprieta’: positivita’ v0e v = 0 se e solo se v = 0 omogeneita’ mv = |m|v disuguaglianza triangolare v + wv + w disuguaglianza di Cauchy-Schwartz |v · w|≤vw La nozione di norma permette di definire la distanza tra due vettori: d(v, w)= v - w Sia ora S R n,n una matrice simmetrica, cioe’ una matrice tale che t S = S. Proposizione. Siano v 1 , v 2 autovettori di una matrice simmetrica S corrispondenti a due distinti autovalori λ 1 2 ; allora v 1 · v 2 =0 Dimostrazione. (Sv 1 ) · v 2 = t (Sv 1 )v 2 = t v t 1 Sv 2 = t v 1 (Sv 2 )= v 1 · (Sv 2 ). Per ipotesi Sv 1 = λ 1 v 1 e Sv 2 = λ 2 v 2 , quindi λ 1 v 1 · v 2 = λ 2 v 1 · v 2 Lemma. Dati m vettori non nulli v 1 , ··· , v m R n , se sono a due a due ortogonali, allora sono linearmente indipendenti. Dimostrazione. Infatti moltiplicando scalarmente la relazione a 1 v 1 + ··· + a m v m = 0 per v i al variare di i =1, ··· ,m, si ottiene a i = 0 per ogni i. 1

description

i78yioj

Transcript of 0-formequadratiche (1)

  • MATRICI ORTOGONALI E FORME QUADRATICHE

    MATRICI SIMMETRICHE E ORTOGONALI

    Definizione. Dati in Rn due vettori v = (x1, , xn) e w = (y1, , yn), diciamo loro prodotto scalare ilnumero reale (x1, , xn) (y1, , yn) =

    ni=1 xiyi. Se identifichiamo v e w come vettori colonna di R

    n,1

    possiamo scriverev w =t vw

    Questo prodotto ha le stesse proprieta riscontrate nel caso n = 2, 3, come si verifica facilmente in basealla definizione:

    1) v w = w v2) (mv) w = v (mw) = m(v w)3) u (v +w) = u v + u w4) v v =ni=1 vi2 0, per ogni v e v v = 0 se e solo se v = 0In analogia con quanto accade nello spazio della geometria (n = 2, 3) diremo che in Rn due vettori v,w

    sono ortogonali se v w = 0; definiamo inoltre modulo o norma di un vettore v il numero v = v v =(n

    i=1 vi2)

    12 .

    Teorema. La norma di un vettore soddisfa le seguenti proprieta:

    positivitav 0 e v = 0 se e solo se v = 0omogeneitamv = |m|vdisuguaglianza triangolarev +w v+ wdisuguaglianza di Cauchy-Schwartz|v w| vw

    La nozione di norma permette di definire la distanza tra due vettori:

    d(v,w) = v w

    Sia ora S Rn,n una matrice simmetrica, cioe una matrice tale che tS = S.

    Proposizione. Siano v1,v2 autovettori di una matrice simmetrica S corrispondenti a due distinti autovalori1, 2; allora v1 v2 = 0Dimostrazione. (Sv1) v2 =t (Sv1)v2 =t vt1Sv2 =t v1(Sv2) = v1 (Sv2). Per ipotesi Sv1 = 1v1 eSv2 = 2v2, quindi

    1v1 v2 = 2v1 v2

    Lemma. Dati m vettori non nulli v1, ,vm Rn, se sono a due a due ortogonali, allora sono linearmenteindipendenti.

    Dimostrazione. Infatti moltiplicando scalarmente la relazione a1v1 + + amvm = 0 per vi al variare dii = 1, ,m, si ottiene ai = 0 per ogni i.

    1

  • Definizione. Una base diRn si dice ortonormale se e costituita da vettori di norma 1 a due a due ortogonali.

    Definizione. Una matriceP Rn,n si dice ortogonale se soddisfa una delle seguenti condizioni equivalenti:(a) tPP = In(b) P tP = In(c) P e invertibile e P1 =t P

    Teorema. Sia S Rn,n una matrice simmetrica, allora:(a) le radici del polinomio caratteristico di S sono tutte reali;(b) esiste una matrice ortogonale P Rn,n tale che P1SP =t PSP = D, con D matrice diagonale,

    avente sulla diagonale principale gli autovalori di S scritti con la dovuta molteplicita.

    Classifichiamo ora le matrici ortogonali P R2,2. Sia

    P =(p qr s

    )una tale matrice; per definizione le sue colonne sono versori ortogonali; gli unici due versori ortogonali a(pr

    )sono

    (rp

    )e(

    rp), quindi ci sono solo due possibilita;

    P =(p rr p

    ), P =

    (p rr p

    )Visto che deve essere p2 + r2 = 1, le due matrici hanno determinante rispettivamente 1 e 1.

    Consideriamo il primo caso. E facile osservare che esiste un unico angolo tale che cos = p e sin = r,ossia

    P =(cos sinsin cos

    )inoltre si ha (

    cos sinsin cos

    )(xy

    )=(xcos ysinxsin+ ycos

    )Proposizione. Ogni matrice ortogonale di R2,2 con determinante 1 e del tipo descritto sopra e rappresentauna rotazione nel piano di un angolo con centro nellorigine.

    Proprieta. Siano A e B matrici ortogonali di Rn,n, allora A1 e AB sono ortogonali.

    Dimostrazione. E noto che t(AB) =t BtA. Per ipotesi tAA = I,tBB = I, quindi tA = A1 e t(A1)A1 =I, cioe A e ortogonale. Inoltre t(AB)(AB) =t BtAAB =t BIB =t BB = I.

    Teorema di Binet. Siano A e B matrici quadrate, allora det(AB) = (detA)(detB)

    Corollario. Ogni matrice ortogonale ha determinante 1 oppure 1.Dimostrazione. Se P tP = I si ha 1 = detI = det(P tP ) = det(tP )detP = (detP )2, essendo det(tP ) = detP .

    Definizione. Una matrice ortogonale con determinante 1 si dice speciale .

    FORME QUADRATICHE

    Definizione. Una forma lineare e una applicazione lineare f : Rn R.

    Segue che f(x1, , xn) = a1x1+ +anxn = Av, dove A R1,n e la matrice (a1 an) che rappresentaf e v il vettore colonna t(x1, , xn). Se A non e la matrice nulla, Imf = R e quindi kerf sara unsottospazio di dimensione n 1 di Rn. Risulta quindi che f e una combinazione lineare di (x1, , xn).

    2

  • Definizione. Una forma quadratica e una funzione q : Rn R del tipo q(x1 , xn) =n

    i,j=1 aijxixj , cioeuna combinazione lineare di x21, , x2n, x1x2, x1x3, univocamente determinata da una matrice simmetricaA = (aij).

    Per n = 2 otteniamo q(x, y) = a11x2 + 2a12xy + a22y2, con A =(a11 a12a12 a22

    )Per n = 3, q(x, y, z) = a11x2 + a22y2 + a33z2 + 2a12xy + 2a13xz + 2a23yz, con A =

    a11 a12 a13a12 a22 a23a12 a23 a33

    .In generale, q(x1 , xn) =t vAv e la funzione q puo essere semplificata diagonalizzando A. Infatti,

    visto che A e una matrice simmetrica reale, esiste una matrice ortogonale P tale che P1AP e una matricediagonale avente sulla diagonale principale gli autovalori di A.

    Definizione. Lespressione q(x1 , xn) = 1x21+ +nx2n =t vAv con A matrice diagonale, si dice formacanonica di q.

    Segue in particolare che:

    Proposizione-Definizione. Se gli autovalori di A sono tutti positivi, q(x1 , xn) > 0 per ogni v 6= 0 e laforma quadratica si dice definita positiva.

    Se gli autovalori di A sono tutti negativi, q(x1 , xn) < 0 per ogni v 6= 0 e la forma quadratica si dicedefinita negativa.

    Se gli autovalori di A sono tutti positivi o nulli, q(x1 , xn) 0 per ogni v e la forma quadratica sidice semidefinita positiva.

    Se gli autovalori di A sono tutti negativi o nulli, q(x1 , xn) 0 per ogni v e la forma quadratica sidice semidefinita negativa.

    La forma quadratica si dice indefinita o non definita se non vale nessuno dei casi precedenti.

    Per lo studio del segno di una forma quadratica e utile la seguente:

    Regola di Cartesio. Dato un polinomio di grado n in una variabile scritto per potenze crescenti (odecrescenti) , avente coefficienti reali e tutte le radici reali, il numero delle radici positive e uguale al numerodi variazioni di segno dei coefficienti del polinomio, trascurando eventuali coefficienti nulli.

    3