Base (algebra lineare) -

97
PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]]. PDF generated at: Thu, 26 Jan 2012 08:11:20 UTC Algebra lineare

Transcript of Base (algebra lineare) -

Page 1: Base (algebra lineare) -

PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]].PDF generated at: Thu, 26 Jan 2012 08:11:20 UTC

Algebra lineare

Page 2: Base (algebra lineare) -

IndiceVoci

Premessa 1Algebra lineare 2Spazio vettoriale 13Trasformazione lineare 20Base (algebra lineare) 24Teorema del rango 29Formula di Grassmann 32Teorema di Rouché-Capelli 35Rango (algebra lineare) 37Determinante 40Diagonalizzabilità 48Autovettore e autovalore 52Polinomio caratteristico 60Polinomio minimo 63Forma canonica di Jordan 66Prodotto scalare 68Forma bilineare 75Spazio euclideo 78Base ortonormale 81Ortogonalizzazione di Gram-Schmidt 83Forma sesquilineare 86Teorema spettrale 88

NoteFonti e autori delle voci 93Fonti, licenze e autori delle immagini 94

Licenze della voceLicenza 95

Page 3: Base (algebra lineare) -

Premessa 1

Premessa

Cos'è questo libroQuesto è un libro di Wikipedia.È una raccolta di voci tratte dall'edizione italiana dell'enciclopedia online Wikipedia [1]. Le voci di Wikipedia sonoscritte collettivamente e i lettori sono anche gli autori. Nessuno è stato pagato per scrivere questo libro.

Come usare questo libroQuest'opera può essere liberamente utilizzata, riprodotta, modificata, distribuita per qualsiasi scopo (anchecommerciale), a patto di attribuire correttamente la provenienza dei contenuti e citare gli autori, nel rispetto dellalicenza Creative Commons Attribuzione-Condividi allo stesso modo (CC-BY-SA) 3.0 [2] per quanto riguarda i testi.Le opere derivate devono mantenere la stessa licenza o una compatibile. In fondo al libro sono riportati l'elenco degliautori dei testi e delle immagini. Prima di distribuire il libro, verifica in particolare che le licenze delle immaginisiano riportate correttamente.[3]

Proprio per la natura del contributo libero e gratuito di tutti gli autori, compresi gli utenti anonimi, Wikipedia nonpuò fornire garanzie sulla validità e l'accuratezza dei contenuti. Benché la comunità degli utenti cerchi di essere nelcomplesso vigile e accurata, in ogni istante è sempre possibile che una pagina venga vandalizzata o modificata inmodo improprio, seppure in buona fede, con informazioni errate, illegali o non conformi alle consuetudini dellacomunità o dell'area in cui vivi. Per favore, leggi attentamente le avvertenze [4] e tieni presente che le informazioniqui riportate hanno un valore puramente illustrativo e divulgativo. Wikipedia non fornisce alcun consiglio medico,legale o professionale.

Dove trovare altri libri come questoSe desideri scaricare gratuitamente altri libri di Wikipedia, oppure la versione più aggiornata di questo stesso libro,vai alla pagina http:/ / it. wikipedia. org/ wiki/ Wikipedia:LibriCe ne sono molti altri, tutti gratuiti, sui più vari argomenti. Se non trovi quello che fa per te, lo puoi costruire tufacilmente, raccogliendo assieme le voci dell'enciclopedia.

Come correggere questo libroSe leggendo questo libro incontri degli errori o ritieni di poter migliorare i suoi contenuti per le future edizioni, tiinvitiamo a raggiungere il sito web http:/ / it. wikipedia. org , cercare la voce sull'argomento relativo e fare clic su"modifica". In pochi secondi puoi eliminare l'errore. Ricordati che la tua collaborazione è preziosa. Una voltaeffettuate le correzioni, puoi aggiornare la tua versione del libro e ristampare le pagine interessate dalle modifiche.Buona lettura.

Wikipedia, 26/01/2012

Page 4: Base (algebra lineare) -

Premessa 2

Note[1] http:/ / it. wikipedia. org[2] http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/[3] A causa di un problema tecnico, la licenza di alcune immagini potrebbe risultare sconosciuta ("unknown"). Alcune di queste immagini

potrebbero non essere utilizzabili al di fuori del sito di Wikipedia. Si consiglia di scaricare il libro in formato ODT per rimuovere i contenutinon liberi e correggere tali licenze.

[4] http:/ / it. wikipedia. org/ wiki/ WP:General_disclaimer

Algebra lineare

Alcuni oggetti studiati in algebra lineare

VettoriSpazi vettoriali

Trasformazioni lineari

Sistemi di equazioni lineari

MatriciAutovettori e autovalori

Quadriche Tensori

L'algebra lineare è la branca della matematica che si occupa dello studio dei vettori, spazi vettoriali (o spazi lineari),trasformazioni lineari e sistemi di equazioni lineari. Gli spazi vettoriali sono un tema centrale nella matematicamoderna; l'algebra lineare è usata ampiamente nell'algebra astratta, nella geometria e nell'analisi funzionale.L'algebra lineare ha inoltre una rappresentazione concreta nella geometria analitica.Con l'algebra lineare si studiano completamente tutti i fenomeni fisici "lineari", cioè quelli in cui intuitivamente nonentrano in gioco distorsioni, turbolenze e fenomeni caotici in generale. Anche fenomeni più complessi, non solodella fisica ma anche delle scienze naturali e sociali, possono essere studiati "approssimando il sistema" con unmodello lineare.

Page 5: Base (algebra lineare) -

Algebra lineare 3

StoriaLa storia dell'algebra lineare moderna inizia negli anni 1843 e 1844. Nel 1843, William Rowan Hamilton (che haintrodotto il termine vettore) inventò i quaternioni. Nel 1844, Hermann Grassmann pubblicò il suo libro Die linealeAusdehnungslehre (vedi i Riferimenti). Arthur Cayley introdusse le matrici (2×2), una delle idee fondamentalidell'algebra lineare, nel 1857.

Introduzione elementare

Uno spazio vettoriale è una collezione di oggetti,chiamati "vettori", che possono essere sommati e

riscalati.

L'algebra lineare ha le sue origini nello studio dei vettori negli spazicartesiani a due e a tre dimensioni. Un vettore, in questo caso, è unsegmento orientato, caratterizzato da lunghezza (o magnitudine),direzione e verso. I vettori possono essere usati per rappresentaredeterminate entità fisiche come le forze, e possono essere sommati fraloro e moltiplicati per uno scalare, formando quindi il primo esempiodi spazio vettoriale sui reali.

L'algebra lineare moderna è stata estesa per comprendere spazi didimensione arbitraria o infinita. Uno spazio vettoriale di dimensione nè chiamato n-spazio. Molti dei risultati utili nel 2-spazio e nel 3-spaziopossono essere estesi agli spazio di dimensione maggiore. Anche semolte persone non sanno visualizzare facilmente i vettori negli n-spazi,questi vettori o n-uple sono utili per rappresentare dati. Poiché i vettori,come n-uple, sono liste ordinate di n componenti, molte personecomprendono e manipolano i dati efficientemente in questa struttura.Ad esempio, in economia, si può creare e usare vettori 8-dimensionali(ottuple) per rappresentare il Prodotto Interno Lordo di 8 stati. Si puòdecidere di visualizzare il PIL di 8 stati per un particolare anno, ad esempio (Stati Uniti, Gran Bretagna, Francia,Germania, Spagna, India, Giappone, Australia), usando un vettore (v1, v2, v3, v4, v5, v6, v7, v8) dove il PIL di ognistato è nella sua rispettiva posizione.

Uno spazio vettoriale è definito sopra un campo, come il campo dei numeri reali o il campo dei numeri complessi.Gli operatori lineari mappano elementi da uno spazio vettoriale su un altro (o su se stesso), in modo che siamantenuta la compatibilità con l'addizione e la moltiplicazione scalare definiti negli spazi vettoriali. L'insieme ditutte queste trasformazioni è anch'esso uno spazio vettoriale. Se è fissata una base per uno spazio vettoriale, ognitrasformazione lineare può essere rappresentata da una tabella chiamata matrice. Nell'algebra lineare si studianoquindi le proprietà delle matrici, e gli algoritmi per calcolare delle quantità importanti che le caratterizzano, quali ilrango, il determinante e l'insieme dei suoi autovalori.Uno spazio vettoriale (o spazio lineare), come concetto puramente astratto sul quale proviamo teoremi, è partedell'algebra astratta, e ben integrato in questo campo: alcuni oggetti algebrici correlati ad esempio sono l'anello dellemappe lineari da uno spazio vettoriale in sé, o il gruppo delle mappe lineari (o matrici) invertibili. L'algebra linearegioca anche un ruolo importante in analisi, specialmente nella descrizione delle derivate di ordine superiorenell'analisi vettoriale e nella risoluzione delle equazioni differenziali.Concludendo, si può dire semplicemente che i problemi lineari della matematica - quelli che esibiscono "linearità"nel loro comportamento - sono quelli più facili da risolvere, e che i problemi "non lineari" vengono spesso studiatiapprossimandoli con situazioni lineari. Ad esempio nell'analisi, la derivata è un primo tentativo di approssimazionelineare di una funzione. La differenza rispetto ai problemi non lineari è molto importante in pratica: il metodogenerale di trovare una formulazione lineare di un problema, in termini di algebra lineare, e risolverlo, se necessariocon calcoli matriciali, è uno dei metodi più generali applicabili in matematica.

Page 6: Base (algebra lineare) -

Algebra lineare 4

Nozioni di base

Spazio vettoriale

Un vettore può essere riscalato, cioèmoltiplicato per un numero. Qui sono mostrati ivettori e , ottenuti moltiplicando

rispettivamente per 2 e -1.

La nozione più importante in algebra lineare è quella di spaziovettoriale. Uno spazio vettoriale è un insieme di elementi, dettivettori, aventi delle proprietà che li rendono simili ai vettori applicatiin un punto fissato (l'origine) del piano o dello spazio.

Più precisamente, sono definite su un paio di operazioni binarie:• due vettori e possono essere sommati, dando così luogo ad un

nuovo vettore ,• un vettore può essere riscalato, cioè moltiplicato per un numero

, dando così luogo ad un nuovo vettore .

Due vettori e possono essere sommatiusando la regola del parallelogramma.

Il numero (detto scalare) appartiene ad un campo che viene fissatofin dall'inizio: questo può essere ad esempio il campo dei numerireali o il campo dei numeri complessi.

Le due operazioni devono soddisfare una lunga lista di assiomi. Adesempio, la somma fra vettori deve essere associativa e commutativa.Deve inoltre esistere un elemento neutro per la somma, ovvero unparticolare vettore, chiamato origine, vettore nullo, O oppure 0, taleche per ogni vettore .

Il piano cartesiano è l'esempio fondamentale di spazio vettoriale. Ogni punto del piano è in realtà identificatounivocamente come una coppia di numeri reali. L'origine è il punto . Il punto può essereinterpretato alternativamente come punto del piano o come vettore applicato nell'origine che parte da e arrivain .Analogamente lo spazio cartesiano è formato da triple di punti . Più in generale, le ennuple di numerireali

formano uno spazio vettoriale che viene indicato con . Ancora più in generale, si può sostituire con un altrocampo e ottenere quindi lo spazio vettoriale .

Page 7: Base (algebra lineare) -

Algebra lineare 5

Applicazioni lineari

Una rotazione del piano cartesiano centratanell'origine (0,0) è una trasformazione lineare.

Una applicazione lineare è una funzione fra due spazi vettoriali

che sia compatibile con le operazioni definite su entrambi. Devonocioè valere le proprietà seguenti:

per ogni coppia di vettori in e ogni scalare . I termini"applicazione", "funzione", "trasformazione", "mappa" e"omomorfismo" sono in questo contesto tutti sinonimi. Il termine"lineare" sta a indicare la compatibilità con le operazioni. Unaapplicazione lineare manda necessariamente l'origine (di )nell'origine (di ):

Una trasformazione lineare può distorcere gli oggetti.

Gli spazi e possono coincidere. In questo casol'applicazione è più propriamente una trasformazione di

, ovvero una funzione che sposta i punti di ,chiamata anche endomorfismo. Una trasformazione di

deve necessariamente tenere fissa l'origine O.

Molte trasformazioni del piano cartesiano o dellospazio che tengono fissa l'origine O sono lineari: traqueste, le rotazioni (intorno a O), le riflessioni rispettoad una retta o un piano (passante per O), le omotetie

(centrate in O) e le proiezioni (su una retta o piano passante per O).

Una trasformazione lineare può allargare un oggetto orizzontalmentee comprimerlo verticalmente.

Le applicazioni lineari compaiono in contesti moltodifferenti. Ad esempio, il funzionale

che associa ad una funzione il suo integrale è unaapplicazione lineare

dallo spazio delle funzioni continue a valorireali in .

Page 8: Base (algebra lineare) -

Algebra lineare 6

Basi e dimensione

I vettori e formano la base canonica del piano cartesiano . Ogni

altro vettore si scrive (in modo univoco) come combinazione lineare di questi due vettori.Ad esempio, il vettore si scrive come .

Un punto ha dimensione zero, una rettaha dimensione uno, un piano hadimensione due. L'algebra linearepermette di definire e trattareagevolmente spazi di dimensione piùalta. Lo spazio fondamentale didimensione è lo spazio vettorialedelle ennuple, indicato con . Per

, questo è l'usuale pianocartesiano.

Ogni spazio vettoriale ha unadimensione. Questa è definita in modoalgebrico, come il numero di elementiin una base per : una base è uninsieme di vettori che funge da sistemadi riferimento per . Rigorosamente, una base è una successione

di vettori indipendenti che generano lo spazio . Uno spazio vettoriale può avere anche dimensione infinita: glispazi vettoriali di dimensione infinita sono spesso più complicati, e molti teoremi di algebra lineare richiedono comeipotesi che abbia dimensione finita.

Le nozioni di base e dimensione si applicano a (che ha dimensione ) e ai sottospazi ivi contenuti. Essendoperò definite in modo puramente algebrico, si applicano anche in contesti molto differenti: ad esempio, le matrici

formano uno spazio vettoriale di dimensione . I polinomi in una variabile formano uno spaziovettoriale di dimensione infinita: restringendo però il grado dei polinomi ad un certo valore massimo si ottieneuno spazio vettoriale di dimensione .

Prodotto scalare

Il prodotto scalare euclideo nel piano fra duevettori e è definito come il prodotto

delle lunghezze di e della proiezione di su . Esistono però molti altri modi utili di

definire un prodotto scalare, in spazi didimensione arbitraria.

Due vettori e di uno spazio vettoriale possono essere sommati: ilrisultato è un vettore . Inoltre un vettore e uno scalare possono essere moltiplicati: il risultato è un vettore . Nelladefinizione di spazio vettoriale non è però prevista una operazione diprodotto fra due vettori.

In alcuni contesti è però utile aggiungere una ulteriore operazionebinaria fra vettori, che si comporti come un prodotto. Il risultato diquesto prodotto può essere a sua volta un vettore o uno scalare. Nelprimo caso, questa operazione si chiama prodotto vettoriale, e nelsecondo prodotto scalare. L'operazione di prodotto vettoriale risultaperò interessante solo in dimensione tre, mentre i prodotti scalariesistono (e sono utili) in tutte le dimensioni: per questo motivo questiultimi sono molto più studiati.

Page 9: Base (algebra lineare) -

Algebra lineare 7

Nella definizione di spazio vettoriale non è inoltre neppure prevista una nozione di lunghezza (equivalentemente,norma) per i vettori, né di angolo fra due di questi. Entrambe le nozioni di lunghezza e angolo risultano però definitese è fissato un opportuno prodotto scalare.[1]

Applicazioni

Sistemi lineariUn sistema di equazioni lineari è il dato di un certo numero di equazioni lineari in alcune variabili .Usando le matrici e la moltiplicazione riga per colonne, un sistema può essere scritto in modo stringato nel modoseguente:

In questa espressione è una matrice , è il vettore delle variabili , ..., e è un altro vettoreformato da costanti.L'algebra lineare fornisce molti algoritmi per determinare le soluzioni di un sistema lineare. Il legame fra i sistemi diequazioni e l'algebra lineare sta nel fatto che la matrice può essere interpretata come applicazione lineare da in : secondo questa interpretazione, le soluzioni sono esattamente le controimmagini di .Il metodo di eliminazione di Gauss consente di determinare le soluzioni di un sistema. Il teorema di Rouché-Capellifornisce un metodo per contare le soluzioni, senza necessariamente determinarle completamente.[2] Nel caso in cui ilsistema sia quadrato e abbia una sola soluzione, questa può essere determinata usando la regola di Cramer.

Geometria analitica

Una retta nel piano cartesiano è desritta da unaequazione lineare del tipo

. Due rette distinte sonoparallele se il sistema formato dalle loro due

equazioni non ha soluzione.

In geometria analitica una retta o un piano sono descritti da sistemi diequazioni lineari: come si è appena visto, questi possono essereagevolmente studiati con gli strumenti dell'algebra lineare. Si possonoquindi affrontare problemi quali le posizioni reciproche di due rette (opiani) nello spazio (che possono essere incidenti, paralleli o sghembi),e come queste variano per trasformazioni lineari.

Le coniche nel piano come ellisse, parabola e iperbole sonodeterminate da equazioni di secondo grado. Queste equazioni sono piùcomplicate di quelle lineari, che sono di primo grado. Nonostante ciò,la classificazione delle coniche è realizzata in modo efficace con glistrumenti dell'algebra lineare, grazie a teoremi non banali quali ilteorema spettrale e il teorema di Sylvester. Con gli stessi strumenti siclassificano le quadriche nello spazio.

Calcolo differenziale

L'analisi matematica delle funzioni in una variabile non fa usodell'algebra lineare. L'analisi delle funzioni in più variabili invece dipende fortemente da questo settore. La nozionedi derivata è infatti estesa in più variabili a quella di differenziale: mentre la derivata è un semplice numero reale cheindica la pendenza di una funzione in un punto, il differenziale è una applicazione lineare, che indica sempre la"pendenza" di una funzione (a più variabili) in un punto.

Page 10: Base (algebra lineare) -

Algebra lineare 8

Tre piani nello spazio possono avere varieconfigurazioni differenti: in questo caso si

intersecano in un punto. Ciascun piano è descrittoda una equazione. Il punto di intersezione èottenuto come soluzione di un sistema con 3

equazioni e 3 variabili.

Anche la nozione di derivata seconda si estende a più variabili: ilrisultato è una matrice detta matrice hessiana. Questa matrice èsimmetrica e può essere agevolmente rappresentata come diagonalegrazie al teorema spettrale.

Analisi funzionale

Molti problemi dell'analisi funzionale, quali la ricerca di una soluzioneper una equazione differenziale, vengono affrontati analizzando unparticolare spazio di funzioni. Uno spazio di funzioni è uno spaziovettoriale i cui elementi sono funzioni di un certo tipo (ad esempiocontinue, integrabili, derivabili... definite su un dominio fissato). Spazidi questo tipo sono generalmente di dimensione infinita, e sono dotatidi alcune strutture aggiuntive, quali ad esempio un prodotto scalare(negli spazi di Hilbert), una norma (negli spazi di Banach) o una piùgenerale topologia (negli spazi vettoriali topologici).

Esempi di spazi di funzioni includono gli spazi Lp e gli spazi diSobolev.

Meccanica quantistica

Le funzioni d'onda associate agli stati di un elettrone in unatomo di idrogeno sono gli autovettori di alcuni particolari

operatori autoaggiunti usati in meccanica quantistica.

La meccanica quantistica fa ampio uso dei teoremi piùavanzati dell'algebra lineare. Il modello matematico usato inquesto settore della fisica (formalizzato principalmente daPaul Dirac e John Von Neumann) descrive i possibili stati diun sistema quantistico come elementi di un particolare spaziodi Hilbert e le grandezze osservabili (quali posizione, velocità,etc.) come operatori autoaggiunti. I valori che possonoassumere queste grandezze quando vengono effettivamentemisurate sono gli autovalori dell'operatore.

L'introduzione e l'uso di questi concetti matematici non banalinella fisica quantistica è stato uno dei maggiori stimoli allosviluppo dell'algebra lineare nel XIX secolo.

Strumenti

Matrici

Una matrice è una tabella di numeri, come ad esempio:

Le matrici sono utili in algebra lineare per rappresentare le applicazioni lineari. Questo viene fatto tramite lamoltiplicazione riga per colonna. Ad esempio, la matrice descritta rappresenta una trasformazione del pianocartesiano in sé. Questa trasformazione manda il punto nel punto

Page 11: Base (algebra lineare) -

Algebra lineare 9

Questa trasformazione non è nient'altro che una rotazione antioraria di 90º con centro l'origine.La relazione fra matrici e applicazioni lineari è molto forte. Ogni applicazione lineare fra spazi vettoriali didimensione e è descrivibile tramite una matrice associata di tipo , purché in entrambi gli spazivettoriali siano fissate delle basi. L'effetto di un cambiamento di base è codificato dalla matrice di cambiamento dibase e la composizione di funzioni si traduce in una moltiplicazione fra matrici.

Eliminazione di GaussL'eliminazione di Gauss è un algoritmo che consente di ridurre una matrice in una forma più semplice tramiteopportune mosse sulle righe. Questo algoritmo è usato principalmente per determinare le soluzioni di un sistema diequazioni lineari, ma ha anche applicazioni più interne all'algebra lineare: con l'eliminazione di Gauss si puòdeterminare il rango, il determinante o l'inversa di una matrice, si può estrarre una base da un insieme di generatori.

Determinante

Una trasformazione lineare del piano cartesiano descritta da una matrice quadrata. Il determinante della matrice fornisce delle informazioni sulla

trasformazione: il valore assoluto descrive il cambiamento di area, mentre il segnodescrive il cambiamento di orientazione. Nell'esempio qui riportato, la matrice hadeterminante -1: quindi la trasformazione preserva le aree (un quadrato di area 1 si

trasforma in un parallelogramma di area 1) ma inverte l'orientazione del piano(cambia il verso della freccia circolare).

Il determinante è un numero associato aduna matrice quadrata , generalmenteindicato come . Da un punto di vistaalgebrico, il determinante è importanteperché vale zero precisamente quando lamatrice non è invertibile; quando non è zero,fornisce inoltre un metodo per descrivere lamatrice inversa tramite la regola di Cramer.

Da un punto di vista geometrico, ildeterminante fornisce molte informazionisulla trasformazione associata ad : il suosegno (sui numeri reali) indica se latrasformazione mantiene l'orientazione dellospazio, ed il suo valore assoluto indica comecambiano le aree degli oggetti dopo latrasformazione.

Page 12: Base (algebra lineare) -

Algebra lineare 10

Autovalori e autovettori

In questa trasformazione lineare della Gioconda, l'immagine è modificatama l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato

lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è unautovettore della trasformazione e quello blu no.

Per caratterizzare un endomorfismo è utile studiarealcuni vettori, chiamati autovettori.Geometricamente, un autovettore è un vettore chenon cambia direzione. Da un punto di vistaalgebrico, si tratta di un vettore tale che

per qualche scalare , detto autovalore.L'endomorfismo è particolarmente semplice dadescrivere se è diagonalizzabile: geometricamente,questo vuol dire che esiste una base di autovettori;algebricamente, vuol dire che l'endomorfismo puòessere rappresentato tramite una matrice diagonale,come ad esempio

Gli autovalori possono essere trovati agevolmentecalcolando il polinomio caratteristico della matriceassociata, definito come

Gli autovalori di sono precisamente le radici di questo polinomio. Gli autovettori si organizzano in sottospazivettoriali chiamati autospazi. Quando lo spazio vettoriale è uno spazio di funzioni, l'autovalore è una particolarefunzione, chiamata autofunzione.

Forma canonica di JordanUna endomorfismo diagonalizzabile è rappresentabile in modo agevole tramite una matrice diagonale. Non tutti gliendomorfismi sono però diagonalizzabili: ad esempio, una rotazione antioraria del piano cartesiano di angolo è rappresentata dalla matrice

che (per diverso da 0 e ) non ha autovalori né autovettori, e quindi a maggior ragione non può esserediagonalizzabile. Un altro esempio di matrice non diagonalizzabile è la seguente

Se il campo considerato è però il campo dei numeri complessi, è comunque possibile rappresentarel'endomorfismo tramite una matrice che assomiglia il più possibile ad una matrice diagonale, come nel secondoesempio mostrato. Questa rappresentazione, detta forma canonica di Jordan, caratterizza completamente gliendomorfismi. Esiste una analoga rappresentazione nel campo reale, leggermente più complicata.

Page 13: Base (algebra lineare) -

Algebra lineare 11

OrtogonalizzazioneSimilmente ad un endomorfismo, anche un prodotto scalare può essere rappresentato da una matrice quadrata. Anchein questo contesto, la forma più semplice da trattare è quella in cui la matrice risulta essere diagonale, e questoaccade precisamente quando si fissa una base ortogonale.A differenza degli endomorfismi, in questo contesto è sempre possibile trovare una matrice diagonale. In altreparole, per qualsiasi prodotto scalare è possibile trovare basi ortogonali. Se il prodotto scalare è definito positivo, unalgoritmo efficiente a questo scopo è l'ortogonalizzazione di Gram-Schmidt. Per prodotti scalari più generali si puòusare l'algoritmo di Lagrange.

Teoremi

Teorema della dimensioneIl teorema della dimensione (o del rango) è un teorema che mette in relazione le dimensioni del nucleo edell'immagine di una applicazione lineare , secondo la formula:

Qui Im e Ker denotano immagine e nucleo, mentre è la dimensione del dominio di . Questo risultato è anchechiamato teorema del rango, perché tradotto nel linguaggio delle matrici assume la forma seguente:

Qui rk e null indicano rispettivamente il rango e l'indice di nullità di una matrice del tipo .

Teorema di Rouché-CapelliIl teorema di Rouché-Capelli dà alcune informazioni sull'insieme delle soluzioni di un generico sistema lineare:

Il teorema afferma due cose:

• il sistema ha soluzione se e solo se le matrici e hanno lo stesso rango ;• se ci sono soluzioni, queste formano un sottospazio affine di dimensione , dove è il numero di

incognite (cioè il numero di colonne di ).In particolare, il numero di soluzioni può essere solo zero, uno o infinito (se le equazioni sono a coefficienti reali ocomplessi).Il teorema è generalmente usato per determinare rapidamente se un sistema ammette una o più soluzioni: non puòperò essere usato per determinarle esplicitamente. Uno strumento per questo scopo è il metodo di eliminazione diGauss.

Relazione di GrassmannLa formula di Grassmann mette in relazione le dimensioni di vari sottospazi, definiti a partire da due sottospazi e

entrambi contenuti uno spazio fissato . La formula è la seguente:

Nell'espressione compaiono i sottospazi ottenuti come somma e intersezione di e .

Teorema spettraleIl teorema spettrale fornisce una condizione forte di diagonalizzabilità per alcuni endomorfismi, detti simmetrici o autoaggiunti (a volte il termine operatore è usato come sinonimo di endomorfismo). La nozione di endomorfismo simmetrico (o operatore autoaggiunto) dipende dalla presenza di un fissato prodotto scalare definito positivo (o

Page 14: Base (algebra lineare) -

Algebra lineare 12

hermitiano se si usano spazi vettoriali complessi). Il teorema spettrale asserisce che un tale endomorfismo ha unabase ortonormale formata da autovettori.

Generalizzazione e argomenti correlatiI metodi dell'algebra lineare sono stati estesi ad altre branche della matematica, grazie al loro successo. Nella teoriadei moduli si sostituisce il campo degli scalari con un anello. L'algebra multilineare si occupa dei problemi chemappano linearmente 'molte variabili' in un numero differente di variabili, portando inevitabilmente al concetto ditensore. Nella teoria spettrale degli operatori si riescono a gestire matrici di dimensione infinita applicando l'analisimatematica in una teoria non puramente algebrica. In tutti questi casi le difficoltà tecniche sono maggiori. Inoltre,l'algebra lineare viene a essere fondamentale per ambiti riguardanti l'ottimizzazione, in particolare la RicercaOperativa.

Note[1] Più precisamente, questo accade per uno spazio vettoriale reale dotato di un prodotto scalare definito positivo.[2] Lo spazio delle soluzioni di un sistema è uno spazio affine, ed il teorema di Rouché-Capelli fornisce un metodo per calcolarne la dimensione.

Il numero di soluzioni può essere solo 0, 1 o infinito.

Bibliografia• (EN) Serge Lang (2002): Algebra. Revised 3rd edition, Springer, ISBN 0-387-95385-X• (EN) Steven Roman (1992): Advanced linear algebra, Springer, ISBN 0-387-97837-2• (EN) de Boor, Carl, Applied Linear Algebra (http:/ / digital. library. wisc. edu/ 1793/ 11635), (University of

Wisconsin-Madison, 2002).• (EN) Rife, Susan A, Matrix Algebra. (http:/ / handle. dtic. mil/ 100. 2/ ADA316035) (Naval Postgraduate School,

Monterey, California, 1996)• (EN) Delatorre, Anthony R. e Cooke, William K., Matrix Algebra. (http:/ / handle. dtic. mil/ 100. 2/ ADA350689)

(Naval Postgraduate School, Monterey, California, 1998)• (EN) Beezer, Rob, A First Course in Linear Algebra (http:/ / linear. ups. edu/ index. html), licenza GFDL.• (EN) J. H. M. Wedderburn Lectures on Matrices (http:/ / www. ams. org/ online_bks/ coll17/ ) (American

Mathematical Society, Providence, 1934) ISBN 0-8218-3204-2• (EN) Fearnley-Sander, Desmond, Hermann Grassmann and the Creation of Linear Algebra (http:/ / www. maths.

utas. edu. au/ People/ dfs/ Papers/ GrassmannLinAlgpaper/ GrassmannLinAlgpaper. html), AmericanMathematical Monthly 86 (1979), pp. 809 – 817.

• (EN) Grassmann, Hermann, Die lineale Ausdehnungslehre ein neuer Zweig der Mathematik: dargestellt unddurch Anwendungen auf die übrigen Zweige der Mathematik, wie auch auf die Statik, Mechanik, die Lehre vomMagnetismus und die Krystallonomie erläutert (http:/ / books. google. com/ books?id=bKgAAAAAMAAJ), O.Wigand, Leipzig, 1844.

Page 15: Base (algebra lineare) -

Algebra lineare 13

Voci correlate• Spazio vettoriale• Matrice

Altri progetti

• Wikimedia Commons contiene file multimediali: http:/ / commons. wikimedia. org/ wiki/ Category:Linearalgebra

Collegamenti esterni• (EN) Linear Algebra Toolkit (http:/ / www. math. odu. edu/ ~bogacki/ lat/ ).• (EN) Linear Algebra Workbench (http:/ / www. algebra. com/ algebra/ college/ linear/ ): moltiplica e inverte

matrici, risolve sistemi, trova autovalori, ecc.• (EN) Linear Algebra (http:/ / mathworld. wolfram. com/ topics/ LinearAlgebra. html) su MathWorld.

Spazio vettorialeIn matematica, uno spazio vettoriale, anche detto spazio lineare, è una struttura algebrica composta da:• un campo• un insieme i cui elementi sono detti vettori• due operazioni binarie, dette somma e moltiplicazione per scalare, caratterizzate da determinate proprietà.[1]

Si tratta di una struttura algebrica di grande importanza, ed è una generalizzazione dell'insieme formato dai vettoridel piano cartesiano ordinario (o dello spazio tridimensionale) dotati delle operazioni di somma di vettori e dimoltiplicazione di un vettore per un numero reale.Si incontrano spazi vettoriali in numerosi capitoli della matematica moderna e nelle sue applicazioni: questi servonoinnanzitutto per studiare le soluzioni dei sistemi di equazioni lineari e delle equazioni differenziali lineari. Conqueste equazioni si trattano moltissime situazioni: quindi si incontrano spazi vettoriali nella statistica, nella scienzadelle costruzioni, nella meccanica quantistica, nella teoria dei segnali, nella biologia molecolare, ecc. Negli spazivettoriali si studiano anche sistemi di equazioni e disequazioni e in particolare quelli che servono allaprogrammazione matematica e in genere alla ricerca operativa.Strutture algebriche preliminari agli spazi vettoriali sono quelle di gruppo, anello e campo. Vi sono poi numerosestrutture matematiche che generalizzano e arricchiscono quella di spazio vettoriale; alcune sono ricordate nell'ultimaparte di questo articolo.

Page 16: Base (algebra lineare) -

Spazio vettoriale 14

Uno spazio vettoriale è una collezione di oggetti,chiamati "vettori", che possono essere sommati e

riscalati.

Definizione formale

La definizione di uno spazio vettoriale richiede di servirsi di un campo:sono interessanti soprattutto il campo dei numeri reali R e quello deicomplessi C. Molti risultati dell'algebra lineare però si possonosviluppare servendosi del semplice campo dei numeri razionali Q e dinotevole interesse sono anche i campi finiti, ed in particolare i campidelle classi di resto modulo p Fp, per ogni p numero primo.

Sia K un generico campo, e si denotino rispettivamente con 0 e 1 il suozero e la sua unità. Si dice che l'insieme V è sostegno di uno spaziovettoriale sul campo K se in V è definita un'operazione binaria interna(+) per la quale (V,+) è un gruppo commutativo (ossia un gruppoabeliano) ed è altresì definita una legge di composizione esterna (*)K×V→V - detta prodotto esterno o moltiplicazione per uno scalare -per la quale valgono le seguenti proprietà:[2][3]

1. Associatività del prodotto esterno∀ a,b ∈ K, ∀ v ∈ V: a * (b * v) = (ab) * v.

2. Neutralità di 1 rispetto al prodotto esterno∀ v ∈ V, 1 * v = v.

3. Distributività del prodotto esterno rispetto all'addizione di vettori∀ a ∈ K, ∀ u, v ∈ V, a * (u + v) = a * u + a * v.

4. Distributività del prodotto esterno rispetto all'addizione di scalari∀ a,b ∈ K, ∀ v ∈ V, (a + b) * v = a * v + b * v.

La struttura algebrica così definita si simboleggia con (V, K) o semplicemente con V laddove non ci siano equivocisul campo di definizione. Per uno spazio V sopra un campo K gli elementi di K sono detti scalari o numeri, mentregli oggetti di V si dicono vettori o punti. I vettori si simboleggiano con caratteri in grassetto, sottolineati o sormontatida una freccia. Tale linguaggio consente di sostituire la dicitura prodotto esterno con prodotto per uno scalare.Poiché la moltiplicazione per uno scalare è una legge di composizione esterna K×V→V si dice che V ha struttura dispazio vettoriale sinistro. Nulla vieta di definire la composizione con uno scalare a destra; in tal caso si parlerà dispazio vettoriale destro.Da queste proprietà, possono essere immediatamente dimostrate le seguenti formule, valide per ogni a in K e ogni vin V:

a * 0 = 0 * v = 0-(a * v) = (-a) * v = a * (-v)

dove 0 è lo zero in K e 0 è lo zero in V.Uno spazio vettoriale reale o complesso è uno spazio vettoriale in cui K è rispettivamente il campo R dei numerireali o il campo C dei numeri complessi.

Page 17: Base (algebra lineare) -

Spazio vettoriale 15

Primi esempiDi seguito si elencano alcuni importanti esempi di spazi vettoriali; si denotano con m ed n due interi positivi.

Spazi Kn

L'insieme

formato da tutte le sequenze finite e ordinate di elementi di K, con le operazioni di somma e di prodotto per unoscalare definite termine a termine (puntuali), è detto l'n-spazio numerico, spazio delle n-uple o spazion-dimensionale delle coordinate e può essere considerato il prototipo di spazio vettoriale.Si osserva che gli spazi Rn e Cn posseggono una infinità continua di elementi, mentre Qn ha cardinalità numerabile eper ogni p primo lo spazio Fp

n è costituito da un numero finito di vettori, per la precisione pn.

PolinomiL'insieme K [x] dei polinomi a coefficienti in K e con variabile x, con le operazioni usuali di somma fra polinomi eprodotto di un polinomio per uno scalare, forma uno spazio vettoriale.

MatriciL'insieme delle matrici m×n su K, con le operazioni di somma tra matrici e prodotto di uno scalare per una matrice,forma uno spazio vettoriale.

FunzioniL'insieme Fun(X, K) di tutte le funzioni da un fissato insieme X in K, dove:• la somma di due funzioni f e g è definita come la funzione (f + g) che manda x in f(x)+g(x),• il prodotto (λf) di una funzione f per uno scalare λ in K è la funzione che manda x in λf(x) è uno spazio vettoriale.Ad esempio, l'insieme Fun(X, R) di tutte le funzioni da un aperto X dello spazio euclideo Rn in R è uno spaziovettoriale.

Page 18: Base (algebra lineare) -

Spazio vettoriale 16

Nozioni basilariLo studio della specie di struttura di spazio vettoriale si svolge sviluppando le nozioni di sottospazio vettoriale, ditrasformazione lineare (l'omomorfismo per questa specie di struttura), di base e di dimensione.

Sottospazi

Tre sottospazi distinti di dimensione 2 in : sono piani passanti per l'origine.Due di questi si intersecano in un sottospazio di dimensione 1, cioè una retta

passante per l'origine (una di queste è disegnata in blu).

Un sottospazio vettoriale di uno spaziovettoriale è un sottoinsieme cheeredita da una struttura di spaziovettoriale. Per ereditare questa struttura, èsufficiente che sia chiuso rispetto alledue operazioni di somma e prodotto perscalare. In particolare, deve contenere lozero di .

Esempi

Una retta passante per l'origine è unsottospazio vettoriale del piano cartesianoR2; nello spazio vettoriale R3 tutti i piani etutte le rette passanti per l'origine sonosottospazi.

Gli spazi formati dalle matrici simmetricheo antisimmetriche sono sottospazi vettorialidell'insieme delle matrici m×n su K.

Altri importanti sottospazi vettoriali sono quelli di Fun(X, R), quando X è un insieme aperto di Rn: gli insiemiformati dalle funzioni continue, dalle funzioni differenziabili e dalle funzioni misurabili.

Generatori e basiUna combinazione lineare di alcuni vettori è una scrittura del tipo

Una combinazione lineare è l'operazione più generale che si può realizzare con questi vettori usando le dueoperazioni di somma e prodotto per scalare. Usando le combinazioni lineari è possibile descrivere un sottospazio(che è generalmente fatto da un insieme infinito di punti[4]) con un numero finito di dati. Si definisce infatti ilsottospazio generato da questi vettori come l'insieme di tutte le loro combinazioni lineari.Un sottospazio può essere generato a partire da diversi insiemi di vettori. Tra i possibili insiemi di generatori alcunirisultano più economici di altri: sono gli insiemi di vettori con la proprietà di essere linearmente indipendenti. Untale insieme di vettori è detto base del sottospazio.Si dimostra che ogni spazio vettoriale possiede una base; alcuni spazi hanno basi costituite da un numero finito divettori, altri hanno basi costituenti insiemi infiniti. Per questi ultimi la dimostrazione dell'esistenza di una base devericorrere al Lemma di Zorn.Alla nozione di base di uno spazio vettoriale si collega quella di sistema di riferimento di uno spazio affine.

Page 19: Base (algebra lineare) -

Spazio vettoriale 17

DimensioneSi dimostra che tutte le basi di uno spazio vettoriale posseggono la stessa cardinalità (questo risultato è dovuto aFelix Hausdorff). Questa cardinalità viene chiamata dimensione di Hamel dello spazio; questa entità in genere vienechiamata semplicemente dimensione dello spazio. La distinzione più rilevante fra gli spazi vettoriali vede da unaparte gli spazi finito-dimensionali e dall'altra quelli di dimensione infinita.Per ogni intero naturale n lo spazio Kn ha dimensione n: in effetti una sua base è costituita dalle n n-uple aventi tuttele componenti nulle ad eccezione di una uguale alla unità del campo. In particolare l'insieme costituito dal solo 0 delcampo può considerarsi uno spazio a 0 dimensioni, la retta dotata di un'origine è uno spazio monodimensionale su R,il piano cartesiano è uno spazio di dimensione 2, lo spazio R3 ha dimensione 3.Anche i polinomi con grado al più n formano un sottospazio vettoriale di dimensione n+1, mentre la dimensionedell'insieme delle funzioni Fun(X, K) è pari alla cardinalità di X.Tra gli spazi infinito dimensionali si trovano quelli formati dall'insieme dei polinomi in una variabile o in piùvariabili e quelli formati da varie collezioni di funzioni ad esempio gli spazi Lp.I vettori di uno spazio di n dimensioni, facendo riferimento ad una base fissata di tale spazio, possono essererappresentati come n-uple di scalari: queste sono le loro coordinate. Questo fatto consente di affermare che ognispazio n-dimensionale su K è sostanzialmente identificabile con Kn.

Trasformazioni lineari e omomorfismiUna trasformazione lineare fra due spazi vettoriali V e W sullo stesso campo K è una applicazione che manda vettoridi V in vettori di W rispettando le combinazioni lineari. Dato che le trasformazioni lineari rispettano le operazioni disomma di vettori e di moltiplicazioni per scalari, esse costituiscono gli omomorfismi per le strutture della speciedegli spazi vettoriali. Per denotare l'insieme degli omomorfismi da V in W scriviamo Hom(V, W). Particolarmenteimportanti sono gli insiemi di endomorfismi; questi hanno la forma Hom(V, V).Si osserva che per le applicazioni lineari di Hom(V, W) si possono definire le somme e le moltiplicazioni perelementi di K, come per tutte le funzioni aventi valori in uno spazio su questo campo. L'insieme Hom(V, W) munitodi queste operazioni costituisce a sua volta uno spazio vettoriale su K, di dimensione dim(V)×dim(W). Un casoparticolare molto importante è dato dallo spazio duale V * := Hom(V, K); questo spazio ha le stesse dimensioni di V ein effetti i suoi vettori sono strettamente collegati ai vettori di V.

Esempi più avanzati

Spazio vettoriale liberoUn esempio particolare spesso usato in algebra (e una costruzione piuttosto comune in questo campo) è quello dispazio vettoriale libero su un insieme. L'obiettivo è creare uno spazio che abbia gli elementi dell'insieme come base.Ricordando che, dato un generico spazio vettoriale, si dice che un suo sottoinsieme U è una base se gli elementi di Usono linearmente indipendenti e ogni vettore si può scrivere come combinazione lineare finita di elementi di U, laseguente definizione nasce naturalmente: uno spazio vettoriale libero V su B e campo K è l'insieme di tutte lecombinazioni lineari formali di un numero finito di elementi di B a coefficienti in K, cioè i vettori di V sono del tipo

dove i coefficienti non nulli sono in numero finito, e somma e prodotto sono definite come segue

Page 20: Base (algebra lineare) -

Spazio vettoriale 18

Da tener ben presente che queste somme sono dette formali perché sono da considerarsi appunto dei puri simboli. Inpratica gli elementi di B servono solo come "segnaposto" per i coefficienti. Oltre a questa definizione più intuitiva neesiste una del tutto equivalente in termine di funzioni da B su K con supporto finito (supp f := { b ∈ B | f(b) ≠ 0 }),cioè V ≅ { f: B → K | supp f è finito } dove per il secondo insieme le operazioni di somma e prodotto sono quellenaturali e la corrispondenza è

Specializzazioni del concetto di spazio vettorialeLa nozione di spazio vettoriale è servita innanzi tutto a puntualizzare proprietà algebriche riguardanti ambienti edentità geometriche; inoltre essa costituisce la base algebrica per lo studio di questioni di analisi funzionale, chepossiamo associare ad una geometrizzazione dello studio di funzioni collegate ad equazioni lineari. La sola strutturadi spazio vettoriale risulta comunque povera quando si vogliono affrontare in modo più efficace problemi geometricie dell'analisi funzionale. Infatti va osservato che con la sola struttura di spazio vettoriale non si possono affrontarequestioni riguardanti lunghezze di segmenti, distanze ed angoli (anche se la visione intuitiva degli spazi vettoriali a 2o 3 dimensioni sembra implicare necessariamente queste nozioni di geometria elementare). Per sviluppare le"potenzialità" della struttura spazio vettoriale risulta necessario arricchirla in molteplici direzioni, sia con ulterioristrumenti algebrici (ad es. proponendo prodotti di vettori), sia con nozioni topologiche, sia con nozioni differenziali.In effetti si può prospettare una sistematica attività di arricchimento degli spazi vettoriali con costruzioni che siaggiungono a quella di combinazione lineare al fine di ottenere strutture di elevata efficacia nei confronti di tantiproblemi matematici, computazionali e applicativi. Per essere utili, queste costruzioni devono essere in qualchemodo compatibili con la struttura dello spazio vettoriale, e le condizioni di compatibilità variano caso per caso.

Spazio normatoUno spazio vettoriale in cui è definita una norma, cioè una lunghezza dei suoi vettori, è chiamato spazio normato.L'importanza degli spazi vettoriali normati dipende dal fatto che a partire dalla norma dei singoli vettori si definiscela distanza fra due vettori come norma della loro differenza e questa nozione consente di definire costruzionimetriche e quindi costruzioni topologiche.

Spazio di BanachUno spazio normato completo rispetto alla metrica indotta è detto spazio di Banach.

Spazio di HilbertUno spazio vettoriale complesso (risp. reale) in cui è definito un prodotto scalare hermitiano (risp. bilineare) definitopositivo, e quindi anche i concetti di angolo e perpendicolarità di vettori, è chiamato spazio prehilbertiano. Unospazio dotato di prodotto scalare è anche normato, mentre in generale non vale il viceversa.Uno spazio dotato di prodotto scalare che sia completo rispetto alla metrica indotta è detto spazio di Hilbert.

Spazio vettoriale topologicoUno spazio vettoriale munito anche di una topologia è chiamato spazio vettoriale topologico.

Page 21: Base (algebra lineare) -

Spazio vettoriale 19

Algebra su campoUno spazio vettoriale arricchito con un operatore bilineare che definisce una moltiplicazione tra vettori costituisceuna cosiddetta algebra su campo. Ad esempio, le matrici quadrate di ordine n munite del prodotto di matrici formanoun'algebra. Un'altra algebra su un campo qualsiasi è fornita dai polinomi su tale campo muniti dell'usuale prodottofra polinomi.

Generalizzazioni del concetto di spazio vettorialeUna generalizzazione del concetto di spazio vettoriale è invece quella di modulo; essa si basa su richieste analoghe aquelle viste, ma per K non si chiede che sia un campo, ma un più generico anello.

Note[1] Hoffman, Kunze, op. cit., Pag. 28[2] S. Lang, op. cit., Pag. 37[3] Hoffman, Kunze, op. cit., Pag. 29[4] Questo è sempre vero se il campo è infinito, come ad esempio Q, R e C, tranne nel caso in cui il sottospazio sia semplicemente un punto (lo

zero).

Bibliografia• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2• Kenneth Hoffman; Ray Kunze, Linear Algebra, Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971. ISBN

01-353-6821-9• Marco Abate; Chiara de Fabritiis, Geometria analitica con elementi di algebra lineare, Milano, McGraw-Hill,

2006. ISBN 88-386-6289-4.• Luciano Lomonaco, Un'introduzione all'algebra lineare, Roma, Aracne, 2005. ISBN 88-548-0144-5.• Giulio Campanella, Appunti di algebra, Roma, Nuova Cultura, 2005. ISBN 88-89362-22-7.• Werner Greub, Linear Algebra, 4a ed., New York, Springer, 1995. ISBN 0-387-90110-8.• Steven Roman, Advanced linear algebra, Springer, 1992. ISBN 0-387-97837-2.• Edoardo Sernesi, Geometria 1, 2a ed., Torino, Bollati Boringhieri, 1989. ISBN 88-339-5447-1.• Serge Lang, Linear Algebra, 3a ed., New York, Springer, 1987. ISBN 0-387-96412-6.• Georgi Evgen'evich Shilov, Linear Algebra, Tradotto da Richard Silverman, New York, Dover, 1977. ISBN

0-486-63518-X.• Paul Halmos, Finite-Dimensional Vector Spaces, 2a ed., New York, Springer, 1974. ISBN 0-387-90093-4.• Silvana Abeasis, Elementi di algebra lineare e geometria, Bologna, Zanichelli, 1993. ISBN 88-08-16538-8.

Voci correlate• Vettore (matematica)• Applicazione lineare• Dimensione• Sottospazio vettoriale• Spazio duale• Prodotto scalare• Norma

Page 22: Base (algebra lineare) -

Trasformazione lineare 20

Trasformazione lineareIn matematica, più precisamente in algebra lineare, una trasformazione lineare, detta anche applicazione lineare omappa lineare, è una funzione tra due spazi vettoriali che preserva la forma delle operazioni di somma di vettori edi moltiplicazione per scalare. In altre parole, preserva le combinazioni lineari, cioè le composizioni checaratterizzano la specie di struttura spazio vettoriale; quindi nel linguaggio dell'algebra astratta, una trasformazionelineare è un omomorfismo di spazi vettoriali, in quanto conserva la forma di ogni istanza dell'operazione checaratterizza gli spazi vettoriali.

DefinizioneSiano e due spazi vettoriali sullo stesso campo . Una funzione è una trasformazionelineare se soddisfa le seguenti proprietà:[1][2]

••per ogni coppia di vettori e in e per ogni scalare in . La prima proprietà è detta additività, la secondaomogeneità di grado 1.

Equivalentemente, è lineare se "preserva le combinazioni lineari", ovvero se:

per ogni intero positivo m e ogni scelta dei vettori e degli scalari .

Se è una applicazione lineare e e sono i vettori nulli di e rispettivamente, allora:[3]

e togliendo da ambo i membri si ottiene

Sostituendo allo zero una combinazione lineare di vettori linearmente dipendenti si dimostra che un'applicazionelineare non banale manda sottoinsiemi del dominio linearmente indipendenti in sottoinsiemi del codominiolinearmente indipendenti.[4]

Un'applicazione lineare è descritta completamente attraverso la sua azione sui vettori di una base qualsiasi deldominio.[5] Poiché la scrittura di un vettore in una data base è unica, la linearità dell'applicazione determina l'unicitàdel vettore immagine.Un'applicazione lineare biunivoca (o invertibile) è inoltre un isomorfismo tra spazi vettoriali.[6]

Esistenza ed unicità dell'applicazione lineareSiano e due spazi vettoriali di dimensione finita. Sia una base di e siano

vettori di . Allora esiste un'unica applicazione lineare da in tale che:[7]

Nel caso non si conosca la forma esplicita dell'applicazione è comunque possibile stabilirne l'esistenza e l'unicitàattraverso la conoscenza dell'azione dell'applicazione su un insieme di vettori dati , dei quali si conoscequindi l'immagine. Se l'insieme di vettori è una base del dominio allora l'applicazione è univocamente determinata,mentre se i vettori dati non costituiscono una base vi sono due casi:• I vettori di cui si conosce l'immagine sono linearmente indipendenti: in tal caso l'applicazione esiste ma non è

unica.• I vettori di cui si conosce l'immagine non sono linearmente indipendenti: in tal caso uno o più vettori sono

combinazione lineare dei restanti. Si ha:

Page 23: Base (algebra lineare) -

Trasformazione lineare 21

L'applicazione esiste (ma non è unica) se e solo se:

Matrice associataSiano e due spazi vettoriali di dimensione finita. Scelte due basi e per e , ognitrasformazione lineare da a è rappresentabile come una matrice. Si ponga:

Ogni vettore in è univocamente determinato dalle sue coordinate , definite in modo che:

Se è una trasformazione lineare si ha:

Quindi la funzione è determinata dai vettori . Ciascuno di questi è scrivibile come:

La funzione è dunque interamente determinata dai valori di , che formano la matrice associata a nelle basie .[8]

La matrice associata è di tipo , e può essere usata agevolmente per calcolare l'immagine di ognivettore di grazie alla relazione seguente:

dove e sono le coordinate di e nelle rispettive basi.Notiamo che la scelta delle basi è essenziale: la stessa matrice, usata su basi diverse, può rappresentare applicazionilineari diverse.

Struttura di spazio vettorialeL'insieme delle applicazioni lineari da in è un sottospazio vettoriale dello spazio vettorialeformato da tutte le funzioni da in , infatti:[9]

• La composizione di trasformazioni lineari è anch'essa una trasformazione lineare. Se esono applicazioni lineari, allora lo è anche

• Se e sono lineari, allora lo è la loro somma , definita dalla relazione:

• Se è lineare e è un elemento del campo , allora la mappa , definita da, è anch'essa lineare.

Nel caso finito-dimensionale, dopo aver fissato delle basi, le operazioni di composizione, somma e prodotto perscalare di mappe lineari corrispondono rispettivamente a moltiplicazione di matrici, somma di matrici emoltiplicazione di matrici per scalare.

Le basi definiscono quindi un isomorfismo tra gli spazi vettoriali delle applicazionilineari e delle matrici , dove e sono le dimensioni rispettivamente di e .

Page 24: Base (algebra lineare) -

Trasformazione lineare 22

Nucleo e immagineSe è lineare, si definisce nucleo di l'insieme:[10]

si definisce immagine di l'insieme:[11]

L'insieme ker( ) è un sottospazio di , mentre Im( ) è un sottospazio di . Se e hanno dimensionefinita, il teorema della dimensione asserisce che:[12]

Tale teorema fornisce un criterio necessario e sufficiente al fine di stabilre l'esistenza di una trasformazione lineare.

Endomorfismi e automorfismiUna trasformazione lineare è un endomorfismo di . L'insieme di tutti gli endomorfismi Endo( )insieme a addizione, composizione e moltiplicazione per uno scalare come descritti sopra formano un'algebraassociativa con unità sul campo : in particolare formano un anello e un spazio vettoriale su . L'elementoidentità di questa algebra è la trasformazione identità di .Un endomorfismo biiettivo di viene chiamato automorfismo di ; la composizione di due automorfismi è dinuovo un automorfismo, e l'insieme di tutti gli automorfismi di forma un gruppo, il gruppo generale lineare di , chiamato Aut( ) o GL( ).Se la dimensione di è finita basterà che f sia iniettiva per poter affermare che sia anche suriettiva (per il teoremadella dimensione). Inoltre l'isomorfismo

fra gli endomorfismi e le matrici quadrate descritto sopra è un isomorfismo di algebre. Il gruppo degliautomorfismi di è isomorfo al gruppo lineare generale GL( , ) di tutte le matrici invertibili a valoriin .

Pull-Back di funzioni ed applicazione traspostaSiano A,B,C degli insiemi ed F ( A, C ), F ( B, C ) le famiglie di funzioni da A in C e da B in C rispettivamente. Ogniφ: A → B determina univocamente una corrispondenza φ*: F ( B, C ) → F ( A, C ), chiamata pull-back tramite φ,che manda f in f φ.Se nello specifico prendiamo A = V, B = W due spazi vettoriali su campo k = C, e anziché prendere gli interi F ( V, k), F ( W, k ) ci restringiamo agli spazi duali V* e W*, abbiamo che ad ogni trasformazione lineare φ : V → Wpossiamo associare l'opportuna restrizione del pull-back tramite φ, φ*: W* → V*, che prende il nome di trasposta diφ.Segue direttamente da come sono definite le operazioni in V* e W* che φ* è a sua volta lineare. Con un semplicecalcolo si vede che fissate delle basi per V e W, e le rispettive duali in V*, W*, la matrice che rappresenta φ* è latrasposta di quella di φ (o, se rappresentiamo i funzionali come matrici riga e quindi viene tutto trasposto, le duematrici sono uguali).Segue dalla definizione che un funzionale w* ∈ W* viene mandato a 0 se e solo se l'immagine di φ è contenuta nelnucleo di w* cioè, indicando con U⊥ il sottospazio dei funzionali che annullano U ⊂ W, si ha ker φ* = (im φ)⊥.

Page 25: Base (algebra lineare) -

Trasformazione lineare 23

Esempi• La moltiplicazione per una costante fissata in

è una trasformazione lineare su qualsiasi spazio vettoriale su .• Una rotazione del piano euclideo rispetto all'origine di un angolo fissato.• Una riflessione del piano euclideo rispetto ad una retta passante per l'origine.• La proiezione di uno spazio vettoriale V decomposto in somma diretta

su uno dei due sottospazi U o W.• Una matrice di tipo con valori reali definisce una trasformazione lineare

dove è il prodotto di e . Ogni trasformazione lineare tra spazi vettoriali di dimensione finita èessenzialmente di questo tipo: si veda la sezione seguente.

• L'integrale di una funzione reale su un intervallo definisce una mappa lineare dallo spazio vettoriale delle funzionicontinue definite sull'intervallo nello spazio vettoriale R.

• La derivata definisce una mappa lineare dallo spazio vettoriale di tutte le funzioni derivabili in qualche intervalloaperto di R nello spazio di tutte le funzioni.

• Lo spazio C dei numeri complessi ha una struttura di spazio vettoriale complesso di dimensione 1, e anche dispazio vettoriale reale di dimensione 2. La coniugazione

è una mappa R-lineare ma non C-lineare: infatti la proprietà di omogeneità vale solo per scalari reali.

Note[1] S. Lang, op. cit., Pag. 82[2] Hoffman, Kunze, op. cit., Pag. 67[3] Hoffman, Kunze, op. cit., Pag. 68[4] Hoffman, Kunze, op. cit., Pag. 80[5] S. Lang, op. cit., Pag. 86[6] S. Lang, op. cit., Pag. 96[7] Hoffman, Kunze, op. cit., Pag. 69[8] S. Lang, op. cit., Pag. 84[9] S. Lang, op. cit., Pag. 85[10] S. Lang, op. cit., Pag. 90[11] S. Lang, op. cit., Pag. 91[12] S. Lang, op. cit., Pag. 92

Page 26: Base (algebra lineare) -

Trasformazione lineare 24

Bibliografia• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2• Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971.

ISBN 01-353-6821-9

Voci correlate• Matrice di trasformazione• Autovettore e autovalore• Trasformazione affine• Funzionale lineare• Operatore lineare continuo• (EN) wikibooks:Linear Algebra/Linear Transformations

Collegamenti esterni• (EN) http:/ / www. falstad. com/ matrix/

Base (algebra lineare)In matematica, e più precisamente in algebra lineare, la base di uno spazio vettoriale è un insieme di vettorilinearmente indipendenti che generano lo spazio.[1] In modo equivalente, ogni elemento dello spazio vettoriale puòessere scritto in modo unico come combinazione lineare dei vettori appartenenti alla base.[2]

Se la base di uno spazio vettoriale è composta da un numero finito di elementi allora la dimensione dello spazio èfinita.[3] In particolare, il numero di elementi della base è la dimensione dello spazio.[4]

DefinizioneSia V uno spazio vettoriale su un campo K. L'insieme v1, v2, ..., vn di elementi di V è una base di V se valgonoentrambe le seguenti proprietà:[2]

• I vettori v1, ..., vn

sono linearmente indipendenti in K, ovvero la relazione:

è verificata solo se i numeri a1, a2, .., an sono tutti uguali a zero.• I vettori v1, ..., v

n generano V, ovvero:

In particolare, per ogni vettore v di V i numeri a1, a2, .., an sono le sue coordinate rispetto alla base scelta.

Si dice anche che i vettori appartenenti ad una qualsiasi base di V costituiscono un sottoinsieme massimale divettori linearmente indipendenti dello spazio.[5] Questo significa che i vettori sono tali che esistono a1, a2, ..,an tali che:

ovvero l'aggiunta al sottoinsieme massimale di un qualsiasi altro elemento dello spazio determina la dipendenzalineare degli elementi del sottoinsieme.[6]

Page 27: Base (algebra lineare) -

Base (algebra lineare) 25

Una base è dunque composta dal minimo numero di vettori linearmente indipendenti che genera lo spazio. Uninsieme di infiniti elementi possiede infinite possibili basi diverse.

Dimensione di uno spazio vettorialeUno spazio vettoriale in generale non ha una sola base, e solitamente si trattano spazi con infinite basi possibili. Ilteorema della dimensione per spazi vettoriali afferma che tutte le possibili basi di uno stesso spazio hanno la stessacardinalità, sono formate cioè sempre dallo stesso numero di vettori.[7] Questo numero è la dimensione dello spazio,e permette di definire spazi di dimensione arbitrariamente alta. La dimensione dello spazio è inoltre pari sia almassimo numero di vettori indipendenti che esso contiene, sia al minimo numero di vettori necessari per generare lospazio stesso.

EsistenzaQualsiasi sia lo spazio vettoriale V, è sempre possibile trovarne una base. La dimostrazione richiede l'uso del lemmadi Zorn nel caso generale, mentre nel caso particolare degli spazi finitamente generati esistono dimostrazioni piùsemplici.Si consideri la collezione I(V) dei sottoinsiemi di V linearmente indipendenti. È immediato dedurre che l'inclusione ⊂è un ordine parziale su I(V), e che per ogni catena {Bi} l'insieme ∪ Bi ne è un maggiorante (è linearmenteindipendente in quanto unione di elementi di una catena ordinata per inclusione). Applicando il lemma di Zorn,esiste un insieme massimale linearmente indipendente B in I(V). Dunque B è una base, infatti se v ∈ V e v ∉ B, alloraper la massimalità di B l'insieme B ∪ {v} deve essere linearmente dipendente, cioè esistono degli scalari a, a1, ..., annon tutti nulli tali che

con a ≠ 0, dal momento che se fosse nulla allora anche gli altri ai dovrebbero esserlo, essendo gli elementi di Blinearmente indipendenti. Quindi v può essere scritto come combinazione lineare finita di elementi di B, che oltre aessere linearmente indipendenti generano V. Dunque B è una base.

Coordinate rispetto ad una basePer esprimere un vettore in modo unico attraverso una base è necessario definire un ordinamento nell'insieme deivettori che costituiscono la base. Una base ordinata è una successione di vettori linearmente indipendenti chegenerano lo spazio. In particolare, se la successione v1, v2, ..., vn di elementi è una base ordinata di V, allora l'insiemedi tali vettori è una base di V.[8]

Ogni vettore w di V si può scrivere in modo unico come combinazione lineare dei vettori di base:

Si definisce l'insieme delle coordinate di w rispetto alla base data il vettore:[8]

Si tratta del vettore che ha come componenti i coefficienti della combinazione lineare di vettori di base attraverso iquali si può scrivere w. Tale vettore dipende dalla base scelta.La mappa f: V → Kn che associa ad ogni vettore v le sue coordinate f(v) è un isomorfismo di spazi vettoriali, cioè èuna applicazione lineare biettiva.[9]

Page 28: Base (algebra lineare) -

Base (algebra lineare) 26

La base canonicaSia K un campo. L'insieme Kn è uno spazio vettoriale di dimensione n. Si definisce base canonica di Kn l'insieme divettori:[1]

Ogni vettore w di Kn si può allora scrivere come combinazione lineare dei vettori di base:

Il vettore:

è il vettore delle coordinate di w rispetto alla base canonica.[10] Solitamente si identifica un vettore attraverso le suecoordinate rispetto alla base canonica, ovvero w = a.

Ad esempio, i vettori ed sono una base di R2, infatti ogni vettore si scrivecome:

Generalizzazioni in dimensione infinitaIl concetto di base in spazi di dimensione infinita (in cui cioè esista un insieme infinito di vettori linearmenteindipendenti) è più problematico. Per tali spazi esistono due nozioni differenti di base: la prima, detta base di Hamel,è definita algebricamente, mentre la seconda, detta base di Schauder, necessita della presenza di una topologia.

Base di Hamel

Una base di Hamel per uno spazio vettoriale è un insieme di vettori linearmente indipendenti[11],parametrizzato da un insieme ordinato di indici, tale che ogni vettore di è combinazione lineare di uninsieme finito di questi.Nel caso in cui è un insieme finito, la definizione coincide con quella data precedentemente.Grazie al lemma di Zorn ogni spazio vettoriale ha una base di Hamel, ed inoltre due basi di Hamel qualsiasi di unostesso spazio vettoriale hanno la stessa cardinalità, che è pari alla dimensione (di Hamel) dello spazio vettoriale.Infine, continua a rimanere vero il fatto che ogni vettore dello spazio si scrive in modo unico come combinazionelineare dei vettori di una base di Hamel.

Ad esempio, una base di Hamel per lo spazio vettoriale formato da tutti i polinomi a coefficienti in uncampo è data dall'insieme di tutti i monomi:

Infatti ogni polinomio è combinazione lineare di un insieme finito di questi.L'insieme dei numeri reali può essere considerato uno spazio vettoriale su . Ne consegue che ogni numero realepuò essere espresso come combinazione lineare finita di elementi presi da un sottoinsieme proprio di : talesottoinsieme non potrà essere finito o numerabile poiché ha la potenza del continuo (analoghe considerazionipossono essere fatte considerando come spazio vettoriale su ).

Page 29: Base (algebra lineare) -

Base (algebra lineare) 27

Base di Schauder o topologicaSe lo spazio è dotato di una topologia, è possibile estendere la definizione di base in modo diverso, ammettendosomme infinite di vettori. Il senso di queste somme infinite è infatti dato dalle nozioni di limite di una successione edi serie.Se è uno spazio vettoriale topologico (ad esempio uno spazio di Hilbert o di Banach), un insieme ordinato

di vettori linearmente indipendenti è una base di Schauder (o topologica) se lo spazio da essi generato èdenso in . In altre parole, se ogni vettore di può essere approssimato da somme (finite) di vettori in

, e quindi come limite di una somma infinita di questi:

dove è un sottoinsieme numerabile.

Problema di esistenza della base di Schauder

Si pone il problema dell'esistenza di una base di Schauder in spazi di Hilbert o di Banach. La risposta, in generale, ènegativa: infatti, dalla definizione consegue, in particolare, che uno spazio di Hilbert o di Banach che possiede unabase di Schauder deve necessariamente essere separabile (infatti, dallo spazio generato dai , che è denso in

è sempre possibile estrarre un sottoinsieme denso e numerabile utilizzando le combinazioni lineari a coefficientiin )In uno spazio di Hilbert, è di particolare importanza la nozione di base ortonormale: in uno spazio di Hilbertseparabile, una base ortonormale è una base di Schauder.L'esistenza di una base di Schauder in uno spazio di Banach non è, in genere, assicurata nemmeno aggiungendol'ipotesi (peraltro necessaria) che si tratti di uno spazio separabile: un controesempio è stato fornito nel 1973 da PerEnflo. Un teorema di Stanisław Mazur mostra che in uno ogni spazio di Banach (a dimensione infinita) esiste sempreun sottospazio di dimensione infinita che possiede una base di Schauder.L'esistenza di una base di Schauder consente di estendere alcuni teoremi . .

CardinalitàLe due nozioni di basi sono generalmente molto differenti, e anche le loro cardinalità possono differire, portando adue concetti diversi di dimensione, chiamati rispettivamente dimensione di Hamel e dimensione di Schauder. Ladimensione di Hamel può avere cardinalità superiore a quella di Schauder (pur essendo entrambe infinite).

Ad esempio, sia lo spazio delle funzioni continue reali definite sull'intervallo . Questo è uno spazio diBanach con la norma

Come conseguenza della teoria delle serie di Fourier, una base di Schauder per è costruita a partire dalle funzionitrigonometriche

ed ha cardinalità numerabile. Una base di Hamel ha invece cardinalità non numerabile, ed è molto più difficile dacostruire (e scarsamente utilizzata).

Page 30: Base (algebra lineare) -

Base (algebra lineare) 28

Note[1] Hoffman, Kunze, op. cit., Pag. 41[2] S. Lang, op. cit., Pag. 44[3] Si ha anche che se la base è composta da un numero infinito di elementi allora la dimensione è infinita, tuttavia questa affermazione non

segue direttamente dalla definizione.[4] Hoffman, Kunze, op. cit., Pag. 44[5] S. Lang, op. cit., Pag. 45[6] S. Lang, op. cit., Pag. 47[7] S. Lang, op. cit., Pag. 49[8] Hoffman, Kunze, op. cit., Pag. 50[9] Hoffman, Kunze, op. cit., Pag. 51[10] Hoffman, Kunze, op. cit., Pag. 49

[11] Per definizione è un insieme di vettori indipendenti se ogni suo sottoinsieme finito è formato da vettori indipendenti.

Bibliografia• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2• Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971.

ISBN 01-353-6821-9

Voci correlate• Base ortonormale• Completamento a base• Estrazione di una base• Formula di Grassmann• Matrice di cambiamento di base• Span lineare• Sottospazio vettoriale

Page 31: Base (algebra lineare) -

Teorema del rango 29

Teorema del rangoIn matematica, in particolare in algebra lineare, il teorema del rango, anche detto teorema di nullità più rango oteorema della dimensione, afferma che la somma della dimensione dell'immagine più la dimensione del nucleo diuna trasformazione lineare è pari alla dimensione del dominio. In modo equivalente, la somma del rango e dellanullità di una matrice è pari al numero di colonne della matrice.

EnunciatoIl teorema vale nel contesto delle trasformazioni lineari fra spazi vettoriali, con l'ipotesi che lo spazio vettoriale dipartenza abbia dimensione finita. Data una applicazione lineare fra spazi vettoriali:

il teorema stabilisce che vale la relazione:[1]

dove e sono rispettivamente l'immagine e il nucleo di e è la dimensione di .In modo equivalente, se è una matrice allora:

L'equivalenza degli enunciati deriva dal fatto che ogni applicazione lineare può essere scritta nelseguente modo:[2]

dove A è la matrice di trasformazione associata ad rispetto ad una data base.Il nucleo di f è lo spazio delle soluzioni del sistema di equazioni lineari omogeneo associato alla matrice A, mentrel'immagine è lo spazio generato dalle sue colonne .[3]

DimostrazionePoiché ha dimensione finita, il sottospazio vettoriale ha anch'esso dimensione finita. Il nucleo ha quindiuna base:

Per il teorema della base incompleta esistono tali che:

sia una base di . Per concludere è sufficiente mostrare che i vettori:

formano una base di . L'immagine è generata dai vettori:

I primi vettori sono però nulli, quindi l'immagine è generata dagli ultimi vettori:

Resta quindi da verificare che questi vettori siano linearmente indipendenti. Si suppone quindi data unacombinazione lineare nulla:

Per linearità si ottiene:

Quindi:

Page 32: Base (algebra lineare) -

Teorema del rango 30

Poiché questo vettore sta nel nucleo, è esprimibile come combinazione lineare dei vettori :

In altre parole:

Poiché è una base di , tutti i coefficienti qui presenti sono nulli. In particolare, per ogni. Quindi i vettori sono effettivamente indipendenti. L'immagine ha quindi dimensione

. Pertanto:

Dimostrazione con il teorema di isomorfismoIl teorema del rango può essere visto come corollario al primo teorema di isomorfismo:

,dove è un omomorfismo di gruppi (in particolare, di spazî vettoriali) che agisce su V. Si ha infatti:

,che è l'asserto del teorema.

Caso di dimensione infinitaSupponiamo il caso particolare in cui l'applicazione lineare è un endomorfismo, cioè una applicazione lineare dallospazio V in sé stesso

La relazione appena dimostrata

dice che l'iniettività e la suriettività dell'applicazione si implicano a vicenda.Nel caso infinito questo cessa di essere vero. Ad esempio considerando

come spazio vettoriale su e l'applicazione che agisce "spostando" in avanti le coordinate emettendo lo zero in prima posizione, cioè

è immediato mostrare che tale applicazione è lineare e iniettiva, ma banalmente non suriettiva.

Page 33: Base (algebra lineare) -

Teorema del rango 31

Riformulazioni e generalizzazioniIn linguaggio più moderno, il teorema può essere espresso nel seguente modo: se

è una successione esatta corta di spazi vettoriali, allora

Qui R gioca il ruolo di im T e U è ker T.Nel caso finito-dimensionale questa formulazione è suscettibile di generalizzazione: se

è una successione esatta di spazi vettoriali a dimensioni finite, allora

Il teorema del rango per gli spazi vettoriali a dimensioni finite può anche essere formulato in termini degli indici diuna mappa lineare. L'indice di una mappa lineare T : V → W, dove V e W sono a dimensioni finite, è definito da

indice T = dim(ker T) - dim(coker T).Intuitivamente, dim(ker T) è il numero di soluzioni indipendenti x dell'equazione Tx = 0, e dim(coker T) è il numerodi restrizioni indipendenti che devono essere poste su y per rendere Tx = y risolvibile. Il teorema del rango per glispazi vettoriali a dimensioni finite è equivalente all'espressione

index T = dim(V) - dim(W).Si vede che possiamo facilmente leggere l'indice della mappa lineare T dagli spazi coinvolti, senza la necessità diesaminare T in dettaglio. Questo effetto si trova anche in un risultato molto più profondo: il teorema dell'indice diAtiyah-Singer afferma che l'indice di determinati operatori differenziali può essere letto dalla geometria degli spazicoinvolti.

Note[1] S. Lang, op. cit., Pag. 92[2] S. Lang, op. cit., Pag. 105[3] S. Lang, op. cit., Pag. 176

Bibliografia• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2• Philippe Ellia, Appunti di Geometria I, Bologna, Pitagora Editrice, 1997, ISBN 88-3710958-X

Page 34: Base (algebra lineare) -

Formula di Grassmann 32

Formula di GrassmannIn matematica, la formula di Grassmann è una relazione che riguarda le dimensioni dei sottospazi vettoriali di unospazio vettoriale o dei sottospazi proiettivi di uno spazio proiettivo.La formula di Grassmann, il cui nome è stato scelto in onore del matematico tedesco Hermann Grassmann, affernainoltre che i sottospazi di uno spazio vettoriale muniti delle operazioni binarie + e costituiscono un reticolomodulare.

DefinizioneSia uno spazio vettoriale su un campo dotato di dimensione finita, cioè dotato di una base finita. Siano e

due sottospazi di . Indichiamo con il sottospazio somma di e , dato da:[1]

e con il loro sottospazio intersezione.La formula di Grassman afferma che:[2]

Somma diretta

Due sottospazi e sono in somma diretta se . In questo caso la formula di Grassmannasserisce che:

Se inoltre , si dice che si decompone in somma diretta di e e si scrive:

In questo caso il sottospazio è un supplementare di (e viceversa).

Ad esempio, lo spazio delle matrici quadrate a coefficienti in un campo si decompone neisottospazi delle matrici simmetriche e delle antisimmetriche:

La formula di Grassmann porta alla uguaglianza concernente le dimensioni dei due sottospazi della forma:

Dimostrazione

Struttura della dimostrazioneLa formula si dimostra individuando due basi per e che hanno in comune i vettori che costituiscono una baseper la loro intersezione. Più precisamente, si prende una base per , e si completa ad una base

di , e ad una base

di . I vettori in

generano lo spazio , si verifica che sono indipendenti, e quindi sono una base per . Un conteggiodegli elementi nelle quattro basi trovate fornisce la formula di Grassmann.

Page 35: Base (algebra lineare) -

Formula di Grassmann 33

Verifica dell'indipendenza lineareL'unico fatto che necessita di una dimostrazione approfondita è l'indipendenza dei vettori in

che viene mostrata nel modo seguente: sia

Supponiamo l'esistenza di una combinazione lineare nulla

In altre parole, raggruppando

si ottiene

Da questo segue che , e poiché sia che appartengono a , ne segue che anche appartienea . Quindi appartiene all'intersezione , e si scrive come combinazione lineare di elementi di .D'altra parte, come elemento di , è descritto come combinazione lineare di elementi di : poiché ognielemento ha un'unica descrizione come combinazione lineare di elementi di una base, ne segue che entrambe questecombinazioni hanno tutti i coefficienti nulli. Quindi

Si ottiene quindi . Poiché i vettori

sono una base di , sono quindi indipendenti, e ne segue che anche

Quindi i coefficienti sono tutti nulli: l'insieme

è formato da elementi indipendenti, ed è quindi una base.

Conteggio dimensioniUsando le notazioni appena introdotte, il conteggio delle dimensioni dà proprio

Dimostrazione alternativaSi consideri la funzione:

che si verifica essere un'applicazione lineare. Si ha:

Il nucleo è uno spazio vettoriale isomorfo a , e l'isomorfismo è dato da:

Si ha quindi:

dove si è applicato il teorema del rango più nullità.

Page 36: Base (algebra lineare) -

Formula di Grassmann 34

Dimostrazione con il teorema di isomorfismoLa formula di Grassmann può essere vista come corollario del secondo teorema di isomorfismo:

con U e W visti come gruppi (notazione additiva), e dove con si intende l'ordinario quoziente insiemistico. Infattisi ha:

che è la formula di Grassmann.

EsempiQuesta formula si visualizza facilmente e significativamente nel caso in cui sia lo spazio vettorialetridimensionale sui reali ; le possibilità per i sottospazi portano alla seguente casistica:• Uno dei due sottospazi o ha dimensione 0 o 3: in questo caso (a meno di scambiare i nomi dei due

sottospazi) abbiamo e e la formula si riduce a una identità.• e sono sottospazi di dimensione 1 (cioè rette passanti per l'origine):

• se le rette sono distinte contiene solo il vettore nullo ed ha dimensione 0 e è il pianocontenente le due rette, per cui la formula si riduce a 1 + 1 = 2 + 0.

• se coincidono e ancora si ha una identità.• è una retta per l'origine e un piano per l'origine:

• se la retta non giace nel piano si ha: 1 + 2 = 3 + 0;• se la retta giace nel piano: 1 + 2 = 2 + 1.

• e sono piani per l'origine:• se non coincidono la loro intersezione è una retta e si ha: 2 + 2 = 3 + 1;• se coincidono si ha un'identita` che numericamente afferma: 2 + 2 = 2 + 2.

• per il calcolo della dimensione di H si utilizza la seguente formula: H=9-dimA*(3-dimB)

Note[1] S. Lang, op. cit., Pag. 52[2] Hoffman, Kunze, op. cit., Pag. 46

Bibliografia• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2• Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971.

ISBN 01-353-6821-9

Voci correlate• base• Teorema della dimensione

Page 37: Base (algebra lineare) -

Teorema di Rouché-Capelli 35

Teorema di Rouché-CapelliIl teorema di Rouché-Capelli è un teorema di algebra lineare che permette di calcolare il numero di soluzioni di unsistema di equazioni lineari in funzione del rango di alcune matrici.Prende il nome dal matematico francese Eugène Rouché, suo ideatore, e dal matematico italiano Alfredo Capelli, chelo riscrisse in maniera più semplice.

Il teoremaUn sistema di equazioni lineari:

può essere descritto usando la matrice:

detta matrice associata al sistema. Essa è ottenuta dalla giustapposizione della matrice dei coefficienti e diun'ulteriore colonna , detta colonna dei termini noti. Le matrici e sono dette rispettivamenteincompleta e completa. I coefficienti del sistema lineare (e quindi delle matrici) sono elementi di un campo ,quale ad esempio quello dei numeri reali o complessi .Il teorema di Rouché-Capelli afferma che esistono soluzioni per il sistema se e solo se il rango della matricecompleta è uguale al rango della matrice incompleta:

Se esistono soluzioni, queste formano un sottospazio affine di di dimensione . In particolare, se ilcampo è infinito si ha che se allora la soluzione è unica, altrimenti ci sono infinite soluzioni.[1]

DimostrazioneIl sistema può essere descritto in modo più stringato, introducendo il vettore delle coordinate:

ed usando il prodotto fra matrici e vettori, nel modo seguente:

In altre parole, è l'immagine del vettore ottenuta mediante l'applicazione lineare associataalla matrice dei coefficienti:

Quindi il sistema ammette soluzione se e solo se è l'immagine di un qualche vettore di , ovvero se è nell'immagine di . Del resto l'immagine di è generata dai vettori dati dalle colonne di . Quindi è contenuto nell'immagine se e solo se lo span delle colonne di contiene , cioè se e solo se lo span delle colonne di è uguale allo span delle colonne di . Quest'ultima affermazione è equivalente a chiedere che le due

Page 38: Base (algebra lineare) -

Teorema di Rouché-Capelli 36

matrici abbiano lo stesso rango.Se esiste una soluzione , ogni altra soluzione si scrive come , dove è una soluzione del sistemalineare omogeneo associato:[2]

Infatti:

Lo spazio delle soluzioni, ottenuto traslando il nucleo con il vettore , è quindi il sottospazio affine dato da:

La dimensione dello spazio delle soluzioni del sistema completo è uguale alla dimensione dello spazio dellesoluzioni del sistema omogeneo associato.[3]

Le soluzioni del sistema lineare omogeneo associato sono il nucleo dell'applicazione , e per il teorema delladimensione il nucleo è un sottospazio vettoriale di dimensione . Quindi lo spazio delle soluzioni,ottenuto traslando il nucleo con il vettore , è un sottospazio affine della stessa dimensione.

Note[1] Informalmente, il fatto che le soluzioni formano un sottospazio affine di dimensione equivale al fatto che queste hanno

gradi di libertà. Alcuni testi sintetizzano questo fatto asserendo che ci sono soluzioni, tuttavia questa notazione

è errata da un punto di vista matematico in quanto lascia intendere che la cardinalità dell'insieme dipenda dalla dimensione ,

mentre la cardinalità è sempre la stessa e quello che varia è la dimensione dell'oggetto.[2] S. Lang, op. cit., Pag. 177[3] S. Lang, op. cit., Pag. 178

Bibliografia• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2• Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971.

ISBN 01-353-6821-9• F. Odetti; M. Raimondo, Elementi di Algebra Lineare e Geometria Analitica, ECIG, 1992. ISBN 88-7545-717-4

Voci correlate• Teorema della dimensione

Page 39: Base (algebra lineare) -

Rango (algebra lineare) 37

Rango (algebra lineare)Nell'algebra lineare, il rango o caratteristica di una matrice a valori in un certo campo è il massimo numero dicolonne (o righe) linearmente indipendenti in .Il rango di una matrice può essere formulato in numerosi modi equivalenti, ed è una quantità fondamentale in algebralineare, utile per risolvere i sistemi lineari e studiare le applicazioni lineari. È comunemente indicato con rango( ), rg( ) o ( ), o con le versioni inglesi rank( ) o rk( ).

DefinizioneSia una matrice, a valori in un campo . Le seguenti definizioni di rango di sono tutte equivalenti:• Il massimo numero di colonne linearmente indipendenti• Il massimo numero di righe linearmente indipendenti• La dimensione del sottospazio di generato dalle colonne di • La dimensione del sottospazio di generato dalle righe di • La dimensione dell'immagine dell'applicazione lineare da in seguente:

• Il massimo ordine di un minore invertibile di

Rango di una trasformazione lineareSi può attribuire un rango anche ad una generica applicazione lineare, definendolo come la dimensione dello spaziovettoriale dato dalla sua immagine.In una esposizione con fini tendenzialmente generali una definizione di questo genere ha il vantaggio di essereapplicabile senza la necessità di fare riferimento ad alcuna matrice che rappresenti la trasformazione. Quando invececi si trova in un ambito di applicazioni concrete, il calcolo effettivo del rango di una trasformazione ben raramente sipuò ottenere evitando di operare su una matrice.

Proprietà del rango di una matriceIn quanto segue, è una matrice su un campo , che descrive una mappa lineare comesopra.

Proprietà di base• Solo la matrice nulla ha rango 0.• Il rango di è uguale al rango della sua trasposta.• Il rango di è minore o uguale sia di che di . In altre parole, è minore o uguale del minimo dei due valori

Page 40: Base (algebra lineare) -

Rango (algebra lineare) 38

Relazioni fra ed

• è iniettiva se e solo se ha rango (in questo caso si dice che ha rango per colonne massimo).• è suriettiva se e solo se ha rango (in questo caso si dice che ha rango per righe massimo).• nel caso di una matrice quadrata (cioè, ), allora è invertibile se e solo se ha rango (e si

dice che ha rango massimo). Questo accade se e solo se è biettiva.

Prodotto fra matrici• Se è una matrice , allora il rango del prodotto è minore o uguale sia del rango di che del

rango di . In altre parole:

Come esempio del caso "<", si consideri il prodotto

Entrambi i fattori hanno rango 1, ma il prodotto ha rango 0.• Se è una matrice con rango , allora ha lo stesso rango di .• Se è una matrice con rango , allora ha lo stesso rango di .• Il rango di è uguale a se e solo se esistono una matrice invertibile ed una matrice

invertibile tali che

dove denota la matrice identità .• Dall'ultima proprietà si deduce che il rango di una matrice è un invariante completo per matrici equivalenti

destra-sinistra.

Teorema del rango-nullitàIl rango di una matrice più la nullità della matrice è uguale al numero di colonne della matrice (questo è il teoremadel rango, o "teorema del rango-nullità").

SD-equivalenzaIl rango è un invariante completo per la equivalenza sinistra-destra tra matrici: due matrici e hannolo stesso rango se e solo se esistono due matrici invertibili e tali che .

Calcolo

Algoritmo di GaussIl modo più semplice per calcolare il rango di una matrice è dato dall'algoritmo di Gauss. L'algoritmo trasformala matrice in una matrice a scalini con lo stesso rango, dato dal numero di righe non nulle, o equivalentemente dipivot.Si consideri ad esempio la matrice

Page 41: Base (algebra lineare) -

Rango (algebra lineare) 39

Vediamo che la seconda colonna è il doppio della prima colonna, e la quarta colonna è uguale alla somma dellaprima e della terza. La prima e la terza colonna sono linearmente indipendenti, quindi il rango di è due. Questopuò essere confermato dall'algoritmo di Gauss, che produce la seguente matrice a scalini :

con due righe non nulle.

Criterio dei minoriUn altro metodo, in alcuni casi più diretto, sfrutta le proprietà del determinante di una matrice quadrata, e inparticolare dei determinanti delle sottomatrici quadrate di , dette minori. Si basa sul fatto seguente:• Il rango di è pari al massimo ordine di un minore invertibile di .Ad esempio, la matrice data sopra ha determinante nullo, e quindi può avere rango al massimo 3. Anche tuttii suoi minori hanno determinante nullo, e quindi può avere rango al massimo 2. Infine, esiste almeno unminore invertibile di ordine 2, ad esempio quello in basso a destra

che ha determinante . Quindi ha rango esattamente 2. Questo criterio può essere utile ad esempio per verificarerapidamente se il rango di una matrice è superiore o inferiore ad un certo valore.

GeneralizzazioniEsistono diverse generalizzazioni del concetto di rango per matrici su anelli arbitrari. In queste generalizzazioni ilrango colonna, il rango riga, dimensione dello spazio colonna, dimensione dello spazio riga di una matrice possonoessere diversi l'uno dall'altro o non esistere.Un'altra generalizzazione riguarda le matroidi, entità che generalizzano le matrici.

Bibliografia• (EN) Werner Greub (1981): Linear algebra, 4th edition, Springer Verlag• (EN) Roger A. Horn, Charles R. Johnson (1985): Matrix Analysis. Cambridge University Press, ISBN

0-521-38632-2.

Page 42: Base (algebra lineare) -

Determinante 40

Determinante

Una trasformazione lineare del piano cartesiano è descritta da una matrice quadrata. Il determinante della matrice fornisce delle informazioni sulla

trasformazione: il valore assoluto descrive il cambiamento di area, mentre il segnodescrive il cambiamento di orientazione. Nell'esempio qui riportato, la matrice hadeterminante -1: quindi la trasformazione preserva le aree (un quadrato di area 1 si

trasforma in un parallelogramma di area 1) ma inverte l'orientazione del piano.

In algebra lineare, il determinante è unafunzione che associa ad ogni matricequadrata uno scalare che ne sintetizzaalcune proprietà algebriche.

Esso viene generalmente indicato coned a volte con , quest'ultima

notazione è più compatta ma ambigua, inquanto utilizzata talvolta per descrivere unanorma della matrice.[1]

Il determinante è un potente strumento usatoin vari settori della matematica: innanzituttonello studio dei sistemi di equazioni lineari,quindi nel calcolo infinitesimale a piùdimensioni (ad esempio nel Jacobiano), nelcalcolo tensoriale, nella geometriadifferenziale, nella teoria combinatoria, etc.

Il volume di questo parallelepipedo è il valore assoluto del determinante dellamatrice formata dai vettori e . Questa relazione fra volume e

determinante è valida in qualsiasi dimensione.

Il significato geometrico principale deldeterminante si ottiene interpretando lamatrice quadrata di ordine cometrasformazione lineare di uno spaziovettoriale a dimensioni: con questainterpretazione, il valore assoluto di

è il fattore con cui vengonomodificati i volumi degli oggetti contenutinello spazio. Se è diverso da zero, il segnodel determinante indica inoltre se latrasformazione preserva o cambial'orientazione dello spazio rispetto agli assidi riferimento.

Definizione

Definizione

Sia V uno spazio vettoriale sul campo C didimensione n e D una forma n-lineare e alternante e non identicamente nulla da V in C, il determinante di un

endomorfismo è definito come: Con una qualsiasi base di V.

Definizione tramite assiomi

Sia lo spazio vettoriale delle matrici quadrate a valori in un campo (ad esempio, il campo deinumeri reali o complessi).

Page 43: Base (algebra lineare) -

Determinante 41

Il determinante è l'unica funzione

avente le proprietà seguenti:•• Si comporta nel modo seguente rispetto all'algoritmo di Gauss-Jordan:

• se è ottenuta scambiando due righe o due colonne di , allora ,• se è ottenuta moltiplicando una riga o una colonna di per , allora ,• se è ottenuta sommando una riga o una colonna rispettivamente di ad un'altra, allora

dove la matrice è la matrice identità.Le proprietà elencate hanno un significato geometrico: sono le proprietà che deve verificare una funzione il cuivalore assoluto è il volume del poliedro individuato dai vettori riga della matrice B e il cui segno è positivo se e solose tali vettori sono equiorientati alla base canonica.

Definizione costruttiva

Il determinante di una matrice può essere definito in un modo più costruttivo, tramite la formula di Leibniz:

Nella formula, è l'insieme di tutte le permutazioni dell'insieme numerico e denotail segno della permutazione ( se è una permutazione pari, −1 se è dispari).Per esteso:

In particolare:• Se , il determinante di è semplicemente

• Se , si ottiene la formula già vista

• Se , si ottiene

Quest'ultima formula può essere memorizzata tramite la regola di Sarrus (che non è però estendibile ai casi).

La complessità della definizione costruttiva (comprese la generazione delle permutazioni) è elevata:

Page 44: Base (algebra lineare) -

Determinante 42

Metodi di calcoloLa definizione costruttiva del determinante è spesso complicata da usare per un calcolo concreto, perché si basa suuna somma di ben addendi. Esistono altri algoritmi che consentono di calcolare il determinante più facilmente.Ciascun metodo ha una efficienza variabile, dipendente dalla grandezza della matrice e dalla presenza di zeri.

Sviluppo di LaplaceLo sviluppo di Laplace è un metodo di calcolo del determinante, che risulta efficiente per matrici non troppo grandi econtenenti un gran numero di zeri. Si procede scegliendo una riga, la -esima, tramite la formula:

dove è il complemento algebrico della coppia , cioè è data da per il determinante delminore di ordine ottenuto dalla matrice eliminando la riga -esima e la colonna -esima.Esiste uno sviluppo analogo anche lungo la -esima colonna.

Matrici quadrate di ordine 2

L'area del parallelogramma è il determinante della matrice

Il determinante di una matrice 2 × 2 è pari a

Il valore assoluto di questa espressione èpari all'area del parallelogramma con verticiin e . Il segno del determinante (se questo èdiverso da zero) dipende invece dall'ordineciclico con cui compaiono i vertici delparallelogramma (il segno è negativo se ilparallelogramma è stato "ribaltato", epositivo altrimenti).

Come spiegato più sotto, questa proprietàgeometrica si estende anche in dimensionimaggiori di 2: il determinante di una matrice

è ad esempio il volume del poliedro i cui vertici si ricavano dalle colonne della matrice con lo stessoprocedimento visto.

Page 45: Base (algebra lineare) -

Determinante 43

Matrici quadrate di ordine 3

Calcolo del determinante di una matrice tramite un metodoequivalente alla regola di Sarrus. Questo metodo non si estende a

matrici più grandi.

Il determinante di una matrice 3 × 3 è pari a

Un metodo mnemonico per ricordare questa formula,espresso dalla regola di Sarrus (questo metodo non siestende a matrici più grandi), prevede di calcolare iprodotti dei termini sulle diagonali "continue":ripetendo a destra della matrice le sue prime duecolonne

i prodotti delle componenti sulle 3 "diagonali" chepartono dall'alto a sinistra (diagonali principali) sonoaei, bfg e cdh, mentre sulle 3 "diagonali" che partono dal basso a sinistra (diagonali secondarie) si trovano gec, hfa,idb. Il determinante della matrice è esattamente la differenza tra la somma dei primi tre termini (aei + bfg + cdh) e lasomma degli ultimi tre (gec + hfa + idb).

Algoritmo di GaussLa definizione assiomatica fornisce un altro utile strumento di calcolo del determinante, che si basa su questi dueprincipi:• Il determinante di una matrice triangolare è semplicemente il prodotto degli elementi sulla diagonale, cioè

.

• Usando l'algoritmo di Gauss, è possibile trasformare ogni matrice in una matrice triangolare tramite mosse diGauss, il cui effetto sul determinante è determinato dagli assiomi.

EsempioSupponiamo di voler calcolare il determinante di

.

Si può procedere direttamente tramite la definizione costruttiva:

Alternativamente si può utilizzare lo sviluppo di Laplace secondo una riga o una colonna. Conviene scegliere unariga o una colonna con molti zeri, in modo da ridurre gli addendi dello sviluppo; nel nostro caso sviluppiamosecondo la seconda colonna:

Page 46: Base (algebra lineare) -

Determinante 44

Lo sviluppo di Laplace può essere combinato con alcune mosse di Gauss. Ad esempio qui risulta particolarmentevantaggioso sommare la seconda colonna alla prima:

Questa mossa non cambia il determinante. Sviluppando lungo la prima colonna si ottiene quindi ancora:

Applicazioni

Sistemi lineariIl determinante è utile a calcolare il rango di una matrice e quindi a determinare se un sistema di equazioni lineari hasoluzione, tramite il teorema di Rouché-Capelli. Quando il sistema ha una sola soluzione, questa può essereesplicitata usando il determinante, mediante la regola di Cramer.

Matrici e trasformazioni invertibiliUna matrice è detta singolare se ha determinante nullo. Una matrice singolare non è mai invertibile, e se è definitasu un campo vale anche l'inverso: una matrice non singolare è sempre invertibile.Una trasformazione lineare del piano, dello spazio, o più in generale di uno spazio euclideo o vettoriale (didimensione finita)

è rappresentata (dopo aver scelto una base) da una matrice quadrata . Il determinante è una quantità che nondipende dalla base scelta, e quindi solo dalla funzione : si può quindi parlare di determinante di , che si indicacon .Molte affermazioni su sono equivalenti:

è una corrispondenza biunivoca è un isomorfismo è iniettiva è suriettiva

Quindi ciascuna di queste affermazioni equivalenti è vera se e solo se il determinante non è zero.

Autovalori e autovettoriIl determinante consente di trovare gli autovalori di una matrice mediante il suo polinomio caratteristico

dove è la matrice identità avente stesso numero di righe di .

Basi, sistemi di riferimentoDati vettori nello spazio euclideo , sia la matrice avente come colonne questi vettori. Le seguentiaffermazioni sono equivalenti:

i vettori sono indipendenti i vettori generano i vettori formano una base Se gli vettori formano una base, allora il segno di determina l'orientazione della base: se positivo, labase forma un sistema di riferimento destrorso, mentre se è negativo si parla di sistema di riferimento sinistrorso(in analogia con la regola della mano destra).

Page 47: Base (algebra lineare) -

Determinante 45

Volumi

Cubo prima della trasformazione, di volume 1.

L'immagine del cubo dopo la trasformazione è un parallelepipedo, il cui volume èpari al determinante della trasformazione.

Il valore assoluto deldeterminante è uguale al volume delparallelepipedo sotteso dai vettori dati dallecolonne di (il parallelepipedo è in realtàun parallelogramma se , ed unsolido di dimensione in generale).Più in generale, data una trasformazionelineare

rappresentata da una matrice , ed unqualsiasi sottoinsieme di misurabilesecondo Lebesgue, il volume dell'immagine

è dato da

Ancora più in generale, se la trasformazionelineare è rappresentata dauna matrice di tipo e è unsottoinsieme di misurabile secondoLebesgue, allora il volume di è datoda

Proprietà

Proprietà elementari

Dalle proprietà elencate nella definizione assiomatica, è facile dedurre che:

• Se tutti gli elementi di una riga (o colonna) sono nulli, allora .• Se ha due righe (o colonne) eguali, o proporzionali, allora .• Se una riga (o colonna) è combinazione lineare di due o più altre righe (o colonne) a essa parallele, allora

.• Se viene modificata tramite mosse di Gauss sulle colonne (invece che sulle righe), l'effetto è sempre quello

descritto nella definizione assiomatica.• Se una riga (o una colonna) è somma di due righe (o colonne), è la somma dei due determinanti che si

ottengono sostituendo a quella riga (o colonna) rispettivamente le due righe (o colonne) di cui è somma.

Page 48: Base (algebra lineare) -

Determinante 46

Il determinante misura il volume del parallelepipedo generato dai vettori colonnadella matrice. Moltiplicando un vettore per due, il volume viene moltiplicato per

due (come richiesto dalla definizione assiomatica)

Moltiplicazione di matrici

Il determinante è una funzionemoltiplicativa, nel senso che vale il teoremadi Binet:

Una matrice quadrata con valori in uncampo è invertibile se e solo se

. In caso affermativo valel'uguaglianza:

Le proprietà appena elencate mostrano chel'applicazione

dal gruppo generale lineare negli elementinon nulli di è un omomorfismo digruppi.

Come conseguenza del teorema di Binet, se è la matrice identità di tipo e uno scalare, è facileverificare che . Quindi:

Trasposte, matrici similiUna matrice e la sua trasposta hanno lo stesso determinante:

Se e sono simili (cioè esiste una matrice invertibile tale che = ) allora per il teorema diBinet Questo significa che il determinante è un invariante per similitudine. Da questo segue che il determinante di unatrasformazione lineare è ben definito (non dipende dalla scelta di una base per lo spazio vettoriale ).D'altra parte, esistono matrici con lo stesso determinante che non sono simili.

AutovaloriIl determinante di una matrice triangolare è il prodotto degli elementi nella diagonale.

Se è di tipo con valori reali o complessi e ha tutti gli autovalori nel campo (contati conmolteplicità), allora

Questa uguaglianza segue dal fatto che è sempre simile alla sua forma normale di Jordan, che è una matricetriangolare superiore con gli autovalori sulla diagonale principale.Dal collegamento fra determinante e autovalori si può derivare una relazione fra la funzione traccia, la funzioneesponenziale e il determinante:

Page 49: Base (algebra lineare) -

Determinante 47

DerivataIl determinante può considerarsi una funzione polinomiale

quindi essa è differenziabile rispetto ad ogni variabile corrispondente al valore che può assumere in una casella e perqualunque suo valore. Il suo differenziale può essere espresso mediante la formula di Jacobi:

dove cofT(A) denota la trasposta della matrice dei cofattori (detta anche dei complementi algebrici) di A, mentre tr(A)ne denota la traccia. In particolare, se A è invertibile abbiamo

o, più colloquialmente, se i valori della matrice sono sufficientemente piccoli

Il caso particolare di coincidente con la matrice identità comporta

Generalizzazioni

PfaffianoLo pfaffiano è un analogo del determinante per matrici antisimmetriche di tipo . Si tratta di un polinomiodi grado il cui quadrato è uguale al determinante della matrice.

Infinite dimensioniPer gli spazi ad infinite dimensioni non si trova alcuna generalizzazione dei determinanti e della nozione di volume.Sono possibili svariati approcci, inclusa la utilizzazione dell'estensione della traccia di una matrice.

Note[1] La notazione fu introdotta per la prima volta nel 1841 dal matematico inglese Arthur Cayley ( MacTutor (http:/ / www-history. mcs.

st-andrews. ac. uk/ HistTopics/ Matrices_and_determinants. html)).

Bibliografia

In italiano• Ernesto Pascal I determinanti: teoria ed applicazioni. Con tutte le più recenti ricerche (http:/ / name. umdl. umich.

edu/ ABZ4755. 0001. 001) (Milano: U. Hoepli, 1897)• Francesco Calderara Trattato dei determinanti (http:/ / resolver. library. cornell. edu/ math/ 1927647) (Palermo:

Virzì, 1913)

In lingua straniera• (FR) Francesco Brioschi Théorie des déterminants et leurs principales applications; traduit de l'italien par M.

Édouard Combescure (http:/ / gallica. bnf. fr/ notice?N=FRBNF30162093) (Parigi : Mallet-Bachelier, 1856)• (FR) R. Baltzer Théorie et applications des déterminants, avec l'indication des sources originales; traduit de

l'allemand par J. Hoüel, (http:/ / gallica. bnf. fr/ notice?N=FRBNF30050936) (Parigi : Mallet-Bachelier, 1861)• (EN) Lewis Carroll An elementary treatise on determinants, with their application to simultaneous linear equations

and algebraical geometry (http:/ / www. archive. org/ details/ elementarytreati00carrrich) (Oxford: UniversityPress, 1867)

Page 50: Base (algebra lineare) -

Determinante 48

• (EN) R. F. Scott e G. B. Matthews The theory of determinants and their applications (http:/ / www. archive. org/details/ theoryofdetermin00scotuoft) (Cambridge: University Press, 1904)

• (EN) T. Muir The theory of determinants in the historical order of development (4 vol.) (http:/ / quod. lib. umich.edu/ cgi/ t/ text/ text-idx?c=umhistmath& amp;idno=ACM9350) (London: Macmillan and Co., Limited, 1906)

• (EN) T. Muir Contributions To The History Of Determinants 1900 1920 (http:/ / www. archive. org/ details/contributionstot032405mbp) (Blackie And Son Limited, 1930)

Voci correlate• Storia del determinante• Sviluppo di Laplace• Algoritmo di Gauss• Regola di Sarrus• Determinante jacobiano• Matrice unimodulare

Collegamenti esterni• (EN) Storia dell'uso delle matrici e dei determinanti (http:/ / www-history. mcs. st-andrews. ac. uk/ HistTopics/

Matrices_and_determinants. html) su MacTutor

DiagonalizzabilitàIn matematica, e più precisamente in algebra lineare, una trasformazione lineare di uno spazio vettoriale èdiagonalizzabile o semplice[1] se esiste una base dello spazio rispetto alla quale la matrice di trasformazione èdiagonale. In modo equivalente, una matrice quadrata è diagonalizzabile se è simile ad una matrice diagonale.Una trasformazione lineare è diagonalizzabile se esistono n "assi" passanti per l'origine la cui direzione rimaneinvariata nella trasformazione stessa: ognuno di tali assi è un autospazio relativo ad un autovettore dellatrasformazione, e la trasformazione effettua una omotetia. Diagonalizzare una trasformazione significa porsi in unsistema di riferimento che rimane "solidale" con essa, e la trasformazione risulta completamente definita quando siconosce il suo comportamento sugli assi del sistema.Ad esempio, la trasformazione del piano cartesiano che sposta ogni punto (x, y) nel punto (2x, -y) è diagonalizzabile.Infatti gli assi x e y rimangono invariati: l'asse x è espanso di un fattore 2, mentre l'asse y è ribaltato rispettoall'origine. Notiamo che nessuna altra retta passante per l'origine rimane invariata.Una rotazione oraria o antioraria del piano di 90 gradi intorno all'origine non è invece diagonalizzabile, perchénessun asse viene fissato.

DefinizioneSia T un endomorfismo di uno spazio vettoriale V, cioè una trasformazione lineare T:V → V. Si dice che T èdiagonalizzabile se esiste una base di V rispetto alla quale la matrice che rappresenta T è diagonale.[2] In particolare,la base che diagonalizza T è composta da suoi autovettori.In modo equivalente, una matrice quadrata è diagonalizzabile se è simile ad una matrice diagonale.[3] La matrice T èquindi diagonalizzabile nel campo di appartenenza se esiste una matrice invertibile P tale che:

Page 51: Base (algebra lineare) -

Diagonalizzabilità 49

ovvero:

Scrivendo P in termini dei vettori colonna:

la precedente relazione diventa:

I vettori colonna di P sono dunque autovettori di T, ed i corrispondenti elementi della matrice diagonale sono irispettivi autovalori. L'invertibilità di P implica inoltre l'indipendenza lineare degli autovettori, che formano una basedello spazio.

Criteri di diagonalizzabilitàUna matrice quadrata A di rango n sul campo F è diagonalizzabile se e solo se la somma delle dimensioni dei suoiautospazi è pari a n. Tale condizione si verifica se e solo se esiste una base di Fn composta da autovettori di A. Se labase esiste, è possibile definire una matrice P avente i vettori di tale base come colonne, ed in tal caso P−1AP èdiagonale. Gli elementi della diagonale sono gli autovalori di A. Le condizioni di diagonalizzabilità per leapplicazioni lineari sono equivalenti a quelle per le matrici rappresentative.

Polinomio caratteristicoUn modo per verificare che una applicazione è diagonalizzabile è quello di studiare la diagonalizzabilità della suamatrice associata A nelle base degli insiemi di partenza e di arrivo. A tal fine, uno strumento di notevole importanzaè il polinomio caratteristico, che permette di ottenere gli autovalori con la loro molteplicità.Sia A una matrice quadrata con n righe a valori in un campo K. Il polinomio caratteristico di A è un polinomio digrado n definito nel modo seguente:

Le radici λ1, ..., λk di p(λ) appartenenti al campo K sono gli autovalori di A.[4] Ogni autovalore λi ha una suamolteplicità come radice di p(λ), detta molteplicità algebrica,[5] ed un autovalore con molteplicità algebrica 1 si dicesemplice.Il teorema di diagonalizzabilità fornisce un criterio necessario e sufficiente che permette di stabilire seun'applicazione lineare è diagonalizzabile. Una matrice quadrata A con n righe è diagonalizzabile se e solo sevalgono entrambi i fatti seguenti:• La somma delle molteplicità algebriche dei suoi autovalori è n, ovvero il polinomio caratteristico può essere

fattorizzato nel campo attraverso polinomi di primo grado.• Le molteplicità algebriche e geometriche di ogni autovalore sono coincidenti, ovvero la dimensione degli

autospazi è pari alla molteplicità con la quale il relativo autovalore è radice del polinomio caratteristico. Poiché lamolteplicità geometrica è sempre minore o uguale di quella algebrica, se l'applicazione ha n autovalori distinti nelcampo allora è diagonalizzabile.

Page 52: Base (algebra lineare) -

Diagonalizzabilità 50

Il teorema spettraleNel caso complesso, che ha validità generale, afferma che un endomorfismo è normale se e solo se esiste una baseortonormale dello spazio fatta di suoi autovettori.[6] L'endomorfismo è quindi unitariamente diagonalizzabile se esolo se è normale.Nel linguaggio matriciale, il teorema afferma che ogni matrice normale è simile ad una matrice diagonale tramiteuna matrice unitaria. In altre parole, per ogni matrice normale H esistono una matrice unitaria U ed una diagonale Dper cui:

Come corollario segue che se e solo se l'operatore T è autoaggiunto la base ortonormale conta solo autovalori reali,mentre se T è unitario il modulo degli autovalori è 1. In particolare, gli autovalori di una matrice hermitiana sonotutti reali, mentre quelli di una matrice unitaria sono di modulo 1.

Esempi

Esempio di calcoloConsideriamo la matrice

Il polinomio caratteristico è:

che si annulla per gli autovalori

Quindi ha 3 autovalori distinti. Per il primo criterio esposto precedentemente, la matrice è diagonalizzabile.Se si è interessati a trovare esplicitamente una base di autovettori, dobbiamo fare del lavoro ulteriore: per ogniautovalore, si imposta l'equazione: e si risolve cercando i valori del vettore che la soddisfano,sostituendo volta per volta i tre autovalori precedentemente calcolati.Una base di autovettori per esempio è data da:

Si vede facilmente che sono indipendenti, quindi formano una base, e che sono autovettori, infatti .Possiamo scrivere esplicitamente la matrice di cambiamento di base incolonnando i vettori trovati:

Quindi la matrice invertibile P diagonalizza A, come si verifica calcolando:

La matrice finale deve essere diagonale e contenere gli autovalori, ciascuno con la sua molteplicità.

Page 53: Base (algebra lineare) -

Diagonalizzabilità 51

Numeri complessiSe il campo su cui lavoriamo è quello dei numeri complessi, una matrice n per n ha n autovalori (contando ciascunocon la relativa molteplicità, per il teorema fondamentale dell'algebra). Se le molteplicità sono tutte 1, la matrice èdiagonalizzabile. Altrimenti, dipende. Un esempio di matrice complessa non diagonalizzabile è descritto sotto.Il fatto che vi siano comunque n autovalori implica che è sempre possibile ridurre una matrice complessa ad unaforma triangolare: questa proprietà, più debole della diagonalizzabilità, è detta triangolabilità.

Numeri realiSui numeri reali le cose cambiano, perché la somma delle molteplicità di un polinomio di grado n può essereinferiore a n. Ad esempio la matrice

non ha autovalori, perché il suo polinomio caratteristico non ha radici reali. Quindi non esistenessuna matrice reale Q tale che sia diagonale! D'altro canto, la stessa matrice B vista con i numericomplessi ha due autovalori distinti i e -i, e quindi è diagonalizzabile. Infatti prendendo

troviamo che è diagonale. La matrice considerata sui reali invece non è neppure triangolabile.Ci sono anche matrici che non sono diagonalizzabili né sui reali né sui complessi. Questo accade in alcuni casi, incui ci sono degli autovalori con molteplicità maggiore di uno. Ad esempio, consideriamo

Questa matrice non è diagonalizzabile: ha 0 come unico autovalore con molteplicità 2, e se fosse diagonalizzabilesarebbe simile alla matrice nulla, cosa impossibile a prescindere dal campo reale o complesso.

Note[1] F. Odetti, op. cit., Pag. 246[2] S. Lang, op. cit., Pag. 114[3] S. Lang, op. cit., Pag. 115[4] S. Lang, op. cit., Pag. 228[5] S. Lang, op. cit., Pag. 230[6] S. Lang, op. cit., Pag. 251

Bibliografia• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2• F. Odetti; M. Raimondo, Elementi di Algebra Lineare e Geometria Analitica, ECIG, 1992. ISBN 88-7545-717-4

Page 54: Base (algebra lineare) -

Diagonalizzabilità 52

Voci correlate• Polinomio caratteristico• Autovettore e autovalore• Teorema spettrale• Forma canonica di Jordan

Autovettore e autovalore

In questa trasformazione lineare della Gioconda l'immagine è modificatama l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato

lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è unautovettore della trasformazione e quello blu no. Inoltre, poiché il vettore

rosso non è stato né allungato, né compresso, né ribaltato, il suo autovaloreè 1. Tutti i vettori sull'asse verticale sono multipli scalari del vettore rosso,e sono tutti autovettori: assieme all'origine formano l'autospazio relativo

all'autovalore 1.

In matematica, in particolare in algebra lineare, unautovettore di una trasformazione lineare tra spazivettoriali è un vettore la cui immagine è il vettorestesso moltiplicato per uno scalare, dettoautovalore.[1]

Si definisce autospazio il sottospazio generato datutti gli autovettori aventi in comune lo stessoautovalore.[2]

Si tratta di un concetto fondamentale utilizzato inmolti settori della matematica e della fisica. Inmeccanica classica gli autovettori delle equazioniche descrivono un sistema fisico corrispondonospesso ai modi di vibrazione di un corpo, e gliautovalori alle loro frequenze. In meccanicaquantistica gli operatori corrispondono a variabiliosservabili, gli autovettori sono chiamati ancheautostati e gli autovalori di un operatorerappresentano quei valori della variabilecorrispondente che hanno probabilità non nulla diessere misurati.

Il termine autovettore è stato tradotto dalla parolatedesca Eigenvektor, coniata da Hilbert nel 1904. Eigen significa proprio, caratteristico. Anche nella letteraturaitaliana troviamo spesso l'autovettore indicato come vettore proprio, vettore caratteristico o vettore latente.

Introduzione informale

Page 55: Base (algebra lineare) -

Autovettore e autovalore 53

Una sfera che ruota intornoad un suo asse.

Rotazione del piano intorno ad un punto

Il piano cartesiano e lo spazio euclideo sono esempi particolari di spazivettoriali: ogni punto dello spazio può essere descritto tramite unvettore che collega l'origine al punto. Rotazioni, omotetie e riflessionisono esempi particolari di trasformazioni lineari dello spazio: ciascunadi queste trasformazioni viene descritta agevolmente dall'effetto cheproduce sui vettori.

In particolare, un autovettore è un vettore che nellatrasformazione viene moltiplicato per un fattore scalare . Nel pianoo nello spazio cartesiano, questo equivale a dire che il vettore noncambia direzione. Può però cambiare verso se , e modulo perun fattore dato dal valore assoluto :• se il modulo resta inalterato,• se il modulo cresce,• se il modulo decresce.Il valore è l'autovalore di .Ad esempio, in una rotazione spaziale il vettore coincidente con l'assedi rotazione resta fisso: in altre parole, è un vettore che non cambia nédirezione, né verso, né modulo, ed è quindi un autovettore conautovalore 1. I vettori perpendicolari all'asse, invece, ruotano di uncerto angolo e cambiano direzione: ogni rotazione piana (di angolodiverso da e ) non possiede autovettori.

Un'onda stazionaria in una corda fissata agli estremi è una autofunzionedella trasformazione data dallo scorrere del tempo.

Autovettori e autovalori sono definiti ed usati inmatematica e fisica nell'ambito di spazi piùcomplessi e astratti di quello tridimensionale dellafisica classica. Questi spazi possono averedimensione maggiore di 3 o addirittura infinita (adesempio, possono essere uno spazio di Hilbert). Adesempio, le possibili posizioni di una cordavibrante in una chitarra formano uno spazio diquesto tipo: una vibrazione della corda è quindi interpretata come trasformazione di questo spazio, e i suoiautovettori (più precisamente, le sue autofunzioni) sono le onde stazionarie.

Page 56: Base (algebra lineare) -

Autovettore e autovalore 54

DefinizioneDal punto di vista formale, autovettori e autovalori sono definiti come segue: sia uno spazio vettoriale su uncampo , che può essere ad esempio il campo dei numeri reali o il campo dei complessi . Sia unendomorfismo di , cioè una trasformazione lineare:

Se è un vettore non nullo in e è uno scalare tali che:

allora è un autovettore della trasformazione , e è il suo autovalore.[1]

Poiché è lineare, se è un autovettore con autovalore , allora ogni multiplo non-nullo di è anch'esso unautovettore con lo stesso autovalore . Più in generale, gli autovettori aventi lo stesso fissato autovalore ,insieme al vettore nullo, generano un sottospazio di chiamato l'autospazio relativo all'autovalore , solitamenteindicato con .[2]

Lo spettro di è l'insieme dei suoi autovalori. Il raggio spettrale di è l'estremo superiore dei moduli dei suoiautovalori.Nel caso in cui sia di dimensione finita, per ogni scelta di basi a è associata univocamente una matrice, dettamatrice di trasformazione.[3] Gli autovettori e autovalori associati ad un'applicazione possono essere associati allamatrice di trasformazione nel medesimo modo. Sia il vettore delle coordinate di rispetto ad una base e sia A lamatrice di trasformazione rappresentante rispetto alla medesima base. Si ha:[4]

In particolare, gli autovalori di A non dipendono dalla base scelta.

Polinomio caratteristicoSi definisce polinomio caratteristico p(x) nella variabile x associato ad una matrice quadrata A il determinante:[5]

dove I è la matrice identità con lo stesso numero di righe di A. In particolare, le radici del polinomio caratteristicosono tutti gli autovalori di T.[6]

Due matrici che rappresentano un endomorfismo di uno spazio vettoriale a dimensione finita sono simili, ed inparticolare hanno il medesimo polinomio caratteristico, e dunque gli stessi autovalori. Si tratta di uno strumento digrande importanza, che ha permesso di sviluppare un metodo generale per l'individuazione di autovalori e autovettoridi un endomorfismo nel caso in cui lo spazio vettoriale V abbia dimensione finita.[7] Il polinomio permette inoltre distabilire l'esistenza di autovalori e autovettori per un'applicazione lineare:• Il polinomio caratteristico di T ha grado n, e quindi ha al più n radici: segue che T ha al più n autovalori distinti.• Se K è algebricamente chiuso allora il polinomio caratteristico ha sempre almeno una radice: segue che T ha

almeno un autovalore, e quindi anche almeno un autovettore.[8] Nel caso reale questo non succede sempre, adesempio si possono trovare autovalori complessi.

• Se la dimensione n di V è dispari, e K = R è il campo dei numeri reali, il polinomio caratteristico ha grado dispari,e quindi ha sempre almeno una radice reale. Ad esempio, ogni endomorfismo di R3 ha almeno un autovettore.

Page 57: Base (algebra lineare) -

Autovettore e autovalore 55

DiagonalizzabilitàL'endomorfismo è diagonalizzabile se esiste una base di V rispetto alla quale la matrice che rappresenta T èdiagonale, e si ha che gli elementi della diagonale sono gli autovalori di .[9] In particolare, la base chediagonalizza T è composta da suoi autovettori. Inoltre, una proprietà generale di T è che se sono suoiautovettori con autovalori a due a due distinti, allora questi sono linearmente indipendenti.

Il teorema spettraleNel caso complesso, che ha validità generale, afferma che un endomorfismo è normale se e solo se esiste una baseortonormale dello spazio fatta di suoi autovettori.[10] L'endomorfismo è quindi unitariamente diagonalizzabile se esolo se è normale.Nel linguaggio matriciale, il teorema afferma che ogni matrice normale è simile ad una matrice diagonale tramiteuna matrice unitaria. In altre parole, per ogni matrice normale H esistono una matrice unitaria U ed una diagonale Dper cui:

Come corollario segue che se e solo se l'operatore T è autoaggiunto allora la base ortonormale conta solo autovalorireali, mentre se T è unitario allora il modulo degli autovalori è 1. In particolare, gli autovalori di una matricehermitiana sono tutti reali, mentre quelli di una matrice unitaria sono di modulo 1.Per il teorema spettrale, in particolare, ogni endomorfismo di Rn dato da una matrice simmetrica è diagonalizzabile,ed ha una base di autovettori ortogonali fra loro.[11] Se il polinomio caratteristico di T non ha tutte le radici in K,allora T non è diagonalizzabile. Ad esempio, una rotazione ha un polinomio caratteristico di secondo grado con deltanegativo e quindi non ha soluzioni reali: quindi non è diagonalizzabile.

Spazi di dimensione infinitaIn uno spazio di dimensione infinita la definizione di autovalore è identica al caso di dimensione finita. Tuttavia, Ilpolinomio caratteristico non è uno strumento disponibile in questo caso. Per questo ed altri motivi, si definisce comespettro l'insieme di quei valori λ per cui l'inverso dell'operatore (T - λ I) non è limitato; tale insieme è solitamenteindicato con σ(T). A differenza del caso finito-dimensionale lo spettro e l'insieme degli autovalori, generalmentedetto spettro puntuale, in generale non coincidono. Compito della teoria spettrale è l'estensione delle tecniche validein dimensione finita nel caso in cui l'operatore T e lo spazio V abbiano delle buone proprietà.Seguono alcuni esempi classici.• Un operatore limitato su uno spazio di Banach V ha spettro compatto e non vuoto.• Un operatore compatto su uno spazio di Banach V ha spettro e spettro puntuale coincidenti a meno dello 0. Gli

operatori compatti si comportano in modo molto simile agli operatori con immagine a dimensione finita.• Un operatore autoaggiunto su uno spazio di Hilbert H ha spettro reale. Tali operatori sono fondamentali nella

teoria della meccanica quantistica.

Page 58: Base (algebra lineare) -

Autovettore e autovalore 56

Applicazioni

Operatori in meccanica quantistica

Le funzioni d'onda associate agli stati di un elettrone in unatomo d'idrogeno sono gli autovettori sia della Hamiltoniana

dell'atomo di idrogeno che del momento angolare. Gliautovalori associati sono interpretati come le loro energie

(crescenti dall'alto in basso n=1,2,3,...) e momenti angolari(crescenti da sinistra a destra: s, p, d,...). Sono disegnati qui i

quadrati dei valori assoluti delle autofunzioni. Aree piùluminose corrispondono a densità di probabilità maggiori perla posizione in una misurazione. Il centro di ogni figura è il

nucleo dell'atomo, un protone.

Un esempio di operatore definito su uno spazioinfinito-dimensionale è dato dall'operatore hamiltonianoindipendente dal tempo in meccanica quantistica:

dove H è l'operatore che agendo sull'autovettore (o autoket)restituisce l'autovettore moltiplicato per l'autovalore E,

che è interpretato come l'energia dello stato. Teniamo presenteche H è un operatore hermitiano, per cui i suoi autostatiformano una base ortonormale dello spazio degli stati e gliautovalori sono tutti reali. Proiettando sulla base dellaposizione otteniamo la rappresentazione tramite funzioned'onda:

dove stavolta Hx indica l'operatore differenziale cherappresenta l'operatore astratto nella base della posizionementre la funzione d'onda è l'autofunzionecorrispondente all'autovalore E. Dati i postulati dellameccanica quantistica gli stati accessibili ad un sistema sonovettori in uno spazio di Hilbert e quindi è definito un prodottoscalare fra di essi del tipo:

.

dove la stella * indica il passaggio alla complessa coniugata della funzione d'onda. Questo limita la possibilità discelta dello spazio di Hilbert allo spazio delle funzioni a quadrato integrabile sul dominio scelto D, che può al limiteessere tutto .

Teoria dei numeriLo studio degli autovalori di una matrice ha importanti applicazioni anche nella teoria dei numeri. In particolare, sicongettura che alcune statistiche sugli zeri non banali della funzione zeta di Riemann, quali ad esempio quelle sulladistanza tra zeri consecutivi, siano le stesse di quelle relative alle matrici hermitiane aleatorie (rispetto alla Misura diHaar) di dimensione N al tendere di N all'infinito. Inoltre, è stato congetturato che anche la distribuzione dei valoridella funzione zeta di Riemann sia ben approssimata, in media, dai valori assunti dal polinomio caratteristico di talimatrici. Analoghe considerazioni si possono fare su altre famiglie di funzioni speciali, quali ad esempio le funzioni Ldi Dirichlet, coinvolgendo anche altre famiglie di matrici aleatorie, come ad esempio le matrici simplettiche oortogonali. Dacché un gran numero di statistiche sono molto più facili da calcolare all'interno della teoria dellematrici aleatorie che investigando direttamente queste funzioni speciali, questa connessione ha avuto come risultatoun fiorire di una serie di nuove congetture in teoria dei numeri.[12]

Page 59: Base (algebra lineare) -

Autovettore e autovalore 57

Autofacce

Le autofacce sono esempi di autovettori.

Nella elaborazione digitale delle immagini, l'immagine di unafaccia si associa ad un vettore le cui componenti rappresentano laluminosità dei singoli pixel. Gli autovettori di una particolarematrice, detta matrice di covarianza, sono chiamati autofacce. Essisono molto utili per esprimere ogni faccia come una combinazionelineare di queste autofacce, e sono quindi anche un ottimostrumento di compressione dei dati per memorizzare edidentificare un alto numero di facce.

Tensore d'inerzia

In meccanica, gli autovettori del tensore di inerzia definiscono gliassi principali di un corpo rigido. Il tensore di inerzia è unaquantità chiave, necessaria per determinare la rotazione di uncorpo rigido intorno al suo baricentro. Gli autovettori del tensoredelle deformazioni definiscono gli assi principali di deformazione.

Esempi nel piano e nello spazioFra le trasformazioni del piano cartesiano R2 possiamo distinguere i seguenti casi speciali:• Rotazione antioraria di angolo θ: se θ non è un multiplo intero di π non esiste alcun autovettore: infatti ogni

vettore viene ruotato e cambia di direzione. Nei casi particolari relativi a θ = k π, con k intero dispari, ogni vettoreviene trasformato nell'opposto, quindi ogni vettore non nullo è autovettore, con autovalore -1. Se invece k è pari,la trasformazione non è altro che l'identità, per cui ogni vettore non nullo è autovettore, con autovalore +1.

• Riflessione rispetto ad una retta r passante per l'origine: i vettori in r restano fermi e sono quindi autovettori conautovalore 1, quelli della retta s perpendicolare a r e passante per l'origine vengono ribaltati, e quindi sonoautovettori con autovalore -1. Non esistono altri autovettori.

• Omotetia: ogni vettore viene moltiplicato per uno scalare λ e quindi tutti i vettori non nulli sono autovettori conautovalore λ.

• Proiezione ortogonale su una retta r passante per l'origine: i vettori su r restano fermi e quindi sono autovettoricon autovalore 1, i vettori sulla retta s ortogonale a r e passante per l'origine vanno tutti sull'origine e quindi sonoautovettori con autovalore 0. Non ci sono altri autovettori.

Gli esempi appena elencati possono essere rappresentati rispettivamente dalle seguenti matrici (per semplicità, laretta r è l'asse orizzontale):

• Non tutte le trasformazioni del piano e dello spazio ricadono in uno degli esempi mostrati sopra. In generale, unendomorfismo (cioè una trasformazione) di Rn è rappresentabile tramite una matrice quadrata con n righe.Consideriamo per esempio l'endomorfismo di R3 indotto dalla matrice:

Usando la moltiplicazione fra matrice e vettore vediamo che:

Page 60: Base (algebra lineare) -

Autovettore e autovalore 58

e quindi l'endomorfismo rappresentato da A ha un autovettore con autovalore 2.Si vuole ora trovare il polinomio caratteristico di A. Poiché la trasformazione è già scritta in forma di matrice,saltiamo al punto 2 e calcoliamo il polinomio caratteristico:

quindi gli autovalori di A sono 2, 1 e −1.I tre autovettori ortogonali sono:

Per quanto detto prima, la trasformazione assume una forma molto semplice rispetto a questa base: ogni vettore x inR3 può essere scritto in modo unico come:

e quindi abbiamo

• Se il polinomio caratteristico di T ha tutte le radici in K con molteplicità 1, allora T è diagonalizzabile.• Se il polinomio caratteristico di T ha tutte le radici in K, alcune delle quali con molteplicità maggiore di 1, non è

necessariamente diagonalizzabile: ad esempio la matrice seguente, che rappresenta la trasformazione dellaGioconda in figura ha come polinomio caratteristico (x-1)2 e non è diagonalizzabile (per ):

Note[1] S. Lang, op. cit., Pag. 220[2] S. Lang, op. cit., Pag. 221[3] S. Lang, op. cit., Pag. 104[4] S. Lang, op. cit., Pag. 105[5] S. Lang, op. cit., Pag. 227[6] S. Lang, op. cit., Pag. 228[7] Nella pratica gli autovalori di grandi matrici non vengono calcolati usando il polinomio caratteristico, esistendo metodi numerici più veloci e

sufficientemente stabili.[8] S. Lang, op. cit., Pag. 223[9] S. Lang, op. cit., Pag. 114[10] S. Lang, op. cit., Pag. 251[11] S. Lang, op. cit., Pag. 245[12] Jon Keating, L-functions and the Characteristic Polynomials of Random Matrices in Francesco Mezzadri e Nina Snaith (a cura di), Recent

perspectives in random matrix theory and number theory (in inglese), Cambridge, Cambridge University Press, 2005, pp. 251-278. ISBN978-0-521-62058-1

Page 61: Base (algebra lineare) -

Autovettore e autovalore 59

Bibliografia• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2• Marius Stoka, Corso di geometria, Cedam, ISBN 88-13-19192-8• Serge Lang (2002): Algebra, 3rd edition, Springer, ISBN 0-387-95835-X• Steven Roman (1992): Advanced Linear Algebra, Springer, ISBN 0-387-97837-2• Paul Richard Halmos (1993): Finite-dimensional Vector Spaces, Springer, ISBN 0-387-90093-3• Werner H. Greub (1981): Linear Algebra, Springer, 4th edition, ISBN 0-387-90110-8• Jim Hefferon (2001): Linear Algebra, Online book (http:/ / joshua. smcvt. edu/ linearalgebra/ ), St Michael's

College, Colchester, Vermont, USA• Gene H. Golub, Charles F. van Loan (1996): Matrix computations, 3rd Edition, Johns Hopkins University Press,

ISBN 0-8018-5414-9• Nelson Dunford, Jacob Schwartz (1958): Linear Operator. Part I General Theory Wiley-Interscience, ISBN

0-471-60848-3• V. G. Prikazchikov: Eigen values of differential operators, numerical methods accessibile (http:/ / eom. springer.

de/ E/ e035160. htm) in Encyclopaedia of Mathematics• A. B. Bakushinskii: Eigen values of integral operators, numerical methods accessibile (http:/ / eom. springer. de/

E/ e035170. htm) in Encyclopaedia of Mathematics• T. S. Pigolkina, V. S. Shul'man: Eigen vector accessibile (http:/ / eom. springer. de/ E/ e035180. htm) in

Encyclopaedia of Mathematics• Leonid Vital'evič Kantorovič, G. P. Akilov (1982): "Functional analysis", Pergamon Press

Voci correlate• Autofunzione• Autostato• Diagonalizzabilità• Forma canonica di Jordan• Polinomio caratteristico• Spazio vettoriale• Teorema spettrale• Teoremi di Gerschgorin• Trasformazione lineare

Altri progetti• Wikizionario contiene la voce di dizionario: http:/ / it. wiktionary. org/ wiki/ autovettore• Wikizionario contiene la voce di dizionario: http:/ / it. wiktionary. org/ wiki/ autovalore

Collegamenti esterni• (EN) Eigenvector (http:/ / mathworld. wolfram. com/ Eigenvector. html) in MathWorld• (EN) Earliest Known Uses of Some of the Words of Mathematics: E - vedi eigenvector e termini correlati (http:/ /

members. aol. com/ jeff570/ e. html)• (EN) Numerical solution of eigenvalue problems (http:/ / www. cs. utk. edu/ ~dongarra/ etemplates/ index. html)

Edited by Zhaojun Bai, James Demmel, Jack Dongarra, Axel Ruhe, Henk van der VorstCalcolatrici in linea

• Calculator for Eigenvalues (http:/ / www. arndt-bruenner. de/ mathe/ scripts/ engl_eigenwert. htm) nel sito diArndt Brünner

Page 62: Base (algebra lineare) -

Autovettore e autovalore 60

• Online Matrix Calculator (http:/ / www. bluebit. gr/ matrix-calculator/ ) presso BlueBit Software• Matrix calculator (http:/ / wims. unice. fr/ wims/ wims. cgi?session=6S051ABAFA. 2& + lang=en& +

module=tool/ linear/ matrix. en) in WIMS, WWW Interactive Multipurpose Server, presso l'Université NiceSophia Antipolis

Polinomio caratteristicoIn matematica, e in particolare in algebra lineare, il polinomio caratteristico di una matrice quadrata su un campo èun polinomio definito a partire dalla matrice che ne descrive molte proprietà essenziali.Il polinomio caratteristico è un oggetto che dipende solo dalla classe di similitudine di una matrice, e pertantofornisce molte informazioni sulla natura intrinseca delle trasformazioni lineari, caratterizzate attraverso la traccia e ildeterminante. In particolare, le radici del polinomio sono gli autovalori della trasformazione lineare associata allamatrice. I coefficienti del polinomio sono pertanto detti invarianti della matrice e dell'applicazione ad essa associata.Il polinomio è anche utilizzato per determinare la forma canonica di luoghi geometrici esprimibili mediante matrici,come coniche e quadriche.

DefinizioneSia A una matrice quadrata a valori in un campo K. Il polinomio caratteristico di A nella variabile x è il polinomiodefinito nel modo seguente:[1]

cioè è il determinante della matrice , ottenuta sommando e . Qui denota la matrice identità,avente la stessa dimensione di , e quindi è la matrice diagonale avente il valore su ciascuna delle ncaselle della diagonale principale.In particolare, è autovalore di A se e solo se è radice del suo polinomio caratteristico.[2]

Grado e coefficienti del polinomioSia una matrice quadrata di ordine . Il polinomio caratteristico di ha grado . Alcuni dei suoi coefficientisono (a meno di segno) quantità notevoli per la matrice, come la traccia ed il determinante:

Il coefficiente di del polinomio è la somma moltiplicata per dei determinanti dei minori

"centrati" sulla diagonale.Ad esempio, se è una matrice 2 per 2 si ha:

Se è una matrice 3 per 3 si ha:

con:

dove è l'elemento di nella posizione .

Page 63: Base (algebra lineare) -

Polinomio caratteristico 61

AutovaloriLe radici in K del polinomio caratteristico sono gli autovalori di .[2]

Questo si dimostra formalmente ponendo autovettore di A. Si ha allora , ed in particolare:

Si ha quindi che il nucleo dell'applicazione è non nullo se è autovalore, e tale condizione èsoddisfatta se e solo se:

.Se è una matrice triangolare (superiore o inferiore) avente i valori sulla diagonale principale,allora

.Quindi il polinomio caratteristico di una matrice triangolare ha radici nel campo, date dai valori nella diagonaleprincipale. In particolare, questo fatto è vero per le matrici diagonali.

Invarianza per similitudine e diagonalizzabilitàDue matrici simili hanno lo stesso polinomio caratteristico.[3] Infatti, se:

per qualche matrice invertibile , si ottiene:

In tale catena di uguaglianze si fa uso del fatto che la matrice della forma commuta con qualsiasi altra e delteorema di Binet.Poiché due matrici che rappresentano un endomorfismo di uno spazio vettoriale a dimensione finita sonosimili, il polinomio caratteristico è una grandezza intrinseca di che riassume molte delle caratteristichedell'endomorfismo considerato, come traccia, determinante ed autovalori. Come conseguenza di questo fatto si hache è diagonalizzabile se esiste una base di V rispetto alla quale la matrice che rappresenta T è diagonale, e glielementi della diagonale sono gli autovalori.[4] In particolare, la base che diagonalizza T è composta da suoiautovettori.Il teorema di diagonalizzabilità fornisce, inoltre, un criterio necessario e sufficiente che permette di stabilire seun'applicazione lineare è diagonalizzabile. Una matrice quadrata A con n righe è diagonalizzabile se e solo sevalgono entrambi i fatti seguenti:• La somma delle molteplicità algebriche dei suoi autovalori è n, ovvero il polinomio caratteristico può essere

fattorizzato nel campo attraverso polinomi di primo grado.• Le molteplicità algebriche e geometriche di ogni autovalore sono coincidenti, ovvero la dimensione degli

autospazi è pari alla molteplicità con la quale il relativo autovalore è radice del polinomio caratteristico. Poiché lamolteplicità geometrica è sempre minore o uguale di quella algebrica, se l'applicazione ha n autovalori distinti nelcampo allora è diagonalizzabile.

Page 64: Base (algebra lineare) -

Polinomio caratteristico 62

Invarianza per trasposizioneLa matrice trasposta ha lo stesso polinomio caratteristico di . Infatti

Qui si fa uso del fatto che il determinante è invariante per trasposizione.

Esempio• Data:

allora

e quindi

Gli autovalori di A sono le radici del polinomio: 4 e 1.• Data:

in modo analogo si trova

Note[1] S. Lang, op. cit., Pag. 227[2] S. Lang, op. cit., Pag. 228[3] S. Lang, op. cit., Pag. 229[4] S. Lang, op. cit., Pag. 114

Bibliografia• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2

Voci correlate• Polinomio minimo• Autovettore e autovalore• Determinante• Teorema di Hamilton-Cayley

Page 65: Base (algebra lineare) -

Polinomio minimo 63

Polinomio minimoIn matematica, e più precisamente in algebra lineare, il polinomio minimo di una trasformazione lineare di unospazio vettoriale o di una matrice quadrata è il polinomio monico di grado minore fra tutti quelli che annullano latrasformazione o matrice.Il polinomio minimo è utile per determinare la diagonalizzabilità e la forma canonica di Jordan della trasformazioneo matrice.

Definizione

Matrici quadrateData una matrice quadrata a valori in un certo campo , si considera l'insieme

di tutti i polinomi che si annullano in . Questo insieme risulta essere un ideale nell'anello di tutti ipolinomi con coefficienti in .L'anello è un anello euclideo: è infatti possibile fare una divisione fra polinomi con resto. Conseguentemente,è un anello ad ideali principali: ogni ideale è generato da un unico elemento. In particolare,

è generato da un elemento . Tale elemento è unico solo a meno di moltiplicazione per una costante non nulla:è quindi unico se lo si suppone monico (cioè con coefficiente 1 nel termine più grande). Si definisce quindi ilpolinomio minimo di tale polinomio .

EndomorfismiDato un endomorfismo

di uno spazio vettoriale su di dimensione finita, il polinomio minimo di è definito in modo analogocome il generatore monico dell'ideale

formato da tutti i polinomi che annullano . L'endomorfismo è costruito interpretando la moltiplicazionecome composizione di endomorfismi.

ProprietàLe proprietà qui elencate per le matrici quadrate valgono anche per gli endomorfismi.

Polinomio caratteristico

Per il teorema di Hamilton-Cayley, se è il polinomio caratteristico di una matrice allora . Quindiè un elemento dell'ideale , e perciò il polinomio minimo è un divisore del polinomio caratteristico.

Più precisamente, se il polinomio caratteristico si decompone in fattori primi come

allora il polinomio minimo si decompone in fattori primi come

dove

Page 66: Base (algebra lineare) -

Polinomio minimo 64

In particolare, i polinomi minimo e caratteristico hanno gli stessi fattori primi.

TriangolarizzabilitàUna matrice è triangolarizzabile se e solo se il suo polinomio minimo ha tutte le radici nel campo .

DiagonalizzabilitàUna matrice è diagonalizzabile se e solo se ha tutti gli autovalori nel campo K e la molteplicità algebrica di ogniautovalore è uguale alla sua molteplicità geometrica. In particolare ogni matrice è diagonalizzabile se e solo se ilpolinomio minimo ad essa associato ha tutte radici nel campo K di molteplicità pari a 1.

Esempi

Grado uno

Il polinomio minimo di una matrice ottenuta moltiplicando uno scalare per la matrice identità è pari a

D'altra parte, se è di grado uno, la matrice è necessariamente del tipo .

DiagonaleIl polinomio minimo della matrice diagonale

è

mentre il polinomio caratteristico è

Blocco di JordanIl polinomio minimo di un blocco di Jordan

è

Page 67: Base (algebra lineare) -

Polinomio minimo 65

Applicazioni

DiagonalizzabilitàIl polinomio minimo è uno strumento potente per determinare la diagonalizzabilità di un endomorfismo.

Proiezioni

Una proiezione, nella sua accezione più generale, è un endomorfismo tale che

Una proiezione è sempre diagonalizzabile: infatti prendendo

vale . Ne segue che appartiene all'ideale , ed è quindi diviso dal polinomio minimo di .Poiché ha due radici 0 e 1 di molteplicità 1, anche ha radici di molteplicità 1, e quindi è diagonalizzabile.

InvoluzioniUna involuzione è un endomorfismo tale che

Analogamente, è radice del polinomio che ha due radici distinte. Quindi èdiagonalizzabile.

Voci correlate• Polinomio caratteristico• Forma canonica di Jordan

Page 68: Base (algebra lineare) -

Forma canonica di Jordan 66

Forma canonica di JordanIn matematica, più precisamente in algebra lineare, la forma canonica di Jordan di una matrice quadrata Adefinisce una matrice triangolare J simile ad A che ha una struttura il più possibile vicina ad una matrice diagonale.La matrice è diagonale se e solo se A è diagonalizzabile, altrimenti è divisa in blocchi detti blocchi di Jordan.La forma canonica caratterizza univocamente la classe di similitudine di una matrice. In altre parole, due matricisono simili se e solo se hanno la stessa forma di Jordan (a meno di permutazione dei blocchi).Il nome è dovuto al matematico francese Camille Jordan che si è occupato di matrici diagonalizzabili.

Definizione

Blocco di JordanUn blocco di Jordan di ordine k è una matrice triangolare superiore con k righe costituita nel seguente modo:

in cui ogni elemento della diagonale è uguale a ed in ogni posizione (i, i+1) si trova un 1. Il suo polinomiocaratteristico è , e quindi ha come unico autovalore con la molteplicità algebrica k. D'altra parte,l'autospazio relativo a è:

avente, quindi, dimensione 1. Dal teorema di diagonalizzabilità segue che se k>1 il blocco di Jordan non èdiagonalizzabile.

Matrice di JordanUna matrice di Jordan è una matrice a blocchi del tipo

dove Ji è un blocco di Jordan con autovalore λi. Ogni blocco di Jordan contribuisce con un autospaziounidimensionale relativo a λi.Come sopra, si vede che la molteplicità geometrica di λi, definita come la dimensione del relativo autospazio, è parial numero di blocchi con autovalore λi. D'altra parte, la molteplicità algebrica di λi, definita come la molteplicitàdella radice λi nel polinomio caratteristico di J, è pari alla somma degli ordini di tutti i blocchi con autovalore λi.In questo contesto, il teorema di diagonalizzabilità asserisce, quindi, che J è diagonalizzabile se e solo se lemolteplicità algebriche e geometriche coincidono, ovvero se e solo se i blocchi hanno tutti ordine pari ad 1: in altreparole, J è diagonalizzabile se e solo se è già diagonale.

Page 69: Base (algebra lineare) -

Forma canonica di Jordan 67

Teorema di JordanDiciamo che una matrice quadrata A con elementi in un campo K ha "tutti gli autovalori nel campo" se la sommadelle molteplicità algebriche dei suoi autovalori è pari al numero di righe di A. Questo equivale a dire che il suopolinomio caratteristico ha "tutte le radici nel campo", cioè che si spezza come prodotto di polinomi di primo grado.Questo è sempre vero se K è algebricamente chiuso, ad esempio se K = C è il campo dei numeri complessi.Il teorema di Jordan asserisce che ogni matrice ha una "forma canonica di Jordan", e che due matrici sono simili se esolo se hanno la stessa forma canonica:• Sia A una matrice quadrata con elementi in K avente tutti gli autovalori nel campo. Allora A è simile ad una

matrice di Jordan.• Due matrici di Jordan J e J' sono simili se e solo se si ottengono l'una dall'altra permutando i blocchi.

EsempiCalcoliamo la forma canonica di Jordan della matrice

Il suo polinomio caratteristico è , quindi i suoi autovalori sono 4, 4, 2 e 1. Ricordiamoche, se indichiamo con malg(λ) e mgeo(λ) le molteplicità algebrica e geometrica di un autovalore λ, valgono sempre leseguenti disuguaglianze:

Quindi in questo caso le molteplicità algebriche e geometriche degli autovalori 2 e 1 sono tutte 1, e l'unica grandezzada trovare è la molteplicità geometrica di 4, che può essere 1 o 2. La molteplicità geometrica di un autovalore indicail numero di blocchi di jordan presenti relativi a quell'autovalore. Vediamo che

Segue quindi che A non è diagonalizzabile, e l'autovalore 4 ha un solo blocco di Jordan. I dati che abbiamo sonosufficienti a determinare la matrice di Jordan, che è la seguente:

Polinomio minimoIl polinomio minimo m(x) di una matrice A è calcolabile a partire dalla sua forma di Jordan J. Infatti si decomponecome

dove λ1, ..., λk sono gli autovalori (distinti, cioè elencati senza molteplicità) di A, e ji è l'ordine del blocco di Jordanpiù grande fra tutti quelli relativi all'autovalore λi.Ad esempio, la seguente matrice

Page 70: Base (algebra lineare) -

Forma canonica di Jordan 68

ha come polinomio caratteristico e come polinomio minimo.Usando il teorema di Jordan e la decomposizione del polinomio minimo enunciata, si ha che le due matrici seguentihanno gli stessi polinomi caratteristici (e quindi anche lo stesso determinante, la stessa traccia e gli stessi autovalori),gli stessi polinomi minimi, ma non sono simili:

Voci correlate• Autovettore e autovalore• Diagonalizzabilità• Polinomio caratteristico• Polinomio minimo

Prodotto scalareIn matematica, il prodotto scalare è un'operazione binaria che associa ad ogni coppia di vettori appartenenti ad unospazio vettoriale definito sul campo reale un elemento del campo.[1] Si tratta di un prodotto interno sul campo reale,ovvero una forma bilineare simmetrica definita positiva a valori reali.Alcuni autori propongono una definizione più generale di prodotto scalare, senza specificarne l'appartenenza alcampo reale. Talvolta si identifica il prodotto scalare con il prodotto interno o con il concetto di forma bilinearesimmetrica.[2]

Si tratta di uno strumento fondamentale sia in fisica che in vari settori della matematica, ad esempio nellaclassificazione delle coniche, nello studio di una funzione differenziabile intorno ad un punto stazionario, delletrasformazioni del piano o nella risoluzione di alcune equazioni differenziali. Spesso in questi contesti viene fattouso del teorema spettrale, un importante risultato connesso al prodotto scalare. Nel piano cartesiano il prodottoscalare mette in relazione due vettori e le loro lunghezze con l'angolo fra questi, e permette di definire e trattare lenozioni geometriche di lunghezza, angolo e perpendicolarità in spazi vettoriali di dimensione arbitraria.La nozione di prodotto scalare è generalizzata in algebra lineare dallo spazio euclideo ad uno spazio vettorialequalsiasi: tale spazio può avere dimensione infinita ed essere definito su un campo arbitrario K. Questageneralizzazione è di fondamentale importanza ad esempio in geometria differenziale e in meccanica razionale.Aggiungendo un'ulteriore proprietà, la completezza, porta inoltre al concetto di spazio di Hilbert, per il quale lateoria si arricchisce di strumenti più sofisticati, basilari nella modellizzazione della meccanica quantistica e in molticampi dell'analisi funzionale.

Page 71: Base (algebra lineare) -

Prodotto scalare 69

DefinizioneSi definisce prodotto scalare sullo spazio vettoriale V una forma bilineare simmetrica che associa a due vettori v e wdi V uno scalare nel campo reale R, generalmente indicato con o .[3]

Si tratta di un operatore binario che verifica le seguenti condizioni per v, w, u vettori arbitrari e k elemento delcampo:• Simmetria:

• Linearità rispetto al primo termine:

Diversi autori richiedono anche che la forma sia definita positiva, cioè che:[1]

per ogni v diverso da zero.Le precedenti richieste implicano anche le seguenti proprietà:• Linearità rispetto al secondo termine:

e dal momento che un vettore moltiplicato per 0 restituisce il vettore nullo, segue che:

Se il prodotto scalare tra un vettore ed i restanti elementi dello spazio vettoriale è nullo solo se l'elemento consideratoè il vettore nullo, il prodotto scalare è detto non degenere.

Prodotto scalare definito positivo e negativoUn prodotto scalare su uno spazio vettoriale V è definito positivo se:[4]

definito negativo se:

semi-definito positivo:

semi-definito negativo se:

Un prodotto scalare semi-definito positivo è (raramente) chiamato anche prodotto pseudoscalare.

Page 72: Base (algebra lineare) -

Prodotto scalare 70

Prodotto scalare nello spazio euclideo

Interpretazione geometrica del prodotto scalare(quando B ha lunghezza unitaria)

Il prodotto scalare di due vettori a e b del piano, applicati sullostesso punto, è definito come

dove |a| e |b| sono le lunghezze di a e b, e θ è l'angolo tra i duevettori. Il prodotto scalare si indica come a·b, e soddisfa leproprietà algebriche di simmetria,

per ogni coppia di vettori a e b, e di bilinearità:

per ogni tripletta di vettori a, b, c e per ogni numero reale . Leprime due relazioni esprimono la "linearità a destra" e le altre due"a sinistra".Il prodotto scalare di un vettore con se stesso è sempre maggiore ouguale a zero:

Inoltre, questo è zero se e solo se il vettore è zero (proprietà diannullamento del prodotto scalare):

Questa proprietà può essere espressa affermando che il prodottoscalare è definito positivo.

Interpretazione geometrica

Poiché |a|·cos(θ) è la lunghezza della proiezione ortogonale di a sub, si può interpretare geometricamente il prodotto scalare come ilprodotto delle lunghezze di questa proiezione e di b. Si possonoinoltre scambiare i ruoli di a e b, interpretare |b|·cos(θ) come lalunghezza della proiezione di b su a ed il prodotto scalare come il prodotto delle lunghezze di questa proiezione e dia.

Page 73: Base (algebra lineare) -

Prodotto scalare 71

Prodotto scalare positivo, nullo e negativoIl coseno di un angolo θ è positivo se θ è un angolo acuto (cioè -90° <θ < 90°), nullo se θ è un angolo retto enegativo se è un angolo ottuso. Ne segue che il prodotto scalare a·b è:• positivo se |a| > 0, |b| >0 e l'angolo θ è acuto;• nullo se |a|=0, |b|=0 oppure θ è retto;• negativo se |a|>0, |b|>0 e l'angolo θ è ottuso.I casi in cui θ è acuto ed ottuso sono mostrati in figura. In entrambi i casi il prodotto scalare è calcolato usandol'interpretazione geometrica, ma il segno è differente.In particolare, valgono inoltre le proprietà seguenti• se θ = 0 i vettori sono paralleli ed a·b = |a|·|b|;• se θ = 90° i vettori sono ortogonali ed a·b = 0;• se θ = 180° i vettori sono paralleli ma orientati in verso opposto, ed a·b = - |a|·|b|.Se a e b sono versori, cioè vettori di lunghezza 1, il loro prodotto scalare è semplicemente il coseno dell'angolocompreso.Il prodotto scalare di un vettore a con se stesso a·a = |a|2 è il quadrato della lunghezza |a| del vettore.

Applicazioni in fisica

Il lavoro è il prodotto scalare fra i vettori e.

Nella fisica classica, il prodotto scalare è usato nei contesti in cui sidebba calcolare la proiezione di un vettore lungo una determinatacomponente. Ad esempio, il lavoro prodotto da una forza su uncorpo che si sposta in direzione è il prodotto scalare

dei due vettori.

Applicazioni in geometria

Il teorema del coseno può essere formulato agevolmente usando ilprodotto scalare. Dati tre punti qualsiasi del piano, vale larelazione seguente:

Espressione analitica

Il prodotto scalare è definito in geometria analitica in modo differente: si tratta della funzione che, in un qualsiasispazio euclideo associa a due vettori a = [a1, a2, ... , an] e b = [b1, b2, ... , bn] il numero

dove Σ denota una sommatoria.Ad esempio, il prodotto scalare di due vettori tridimensionali [1, 3, −2] e [4, −2, −1] è [1, 3, −2]·[4, −2, −1] = 1×4 +3×(−2) + (−2)×(−1) = 0.In questo modo è possibile definire l'angolo θ compreso fra due vettori in un qualsiasi spazio euclideo, invertendo laformula data sopra, facendo cioè dipendere l'angolo dal prodotto scalare e non viceversa:

Page 74: Base (algebra lineare) -

Prodotto scalare 72

NotazioniSpesso il prodotto scalare fra a e b si indica anche come o come .Utilizzando il prodotto tra matrici e considerando i vettori come matrici , il prodotto scalare canonico si scriveanche come

dove aT è la trasposta di a. L'esempio visto sopra si scrive quindi in notazione matriciale nel modo seguente:

Equivalenza fra le due definizioniL'equivalenza fra le due definizioni può essere verificata facendo uso del teorema del coseno. Nella forma descrittasopra, il teorema asserisce che il prodotto scalare di due vettori a e b nel piano, definito in modo geometrico, è pari a

Ponendo a = [a1, a2] e b = [b1, b2] ed usando il teorema di Pitagora si ottiene

L'equivalenza in uno spazio euclideo di dimensione arbitraria può essere verificata in modo analogo.

Applicazioni

Norma di un vettoreSe K=R ed il prodotto scalare è definito positivo, è possibile dotare lo spazio vettoriale di una norma. Piùprecisamente, la funzione:

soddisfa per ogni vettori x, y e per ogni scalare le proprietà:

• se e solo se ••e dunque rende lo spazio vettoriale uno spazio normato.

Matrice associataIn modo analogo alla matrice associata ad una applicazione lineare, fissata una base , un prodottoscalare φ è identificato dalla matrice simmetrica associata M, definita nel modo seguente:

D'altro canto, ogni matrice simmetrica dà luogo ad un prodotto scalare. Molte proprietà del prodotto scalare e dellabase possono essere lette sulla matrice associata.

Page 75: Base (algebra lineare) -

Prodotto scalare 73

RadicaleIl radicale di un prodotto scalare è l'insieme dei vettori v in V per cui:

per ogni w in V. Il radicale è un sottospazio vettoriale di V. Il prodotto scalare si dice degenere se il radicale hadimensione maggiore di zero.Se V ha dimensione finita e M è la matrice associata a φ rispetto ad una qualsiasi base, applicando il teorema delladimensione si trova facilmente che:

dove rk(M) è il rango di M e rad(V) è il radicale. Quindi un prodotto scalare è non degenere se e solo se la matriceassociata è invertibile. Si definisce il rango del prodotto scalare come rk(M).Un prodotto scalare definito positivo o negativo è necessariamente non degenere. Non è vero il contrario, infatti ilprodotto scalare associato rispetto alla base canonica alla matrice:

non è degenere, ma non è né definito positivo né definito negativo.

Vettori isotropi

Un vettore v è isotropo se = 0. Tutti i vettori del radicale sono isotropi, ma possono esistere vettori isotropiche non appartengono al radicale. Ad esempio, per il prodotto scalare associato alla matrice A descritta sopra ilvettore è isotropo ma non è contenuto nel radicale, che ha dimensione zero.

Ortogonalità

Due vettori v e w si dicono ortogonali se . Il sottospazio ortogonale ad un sottospazio W di V èdefinito come:

Il sottospazio ortogonale è appunto un sottospazio vettoriale di V. Contrariamente a quanto accade con il prodottocanonico nello spazio euclideo, un sottospazio ed il suo ortogonale non si intersecano in generale in un punto solo(possono addirittura coincidere). Per quanto riguarda le loro dimensioni, vale la seguente disuguaglianza:

Se il prodotto scalare è non degenere, vale l'uguaglianza

Infine, se il prodotto scalare è definito positivo o negativo, effettivamente uno spazio e il suo ortogonale siintersecano solo nell'origine e sono in somma diretta. Si ottiene:

Una base ortogonale di vettori di V è una base di vettori a due a due ortogonali. Una base è ortogonale se e solo se lamatrice associata al prodotto scalare rispetto a questa base è diagonale.

Page 76: Base (algebra lineare) -

Prodotto scalare 74

Trasformazione ortogonaleUna trasformazione ortogonale è una applicazione lineare invertibile T:V → V in sé che preserva il prodotto scalare,cioè tale che:

Teorema di SylvesterSe K = R è il campo dei numeri reali e V ha dimensione n, il teorema di Sylvester reale afferma che, dato un prodottoscalare φ su V, si ha:• Esiste una base ortogonale di V per φ.• Due basi ortogonali per V hanno la stessa segnatura, che dipende quindi solo da φ-• Due prodotti scalari con la stessa segnatura sono isomorfi.Quindi la matrice associata è una matrice diagonale avente sulla diagonale solo i numeri 0, 1, e -1, in ordine sparso.Siano i0, i+ e i- rispettivamente il numero di volte che compaiono i numeri 0, 1 e -1 sulla diagonale: la terna (i0, i+ ei-) è la segnatura del prodotto scalare.La segnatura è un invariante completo per l'isometria: due spazi vettoriali con prodotto scalare sono isometrici se esolo se hanno la stessa segnatura.Il teorema di Sylvester complesso dice invece che esiste sempre una base ortogonale v1, ..., vn tale che per ogni i ilnumero è uguale a 0 oppure 1. In questo caso, il rango è un invariante completo per l'isometria: due spazivettoriali complessi con prodotto scalare sono isometrici se e solo se hanno lo stesso rango.

Endomorfismo simmetricoUn endomorfismo T:V → V è simmetrico o autoaggiunto rispetto al prodotto scalare se:

per ogni coppia di vettori v e w in V. Un endomorfismo è simmetrico se e solo se la matrice associata rispetto ad unaqualsiasi base ortonormale è simmetrica.

Esempi• Il prodotto scalare canonico fra vettori del piano o dello spazio euclideo è un prodotto scalare definito positivo.• Sia C([0, 1]) lo spazio vettoriale delle funzioni continue sull'intervallo [0,1], a valori reali. Definiamo un prodotto

scalare su C[0, 1] ponendo: :

Questo prodotto scalare è definito positivo, perché l'integrale di f2 è strettamente positivo se f non è costantementenulla.

• Definiamo sullo spazio vettoriale M([0, 1]) delle funzioni misurabili a valori reali lo stesso prodotto scalare delpunto precedente. Qui il prodotto scalare è solo semidefinito positivo: infatti se f è la funzione che vale 1 su 1/2 e0 su tutto il resto, l'integrale di f2 è zero (f è isotropa).

Page 77: Base (algebra lineare) -

Prodotto scalare 75

Note[1] Hoffman, Kunze, op. cit., Pag. 271[2] S. Lang, op. cit., Pag. 149[3] S. Lang, op. cit., Pag. 185[4] S. Lang, op. cit., Pag. 151

Bibliografia• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2• Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971.

ISBN 01-353-6821-9

Voci correlate• Prodotto vettoriale• Spazio euclideo• Spazio di Hilbert• Teorema di Sylvester• Teorema spettrale• Identità di polarizzazione

Altri progetti

• Wikibooks contiene testi o manuali: http:/ / it. wikibooks. org/ wiki/ Implementazioni di algoritmi/Prodottoscalare

Forma bilineareIn matematica, più precisamente in algebra lineare, una forma bilineare è una mappa bilineare V × W → F, dove F èun campo, lineare in entrambe le componenti.

DefinizioneSiano V e W spazi vettoriali. Una forma bilineare sul campo è una mappa

che associa ad ogni coppia di elementi , lo scalare ed è lineare su entrambe lecomponenti, cioè:[1]

con e .Fissato uno dei due argomenti la funzione è quindi lineare rispetto all'altro.Se V e W coincidono, la forma si dice bilineare su V (o su W).[2]

Page 78: Base (algebra lineare) -

Forma bilineare 76

Rappresentazione in coordinateSe V ha dimensione n finita, ogni forma bilineare φ su V può essere rappresentata come una matrice quadrata con nrighe. Come per le applicazioni lineari, per fare ciò è necessario scegliere una base {v1, ... v

n} per V, in quanto la

matrice risultante dipende dalla base scelta.

La matrice B è definita per componenti da . A questo punto, l'azione della forma bilineare su duevettori u e w di V si ricava nel modo seguente, tramite moltiplicazione tra matrici:

dove u e w sono le coordinate di u e w rispetto alla base, aventi componenti ui e wj.

Relazione con lo spazio dualeOgni forma bilineare B su V definisce una coppia di mappe lineari da V nel suo spazio duale V*. Si definiscano B1,B2:V → V* nel modo seguente:

In altre parole, B1(v) è l'elemento di V* che manda w in B1(v, w).Per distinguere l'elemento v dall'argomento w della funzione ottenuta si usa la notazione:

dove ( ) indica il posto per l'argomento della mappa.Ogni mappa lineare T: V → V* definisce analogamente una funzione bilineare:

Forme simmetriche e antisimmetricheUna forma bilineare φ: V × V → K è detta simmetrica se:[3]

per ogni v, w in V.Una forma bilineare φ: V × V → K è detta antisimmetrica o alternante se:

per ogni v, w in V.Una forma bilineare φ è simmetrica se e solo se la sua matrice associata (rispetto ad una base qualsiasi) èsimmetrica, ed è antisimmetrica se e solo se la matrice associata è antisimmetrica.Se la forma bilineare è simmetrica, le due mappe φ1, φ2: V → V* definite sopra coincidono.Se K non ha caratteristica 2, allora una caratterizzazione equivalente di una forma antisimmetrica è:

per ogni v in V. In caso contrario, la condizione precedente è solo sufficiente.

Page 79: Base (algebra lineare) -

Forma bilineare 77

Prodotto scalareUna forma bilineare simmetrica è spesso chiamata prodotto scalare.[3] Altri autori definiscono invece il prodottoscalare come una forma bilineare simmetrica a valori nel campo R dei numeri reali che sia definita positiva, ovverocon per ogni v diverso da zero e .

Forma degenereUna forma bilineare φ definita su uno spazio V di dimensione finita è degenere se la matrice B che la rappresentarispetto ad una base ha determinante nullo. Altrimenti, è detta non degenere. La definizione non dipende dalla basescelta per rappresentare la forma come matrice.I fatti seguenti sono equivalenti:• φ è degenere;• esiste un vettore non nullo tale che per ogni ;• esiste un vettore non nullo tale che per ogni .

Esempi• Il prodotto scalare canonico fra vettori del piano o dello spazio euclideo è una forma bilineare simmetrica.• Sia C[0, 1] lo spazio vettoriale delle funzioni continue sull'intervallo [0,1], a valori reali. Un esempio di forma

bilineare simmetrica su C[0, 1] è data da:

Note[1] S. Lang, op. cit., Pag. 182[2] S. Lang, op. cit., Pag. 183[3] S. Lang, op. cit., Pag. 185

Bibliografia• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2

Voci correlate• Prodotto scalare• Forma quadratica• Forma sesquilineare

Page 80: Base (algebra lineare) -

Spazio euclideo 78

Spazio euclideoIn matematica, la nozione di spazio euclideo fornisce una generalizzazione degli spazi a due e a tre dimensionistudiati dalla geometria euclidea. Per ogni intero naturale n si dispone di uno spazio euclideo ad n dimensioni: questosi ottiene dallo spazio vettoriale ad n dimensioni arricchendolo con le nozioni che consentono di trattare le nozioni didistanza, lunghezza e angolo. È l'esempio "standard" di spazio di Hilbert reale a dimensione finita.

Spazio

DefinizioneSia il campo dei numeri reali e sia n un numero naturale. Una n-upla di numeri reali è una sequenza (ossia uninsieme ordinato) di n numeri reali. Lo spazio di tutte le n-uple di numeri reali forma uno spaziovettoriale di dimensione n su , indicato con . Le operazioni di somma e prodotto per scalare sono definite da

Basi di spazi vettorialiUna base dello spazio che presenta vari vantaggi è la sua cosiddetta base canonica

.Un vettore arbitrario in può dunque essere scritto nella forma

Lo spazio è il prototipo di uno spazio vettoriale reale a dimensione n: infatti ogni spazio vettoriale V didimensione n è isomorfo a . Notiamo che non si impone un isomorfismo canonico: la scelta di un isomorfismotra e V è equivalente alla scelta di una base per V. In molte fasi dello sviluppo dell'algebra lineare gli spazivettoriali a dimensione n vengono comunque studiati in astratto, perché molte considerazioni sono più semplici edessenziali se svolte senza fare riferimento ad una base particolare.

Struttura euclideaLo spazio euclideo è più che un semplice spazio vettoriale. Per ottenere la geometria euclidea si deve poter parlare didistanze e angoli, iniziando con la distanza fra due punti e l'angolo formato da due rette o da due vettori. Il modointuitivo per fare questo è l'introduzione di quello che viene chiamato prodotto scalare standard su . Questoprodotto, se i vettori x e y sono riferiti alla base canonica definita sopra, è definito da

Lo spazio delle n-uple di numeri reali arricchito con il prodotto scalare, funzione che a due n-uple di reali x e yassocia un numero reale, costituisce una struttura più ricca di chiamata spazio euclideo n-dimensionale. Perdistinguerlo dallo spazio vettoriale delle n-uple reali in genere viene denotato con En .Il prodotto scalare permette di definire una "lunghezza" non negativa per ogni vettore x di En nel seguente modo

Page 81: Base (algebra lineare) -

Spazio euclideo 79

Questa funzione lunghezza soddisfa le proprietà richieste per una norma e viene chiamata norma euclidea o normapitagorica su . L'angolo (interno) θ fra due vettori x e y di En è quindi definito come

dove arccos è la funzione arcocoseno.Con queste definizioni la base canonica dello spazio vettoriale diventa una base ortonormale per lo spazioeuclideo ottenuto arricchendolo con il prodotto scalare standard.A questo punto si può usare la norma per definire una funzione distanza (o metrica) su nel seguente modo

La forma di questa funzione distanza è basata sul teorema di Pitagora, ed è chiamata metrica euclidea.Ogni spazio euclideo quindi costituisce un esempio (a dimensione finita) di spazio di Hilbert (v. a. spazioprehilbertiano), di spazio normato e di spazio metrico.Va osservato che in molti contesti, lo spazio euclideo di n dimensioni viene denotato con , dando per scontata lastruttura euclidea. In effetti per molti fini applicativi la distinzione che abbiamo fatta non ha gravi conseguenze e lasuddetta identificazione va considerata un abuso di linguaggio veniale. Infatti negli spazi euclidei si possonointrodurre le nozioni di sottospazio e di trasformazione lineare senza complicazioni rispetto a quanto fatto per glispazi vettoriali.Osserviamo anche che ogni sottospazio vettoriale W di dimensione m (< n) di En è isometrico allo spazio euclideoEm, ma non in modo canonico: per stabilire una corrispondenza utilizzabile per dei calcoli è necessaria la scelta diuna base ortonormale per W e questa, se in W non si trova alcun vettore della base canonica di En, non può servirsi dialcun elemento di tale base.

Generalizzazione sui complessiAccanto agli spazi euclidei reali si possono introdurre loro varianti sui numeri complessi, arricchendo lo spaziovettoriale n-dimensionale sul campo dei complessi con un cosiddetto prodotto interno hermitiano costituito da unaforma sesquilineare.In questo caso il prodotto scalare tra vettori viene definito con l'espressione:

La proprietà riflessiva di tale composizione diventa:

e per la moltiplicazione per uno scalare si ha:

.

Page 82: Base (algebra lineare) -

Spazio euclideo 80

Topologia euclideaDal momento che lo spazio euclideo è uno spazio metrico, lo si può considerare anche uno spazio topologicodotandolo della naturale topologia indotta dalla metrica. Questo può farsi definendo come base di insiemi apertil'insieme delle palle aperte, insiemi dei punti che distano da un punto dato meno di un reale positivo fissato (raggiodella palla). Mediante questi insiemi aperti si definiscono tutte le nozioni che servono alla topologia metrica su En.Questa è detta topologia euclidea e si rivela equivalente alla topologia prodotto su considerato come prodottodi n copie della retta reale dotata della sua usuale topologia.Con la "strumentazione" degli spazi vettoriali topologici gli spazi euclidei sono in grado da fornire gli ambienti neiquali sviluppare sistematicamente numerose nozioni dell'analisi matematica, della geometria euclidea, dellageometria differenziale e della fisica matematica classica.

Invarianza dei dominiUn risultato importante per la topologia di è l'invarianza dei domini di Brouwer. Ogni sottoinsieme di (conla sua topologia del sottospazio), omeomorfo a un altro sottoinsieme aperto di , è esso stesso aperto.Un'immediata conseguenza di questo è che non è omeomorfo a se - un risultato intuitivamente"ovvio" ma che è difficile da dimostrare rigorosamente.

Varietà e strutture esoticheLo spazio euclideo è il prototipo di varietà topologica, e anche di varietà differenziabile. I due concetti coincidono ingenerale, tranne in dimensione 4: come mostrato da Simon Donaldson e da altri, è possibile assegnare a delle"strutture differenziali esotiche", che rendono lo spazio topologico non diffeomorfo allo spazio standard.

Voci correlate• Geometria euclidea• Prodotto scalare• Spazio di Minkowski• Superspazio

Page 83: Base (algebra lineare) -

Base ortonormale 81

Base ortonormaleIn matematica, e più precisamente in algebra lineare, una base ortonormale di uno spazio vettoriale munito diprodotto scalare definito positivo è una base composta da vettori di norma unitaria.Una base ortogonale è una base di vettori ortogonali rispetto al prodotto scalare definito sullo spazio vettoriale, nonnecessariamente definito positivo. Si tratta di una condizione meno restrittiva rispetto a quella diortonormalizzazione, e solitamente si costruiscono basi ortonormali a partire da basi ortogonali.I concetti di base ortonormale e ortogonale generalizzano la nozione di sistema di riferimento nel piano cartesiano, erendono possibile definire degli assi perpendicolari, e quindi un sistema di riferimento che assegna ad ogni puntodelle coordinate su uno spazio vettoriale con dimensione arbitraria.

DefinizioneSia uno spazio vettoriale di dimensione finita sul campo K, nel quale sia definito un prodotto scalare. Una baseortogonale per è una base composta da vettori a due a due ortogonali, cioè tali che:[1]

Si ponga il prodotto scalare definito positivo. Una base ortonormale è una base ortogonale in cui ogni vettore hanorma uno, cioè tale che:[2]

Questa nozione si generalizza ad uno spazio di Hilbert (che può essere reale o complesso, e con dimensione finitao infinita) nel modo seguente: una base ortonormale è un insieme di vettori indipendenti, ortogonali e di norma 1,che generano un sottospazio denso in . Una tale base è spesso detta base hilbertiana.Se B è una base ortogonale di , ogni elemento x di può essere scritto in maniera unica come:

ed il numero:

è detto coefficiente di fourier di x rispetto al vettore di base vi.[3]

Se B è una base ortonormale si ha:

La norma di x è quindi data da:[4]

Se B è unabase ortonormale di , allora è isomorfo a ℓ 2(B) nel senso che esiste una mappa lineare e biunivocaΦ : H -> ℓ 2(B) tale che:

per ogni coppia di vettori x e y di .

Page 84: Base (algebra lineare) -

Base ortonormale 82

Esempi• L'insieme {(1,0,0),(0,1,0),(0,0,1)} costituisce una base ortogonale e ortonormale di .• L'insieme {fn : n ∈ } con fn(x) = exp(2πinx) costituisce una base ortonormale dello spazio complesso L2([0,1]).

Ciò è di fondamentale importanza nello studio delle Serie di Fourier.• L'insieme {eb : b ∈ B} con eb(c) = 1 se b=c e 0 altrimenti costituisce una base ortonormale di l2(B).

Proprietà• Ogni spazio vettoriale di dimensione finita, dotato di un prodotto scalare, possiede basi ortogonali grazie al

teorema di Sylvester.• Da ogni base ortogonale si può ottenere una base ortonormale normalizzando (dividendo) i componenti della base

per la loro norma. Ad esempio, da che già sappiamo ortogonale, abbiamo

.

• Ogni spazio euclideo possiede basi ortonormali, grazie all'algoritmo di ortogonalizzazione di Gram-Schmidt.• Una matrice di cambiamento di base fra basi ortonormali è una matrice ortogonale.• Se B è una base ortonormale di uno spazio di Hilbert V, ogni elemento v di V si scrive in modo unico come

e la norma di v è data dall'identità di Parseval

Inoltre il prodotto scalare fra due vettori è dato da

Queste espressioni hanno senso anche se B è non numerabile: in questo caso solo un insieme numerabile di addendi ènon-nullo. Le serie di Fourier sono un esempio.• Una base hilbertiana è numerabile se e solo se lo spazio è separabile

Note[1] S. Lang, op. cit., Pag. 151[2] S. Lang, op. cit., Pag. 155[3] S. Lang, op. cit., Pag. 152[4] S. Lang, op. cit., Pag. 154

Bibliografia• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2

Voci correlate• Prodotto scalare• Forma hermitiana• Spazio di Hilbert• Identità di Parseval

Page 85: Base (algebra lineare) -

Ortogonalizzazione di Gram-Schmidt 83

Ortogonalizzazione di Gram-SchmidtIn matematica, e in particolare in algebra lineare, l'ortogonalizzazione Gram-Schmidt è un algoritmo che permettedi ottenere un insieme di vettori ortogonali a partire da un generico insieme di vettori linearmente indipendenti inuno spazio vettoriale dotato di un prodotto scalare definito positivo.[1]

L'algoritmoSia V uno spazio vettoriale reale con un prodotto scalare definito positivo. Siano

dei vettori indipendenti in V. L'algoritmo di Gram-Schmidt restituisce n vettori linearmente indipendenti

tali che:

In altre parole, i vettori restituiti sono ortonormali, ed i primi i generano lo stesso sottospazio di prima.[1]

ProcedimentoDefiniamo la proiezione ortogonale come la funzione che proietta il vettore v in modo ortogonale su u:[2]

Il procedimento di Gram–Schmidt permette di costruire una base ortogonale a partire da una basegenerica . Normalizzando quindi la base ortogonale si ottiene una base ortonormale dello spazio.Il procedimento è il seguente:[3]

I primi due passi dell'algoritmo.

Page 86: Base (algebra lineare) -

Ortogonalizzazione di Gram-Schmidt 84

DimostrazionePer verificare che queste formule producono una sequenza di vettori mutuamente ortogonali, per prima cosacalcoliamo il prodotto scalare fra e1 e e2 sostituendo la precedente espressione per u2: troveremo zero.Successivamente teniamo conto di questo fatto per calcolare il prodotto scalare fra e1 ed e3, ora sostituendo u3 con larelativa espressione: troveremo ancora zero. La dimostrazione generale procede per induzione.Geometricamente, questo metodo viene descritto come segue. Per calcolare ui, si proietta vi ortogonalmente sulsottospazio Ui-1 generato da u1,...,ui-1, che è lo stesso del sottospazio generato da v1,...,vi-1. si definisce allora ui comedifferenza tra vi e questa proiezione, in modo che risulta garantito che esso sia ortogonale a tutti i vettori nelsottospazio Ui-1.Poiché però vogliamo dei vettori di norma uno, ad ogni passo normalizziamo il vettore ui.

GeneralizzazioniIl processo di Gram-Schmidt si applica anche ad una successione infinita {vi}i di vettori linearmente indipendenti. Ilrisultato è sempre una successione {ei}i di vettori ortogonali e con norma unitaria, tale che

Uso del determinanteIl risultato del procedimento di Gram–Schmidt può essere espresso in modo non ricorsivo utilizzando la seguenteformula:

dove D 0=1, e per j ≥ 1 D j è la matrice di Gram:

L'espressione per uk è un determinante "formale", ovvero la matrice contiene sia scalari che vettori.

EsempioConsideriamo i vettori seguenti nel piano euclideo R2, con il prodotto scalare standard.

Applichiamo il procedimento di Gram-Schmidt per ottenere vettori ortogonali:

Verifichiamo che i vettori u1 e u2 sono effettivamente ortogonali:

Page 87: Base (algebra lineare) -

Ortogonalizzazione di Gram-Schmidt 85

Cenni storiciIl procedimento è così chiamato in onore del matematico danese Jørgen Pedersen Gram (1850-1916) e delmatematico tedesco Erhard Schmidt (1876-1959); esso però è stato introdotto precedentemente ai loro studi e sitrova in lavori di Laplace e Cauchy.Quando si implementa l'ortogonalizzazione su un computer, al processo di Gram-Schmidt di solito si preferisce latrasformazione di Householder, in quanto questa è numericamente più stabile, cioè gli errori causatidall'arrotondamento sono minori.

Note[1] Hoffman, Kunze, op. cit., Pag. 280[2] S. Lang, op. cit., Pag. 152[3] S. Lang, op. cit., Pag. 154

Bibliografia• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2• Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971.

ISBN 01-353-6821-9

Voci correlate• Teorema di Sylvester• Prodotto scalare• Teorema spettrale• Algoritmo di Lagrange

Page 88: Base (algebra lineare) -

Forma sesquilineare 86

Forma sesquilineareIn matematica una forma sesquilineare sopra uno spazio vettoriale complesso è una funzione che associa ad ognicoppia di vettori dello spazio un numero complesso e che è antilineare nel primo argomento e lineare nel secondo. Ilnome trae origine dal prefisso sesqui che significa "uno e mezzo", in sintonia con il termine forma bilineare,funzione con due argomenti che è lineare in entrambi.Talora si chiede invece che una trasformazione sesquilineare sia lineare nel primo argomento e antilineare nelsecondo: questa è infatti la convenzione utilizzata dai matematici. La convenzione qui scelta è invece quella seguitadai fisici quando trattano di meccanica quantistica, e trae origine dalla notazione bra-ket introdotta da Paul Dirac nelformalismo della meccanica quantistica. Inoltre vari autori che studiano implicitamente soltanto spazi vettorialicomplessi, usano per brevità il termine forma bilineare al posto di sesquilineare.Una forma sesquilineare simmetrica è detta forma hermitiana, ed è analoga alla forma bilineare simmetrica nel casoreale.[1] Una forma hermitiana definita positiva è inoltre detta prodotto interno o prodotto hermitiano. Se siconsidera il campo reale tale prodotto è detto prodotto scalare.[2]

DefinizioneSia V uno spazio vettoriale complesso. Una forma sesquilineare sul campo è una mappa:

che associa ad ogni coppia di elementi e lo scalare .Si tratta di un'applicazione lineare su una componente ed antilineare sull'altra, cioè:

•••con e .In altre parole, per ogni z in V fissato, le applicazioni

sono rispettivamente lineare e antilineare.

Forma hermitianaData una qualsiasi forma sesquilineare su V, è sempre possibile associare una seconda forma sesquilineare che si dice ottenuta per trasposizione coniugata:

e si ha:

Una forma hermitiana è una forma sesquilineare : V × V → C tale che:[3]

La forma hermitiana standard sullo spazio Cn è definita nel modo seguente:

Tali forme sono l'equivalente complesso delle forme bilineari simmetrica e antisimmetrica. Analogamente a quantoaccade nel caso reale, ogni forma sesquilineare può essere scritta come somma di una hermitiana e di unaantihermitiana:

Page 89: Base (algebra lineare) -

Forma sesquilineare 87

Prodotto internoIl prodotto interno, anche detto prodotto hermitiano, è una forma hermitiana definita positiva, cioè tale che:[2]

se . Un prodotto hermitiano è sovente indicato con , ed uno spazio vettoriale complesso munito diprodotto hermitiano si dice spazio prehilbertiano.Il prodotto interno è in generale definito sul campo complesso, e nel caso si consideri il campo reale tale prodotto èdetto prodotto scalare.

Forma antihermitianaUna forma antihermitiana è una forma sesquilineare : V × V → C tale che:

ovvero:

Ogni forma antihermitiana si può esprimere come:

dove i è l'unità immaginaria e è una forma hermitiana.Analogamente al caso precedente, in dimensione finita una forma antihermitiana è rappresentabile tramite unamatrice antihermitiana. La forma quadratica associata ad una forma antihermitiana ha solo valori immaginari.

Matrice associataSupponiamo che V abbia dimensione finita. Sia

una base di V. Ogni forma hermitiana è rappresentata da una matrice hermitiana H definita come

e vale la relazione

dove è il vettore in Cn delle coordinate di v rispetto a B. D'altra parte, ogni matrice hermitiana definisce unprodotto hermitianwo. Come per le applicazioni lineari, questa corrispondenza fra forme e matrici dipendefortemente dalla scelta della base B.

Page 90: Base (algebra lineare) -

Forma sesquilineare 88

Forma quadraticaAd una forma hermitiana è possibile associare una forma quadratica definita come:

Tale forma ha tutti valori reali: una forma sesquilineare è hermitiana se e solo se la forma quadratica a lei associataha solo valori reali.

Note[1] S. Lang, op. cit., Pag. 197[2] Hoffman, Kunze, op. cit., Pag. 271[3] S. Lang, op. cit., Pag. 158

Bibliografia• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2• Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971.

ISBN 01-353-6821-9

Voci correlate• forma bilineare• teorema spettrale• spazio prehilbertiano• spazio di Hilbert

Teorema spettraleIn matematica, in particolare nell'algebra lineare e nell'analisi funzionale, il teorema spettrale si riferisce a una seriedi risultati relativi agli operatori lineari oppure alle matrici. In termini generali il teorema spettrale forniscecondizioni sotto le quali un operatore o una matrice possono essere diagonalizzati, cioè rappresentati da una matricediagonale in una certa base.In dimensione finita, il teorema spettrale asserisce che ogni endomorfismo simmetrico di uno spazio vettoriale realedotato di un prodotto scalare definito positivo ha una base ortonormale formata da autovettori. Equivalentemente,ogni matrice simmetrica reale è simile ad una matrice diagonale tramite una matrice ortogonale.In dimensione infinita, il teorema spettrale assume forme diverse a seconda del tipo di operatori cui si applica. Adesempio, esiste una versione per operatori autoaggiunti in uno spazio di Hilbert.Il teorema spettrale fornisce anche una decomposizione canonica, chiamata decomposizione spettrale, dello spaziovettoriale.

Page 91: Base (algebra lineare) -

Teorema spettrale 89

Caso finito-dimensionaleIl teorema spettrale è innanzitutto un importante teorema riguardante gli spazi vettoriali (reali o complessi) didimensione finita.

EnunciatoIl teorema spettrale può essere enunciato per spazi vettoriali reali o complessi muniti di prodotto scalare o hermitianodefinito positivo. L'enunciato è essenzialmente lo stesso nei due casi.Il teorema nel caso reale può anche essere interpretato come il caso particolare della versione complessa. Come moltialtri risultati in algebra lineare, il teorema può essere enunciato in due forme diverse: usando il linguaggio delleapplicazioni lineari o delle matrici. Nel caso complesso l'enunciato per spazi vettoriali complessi muniti di unprodotto hermitiano è analogo a quello reale, ma sotto ipotesi più deboli: anziché autoaggiunto, è sufficienterichiedere che l'operatore sia normale, cioè che commuti con il proprio aggiunto.

Caso reale

Sia T un endomorfismo su uno spazio vettoriale reale V di dimensione n, dotato di un prodotto scalare definitopositivo. Allora T è autoaggiunto se e solo se esiste una base ortonormale di V fatta di autovettori per T.[1]

L'endomorfismo T è quindi diagonalizzabile.Una versione equivalente del teorema, enunciata con le matrici, afferma che ogni matrice simmetrica è simile ad unamatrice diagonale tramite una matrice ortogonale.[2]

Come conseguenza del teorema, per ogni matrice simmetrica S esistono una matrice ortogonale M (cioè tale cheMTM = I) ed una diagonale D per cui:[3]

In particolare, gli autovalori di una matrice simmetrica sono tutti reali.

Caso complesso

Sia T un operatore lineare su uno spazio vettoriale complesso V di dimensione n, dotato di un prodotto hermitiano,cioè di una forma hermitiana definita positiva. Allora T è un operatore normale se e solo se esiste una baseortonormale di V fatta di autovettori per T.[4]

Nel linguaggio matriciale, il teorema afferma che ogni matrice normale è simile ad una matrice diagonale tramiteuna matrice unitaria. In altre parole, per ogni matrice normale H esistono una matrice unitaria U ed una diagonale Dper cui:

Un operatore è quindi normale se e solo se è unitariamente diagonalizzabile.Come corollario segue che se e solo se l'operatore T è autoaggiunto la base ortonormale conta solo autovalori reali,mentre se T è unitario il modulo degli autovalori è 1.In particolare, gli autovalori di una matrice hermitiana sono tutti reali, mentre quelli di una matrice unitaria sono dimodulo 1.

Page 92: Base (algebra lineare) -

Teorema spettrale 90

DimostrazioneNel dimostrare il teorema spettrale è sufficiente considerare il caso complesso, e per provare l'esistenza di una basedi autovettori si utilizza il principio d'induzione sulla dimensione di V.Se la dimensione di V è pari a 1 non c'è nulla da dimostrare. Si ponga che l'enunciato valga per gli spazi vettoriali didimensione n - 1: si vuole mostrare che questo implica la validità del teorema per gli spazi di dimensione n. PoichéC è un campo algebricamente chiuso, il polinomio caratteristico di T ha almeno una radice: quindi T ha almeno unautovalore ed un autovettore relativo a tale autovalore. Si consideri lo spazio:

formato dai vettori di V ortogonali a . W ha dimensione , poiché i due sottospazi sono in somma diretta.

L'endomorfismo T manda W in sé, ossia . Infatti, l'immagine di T è ortogonale a :

essendo v e w ortogonali per ipotesi.

La restrizione di T a W è ancora un endomorfismo di W normale:

Poiché W ha dimensione si può applicare l'ipotesi induttiva per , e supporre che esista una baseortonormale di suoi autovettori. Dal momento che v può essere supposto di norma unitaria, v e la base ortonormale diW costituiscono una base ortonormale di V, come richiesto.Nel caso in cui T sia autoaggiunto si dimostra che tutti i suoi autovalori sono reali. Infatti, sia x un autovettore per Tcon autovalore λ. Essendo T =T* si ha:

Segue che λ è uguale al suo coniugato, e quindi è reale. Questo permette di considerare il teorema spettrale enunciatonel caso reale come corollario di quello complesso.Viceversa, si supponga che esista una base ortonormale di V composta da autovettori di T. Allora la matrice cherappresenta l'operatore rispetto a tale base è diagonale, da cui segue che T è normale.

Teorema di decomposizione spettraleCome immediata conseguenza del teorema spettrale, sia nel caso reale che nel caso complesso, il teorema didecomposizione spettrale afferma che gli autospazi di T sono ortogonali e in somma diretta:

Equivalentemente, se Pλ è la proiezione ortogonale su Vλ, si ha:

La decomposizione spettrale è un caso particolare della decomposizione di Schur. È anche un caso particolare delladecomposizione ai valori singolari.

Page 93: Base (algebra lineare) -

Teorema spettrale 91

Caso infinito-dimensionaleIl caso infinito-dimensionale costituisce una generalizzazione del caso precedente, ed esistono diverse formulazionidel teorema a seconda della classe di operatori che si vuole considerare. La principale distinzione riguarda glioperatori limitati e non limitati.

Operatori limitatiIl teorema spettrale afferma che un operatore limitato e autoaggiunto definito su uno spazio di Hilbert è unoperatore di moltiplicazione.

In modo equivalente, esiste una famiglia di misure su ed un operatore unitario:

tali che:[5]

con:

Una tale scrittura di è detta rappresentazione spettrale dell'operatore.Come corollario, segue che esiste una misura su uno spazio di misura ed esiste un operatore unitario:

tali che:[6]

per una qualche funzione misurabile limitata ed a valori reali su .

Operatori non limitati

Sia un operatore non limitato e autoaggiunto su uno spazio di Hilbert separabile con dominio . Alloraesistono uno spazio di misura , dove è una misura finita, un operatore unitario:

ed esiste una funzione misurabile quasi ovunque tali che:[7]

• se e solo se:

• Se allora:

Page 94: Base (algebra lineare) -

Teorema spettrale 92

Note[1] S. Lang, op. cit., Pag. 245[2] S. Lang, op. cit., Pag. 248[3] S. Lang, op. cit., Pag. 246[4] S. Lang, op. cit., Pag. 251[5] Reed, Simon, op. cit., Pag. 227[6] Reed, Simon, op. cit., Pag. 221[7] Reed, Simon, op. cit., Pag. 261

Bibliografia• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2• (EN) Michael Reed; Barry Simon, Methods of Modern Mathematical Physics, Vol. 1: Functional Analysis, 2a ed.,

San Diego, California, Academic press inc., 1980. ISBN 0125850506

Voci correlate• Autovettore e autovalore• Decomposizione di Jordan• Operatore autoaggiunto• Operatore lineare limitato• Prodotto scalare• Spazio di Hilbert• Teoria spettrale• Trasformazione lineare

Page 95: Base (algebra lineare) -

Fonti e autori delle voci 93

Fonti e autori delle vociPremessa  Fonte:: http://it.wikipedia.org/w/index.php?oldid=41050131  Autori:: M7, Marcok, Oile11, 1 Modifiche anonime

Algebra lineare  Fonte:: http://it.wikipedia.org/w/index.php?oldid=46382625  Autori:: Aepasto, Amarvudol, Ary29, Banus, Dom De Felice, Fire90, Hellis, Jollyroger, Laurentius, Neta, No2,Phantomas, Piddu, Pracchia-78, Sandrobt, Thedoctor90, Vanalon, Ylebru, 28 Modifiche anonime

Spazio vettoriale  Fonte:: http://it.wikipedia.org/w/index.php?oldid=44849064  Autori:: Achillu, Alberto da Calvairate, AnyFile, Aushulz, Balabiot, Damnit, Dr Zimbu, Dzag, Gac, Gianluigi,Giulianap, Hashar, Luk.wk, Marcuscalabresus, Maupag, Ndakota73, Nihil, Palica, Phantomas, Piddu, Pracchia-78, Romanm, Rrronny, Salvatore Ingala, Sandrobt, Skyhc, Suisui, Wiso, Ylebru,^musaz, 61 Modifiche anonime

Trasformazione lineare  Fonte:: http://it.wikipedia.org/w/index.php?oldid=46431431  Autori:: .jhc., Alberto da Calvairate, Beewan1972, Cls-classic, Colom, Den.90, Eumolpo, Giulianap,Marco Matassa, Mawerick, Phantomas, Piddu, Pokipsy76, Pracchia-78, Sandrobt, Simone, Skyhc, TheRedOne, Tridim, Unit, Valerio.scorsipa, Wiso, Ylebru, ^musaz, 30 Modifiche anonime

Base (algebra lineare)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=46441089  Autori:: Andreas Carter, Dissonance, Eumolpo, Gac, Giomini, Habemusluigi, Lacurus, Marcok, MrCrow,Nemo bis, Nickanc, Piddu, Sartore, Sbisolo, Simone, Skyhc, Square87, Vonvikken, Ylebru, ^musaz, 23 Modifiche anonime

Teorema del rango  Fonte:: http://it.wikipedia.org/w/index.php?oldid=46409801  Autori:: Banus, Helios, IESteve, Kamina, Pracchia-78, Salvatore Ingala, Ylebru, ^musaz, 4 Modifiche anonime

Formula di Grassmann  Fonte:: http://it.wikipedia.org/w/index.php?oldid=46494111  Autori:: .jhc., Alberto da Calvairate, Alfio, Faucct, Gabriele Nunzio Tornetta, Giulio84, Kamina, Piddu,Popop, Roberto Mura, Salvatore Ingala, Senpai, Ylebru, ^musaz, 37 Modifiche anonime

Teorema di Rouché-Capelli  Fonte:: http://it.wikipedia.org/w/index.php?oldid=46302170  Autori:: Amanconi, Bink, Claude, Continillo, FrancescoT, Freddyballo, Ginosal, Goemon,Joségiuseppe, Kiado, Leitfaden, Pere prlpz, Pokipsy76, Salvatore Ingala, Senpai, Ulisse0, Ylebru, Zénon Kitieùs, ^musaz, 19 Modifiche anonime

Rango (algebra lineare)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=46653927  Autori:: Alberto da Calvairate, Banus, Chionatan, Freddyballo, Google, Guidomac, Piddu, Red Power,Stefanobra, Tizio X, Tridim, Turgon, Ylebru, ^musaz, 17 ,אלי פ Modifiche anonime

Determinante  Fonte:: http://it.wikipedia.org/w/index.php?oldid=46697655  Autori:: Alberto da Calvairate, AnyFile, Blakwolf, Cruccone, DaniDF1995, Davice, Dom De Felice, Domenico DeFelice, Dr Zimbu, Fede Reghe, Frieda, Giulio.orru, Grifone87, Laurentius, Marco Ciaramella, Piddu, Pokipsy76, Riccardocc2, Salvatore Ingala, Simone Scanzoni, SquallLeonhart ITA, Square87,Taueres, Ulisse0, Wikinomane, Ylebru, Zio Illy, ^musaz, 46 Modifiche anonime

Diagonalizzabilità  Fonte:: http://it.wikipedia.org/w/index.php?oldid=43883996  Autori:: CristianCantoro, Eumolpo, Ft1, Goemon, Luisa, Mark91, MartinoK, Pracchia-78, Ylebru, ^musaz, 22Modifiche anonime

Autovettore e autovalore  Fonte:: http://it.wikipedia.org/w/index.php?oldid=46570853  Autori:: AMenteLibera, Alberto da Calvairate, Alfio, Aushulz, Berto, Domenico De Felice, Engineer123,F l a n k e r, Formica rufa, Franz Liszt, Gecob, Ggonnell, Huatulco, Jean85, Luisa, M&M987, Magma, Marco82laspezia, Midnight bird, Onnisciente, Piddu, Piero, Pokipsy76, Pracchia-78,RanZag, Restu20, Rob-ot, Robmontagna, Sandrobt, Sartore, Shony, SimoneMLK, Sir marek, SkZ, Stefano80, Tommaso Ferrara, Tridim, Ulisse0, Valepert, Vipera, Xander89, Ylak, Ylebru,^musaz, 36 Modifiche anonime

Polinomio caratteristico  Fonte:: http://it.wikipedia.org/w/index.php?oldid=46621269  Autori:: Alberto da Calvairate, Claude, Eumolpo, Fred Falcon, Kronolf, Luisa, Lupin85, Poeta60,Pokipsy76, Ylebru, ^musaz, 23 Modifiche anonime

Polinomio minimo  Fonte:: http://it.wikipedia.org/w/index.php?oldid=44973233  Autori:: Franci237, Kronolf, Piddu, Wiso, Ylebru, 2 Modifiche anonime

Forma canonica di Jordan  Fonte:: http://it.wikipedia.org/w/index.php?oldid=43530181  Autori:: .:Andrea:., Bauletto, Geppo985, MaiDireChiara, Piddu, Tino 032, Toobaz, Ylebru, Zio Illy,^musaz, 12 Modifiche anonime

Prodotto scalare  Fonte:: http://it.wikipedia.org/w/index.php?oldid=46690340  Autori:: Alberto da Calvairate, Ceskino, Eumolpo, F l a n k e r, Gala.martin, Gatto Bianco 1, Giacomo.lucchese,Goemon, MaEr, Moroboshi, Nihil, No2, Phantomas, Piddu, Pietrodn, Pracchia-78, Sandrobt, Sir marek, SkZ, Superedit, Ticket 2010081310004741, Triph, Ulisse0, Unriccio, Valerio.scorsipa,Voldemort87, Wiso, Ylebru, ^musaz, 47 Modifiche anonime

Forma bilineare  Fonte:: http://it.wikipedia.org/w/index.php?oldid=43301956  Autori:: Bordaigorl, Piddu, Pracchia-78, Sandrobt, Tridim, Ylebru, ^musaz, 10 Modifiche anonime

Spazio euclideo  Fonte:: http://it.wikipedia.org/w/index.php?oldid=45859342  Autori:: Airon90, Alberto da Calvairate, B3t, Banus, Boscarol, Damnit, Guidomac, Hellis, Piddu, Pokipsy76,Poldo328, Pracchia-78, Tridim, Ylebru, ^musaz, 11 Modifiche anonime

Base ortonormale  Fonte:: http://it.wikipedia.org/w/index.php?oldid=43509243  Autori:: AKappa, Alberto da Calvairate, Alez, Ceskino, Goemon, Hellis, M7, Nihil, Piddu, Pracchia-78,TDLemon, The Ouroboros, Tomi, Unriccio, Xufanc, Ylebru, ^musaz, 14 Modifiche anonime

Ortogonalizzazione di Gram-Schmidt  Fonte:: http://it.wikipedia.org/w/index.php?oldid=45967134  Autori:: Agnul, Alberto da Calvairate, Alec, AttoRenato, Banus, Ceskino, Colom,Cruccone, Giacomo.lucchese, Hellis, Laurusnobilis, Mess, Piddu, Simone, Snowdog, Ylebru, ^musaz, 8 Modifiche anonime

Forma sesquilineare  Fonte:: http://it.wikipedia.org/w/index.php?oldid=43615548  Autori:: Alberto da Calvairate, Piddu, Pracchia-78, Toobaz, Wiso, Ylebru, ^musaz, 10 Modifiche anonime

Teorema spettrale  Fonte:: http://it.wikipedia.org/w/index.php?oldid=46451251  Autori:: Almadannata, Banus, Chionatan, Eumolpo, Fontafox, Kamina, Leitfaden, Leonardis, Lucha, Nase,Nicolaennio, Piddu, Pracchia-78, Qualc1, Salvatore Ingala, Walter89, Wiso, Ylebru, Zuccaccia, Zviad, ^musaz, 12 Modifiche anonime

Page 96: Base (algebra lineare) -

Fonti, licenze e autori delle immagini 94

Fonti, licenze e autori delle immaginiFile:Vector space illust.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Vector_space_illust.svg  Licenza: Public Domain  Autori:: Oleg AlexandrovFile:Linear subspaces with shading.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Linear_subspaces_with_shading.svg  Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: en:User:Alksentrs Original uploader was Alksentrs at en.wikipediaFile:Rotation illustration.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotation_illustration.png  Licenza: Public Domain  Autori:: HB, Juiced lemon, Maksim, Oleg Alexandrov,Tano4595, W!B:File:Intersecting Lines.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Intersecting_Lines.svg  Licenza: Public Domain  Autori:: Jim.belkFile:Matrix.gif  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Matrix.gif  Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported  Autori:: Steven FoxFile:Eigenvector.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Eigenvector.png  Licenza: Public Domain  Autori:: SandycxFile:Ellipsoide.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Ellipsoide.png  Licenza: Public Domain  Autori:: Anarkman, Cwbm (commons), Darapti, Denniss, EugeneZelenko,Helder.wikiFile:Epsilontensor.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Epsilontensor.svg  Licenza: Creative Commons Attribution 2.5  Autori:: Arian Kriesch, corrections made byXmaster1123 and LuxoFile:Scalar multiplication of vectors.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Scalar_multiplication_of_vectors.svg  Licenza: Public Domain  Autori:: User:BdeshamFile:Vector addition3.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Vector_addition3.svg  Licenza: Creative Commons Attribution-Sharealike 3.0  Autori:: Jakob.scholbachFile:Rotation illustration2.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotation_illustration2.svg  Licenza: Public Domain  Autori:: Oleg AlexandrovFile:VerticalShear m=1.25.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:VerticalShear_m=1.25.svg  Licenza: Public Domain  Autori:: RobHarFile:Squeeze r=2.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Squeeze_r=2.svg  Licenza: Public Domain  Autori:: RobHarFile:Basis graph (no label).svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Basis_graph_(no_label).svg  Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported  Autori::Original uploader was Spindled at en.wikipedia. Later version(s) were uploaded by Cic at en.wikipedia.File:Scalarproduct.gif  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Scalarproduct.gif  Licenza: GNU Free Documentation License  Autori:: Darapti, Flappiefh, Rocha, Werckmeister,YsangkokFile:Parallel Lines.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Parallel_Lines.svg  Licenza: Public Domain  Autori:: Jim.belkFile:Secretsharing-3-point.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Secretsharing-3-point.png  Licenza: GNU Free Documentation License  Autori:: stibFile:HAtomOrbitals.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:HAtomOrbitals.png  Licenza: GNU Free Documentation License  Autori:: Admrboltz, Benjah-bmm27, Dbc334,Dbenbenn, Ejdzej, Falcorian, Kborland, MichaelDiederich, Mion, Saperaud, 6 Modifiche anonimeFile:Determinant Example.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant_Example.png  Licenza: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0  Autori::Jakob.scholbachFile:Eigen.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Eigen.jpg  Licenza: Public Domain  Autori:: User:VbImmagine:Commons-logo.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg  Licenza: logo  Autori:: SVG version was created by User:Grunt and cleaned up by3247, based on the earlier PNG version, created by Reidab.File:Determinant parallelepiped.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant_parallelepiped.svg  Licenza: Creative Commons Attribution 3.0  Autori:: ClaudioRocchiniFile:Determinant.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant.jpg  Licenza: Public Domain  Autori:: Darapti, Kilom691, YlebruFile:Determinant 3x3 Example.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant_3x3_Example.svg  Licenza: Public Domain  Autori:: derivative work: Fiachra (talk)Determinant_3x3_Example_Barking_Mad_1.jpg: user:Barking Mad142File:Transvection-1.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Transvection-1.jpg  Licenza: GNU Free Documentation License  Autori:: GeorgHH, Ylebru, 1 Modifiche anonimeFile:Transvection-2.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Transvection-2.jpg  Licenza: GNU Free Documentation License  Autori:: GeorgHH, Ylebru, 1 Modifiche anonimeFile:Déterminant-3D.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Déterminant-3D.jpg  Licenza: GNU Free Documentation License  Autori:: Darapti, GeorgHH, Kilom691, PieterKuiper, YlebruFile:Rotating Sphere.gif  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotating_Sphere.gif  Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported  Autori:: Maksim, OlegAlexandrov, W!B:, WikipediaMaster, 4 Modifiche anonimeFile:Standing wave.gif  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Standing_wave.gif  Licenza: Public Domain  Autori:: BrokenSegue, Cdang, Joolz, Kersti Nebelsiek, Kieff,Mike.lifeguard, Pieter Kuiper, PtjFile:Eigenfaces.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Eigenfaces.png  Licenza: Attribution  Autori:: Laurascudder, Liftarn, Man vyi, YlebruImmagine:Wiktionary-ico-de.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wiktionary-ico-de.png  Licenza: logo  Autori:: Bobit, F l a n k e r, Melancholie, Mxn, Nodulation,Rocket000, SaiboImmagine:Scalarproduct.gif  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Scalarproduct.gif  Licenza: GNU Free Documentation License  Autori:: Darapti, Flappiefh, Rocha,Werckmeister, YsangkokImmagine:ProdScal1.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:ProdScal1.png  Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported  Autori:: Darapti, HBImmagine:ProdScal2.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:ProdScal2.png  Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported  Autori:: Darapti, HBImmagine:TravailForce2.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:TravailForce2.png  Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported  Autori:: HBImmagine:Wikibooks-logo.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wikibooks-logo.svg  Licenza: logo  Autori:: User:Bastique, User:Ramac et al.File:Gram–Schmidt process.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Gram–Schmidt_process.svg  Licenza: Public Domain  Autori:: Gustavb

Page 97: Base (algebra lineare) -

Licenza 95

LicenzaCreative Commons Attribution-Share Alike 3.0 Unported//creativecommons.org/licenses/by-sa/3.0/