Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof....

132
Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre von den Vektorräumen und linearen Abbildungen. Zahlen: N = {1, 2, 3,... } natürliche Zahlen, N 0 = {0, 1, 2, 3,... } Z = {..., 2, 1, 0, 1, 2,... } ganze Zahlen Q = { p q p Z,q N, p q ist gekürzter Bruch} rationale Zahlen in N, N 0 , Z, Q kann man addieren und multiplizieren in Z und Q kann man subtrahieren in Q kann man dividieren (außer durch 0). Die Erfordernisse der Analysis führen zur Erweiterung von Q zu den reellen Zah- len R. Veranschaulichung: reelle Zahl = Punkt auf der Zahlengeraden. Nach Festlegung eines Koordinatenkreuzes ( = 0-Punkt und zwei zueinander senk- rechter „Einheitsvektoren“ können wir jeden Punkt der Ebene als Paar reeller Zahlen schreiben. Entsprechend: Punkte des Raumes = Tripeln reeller Zahlen 1

Transcript of Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof....

Page 1: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

Lineare Algebra I

Prof. Dr. Alexander Schmidt

Wintersemester 2008/09

0 Einführung

Lineare Algebra: Lehre von den Vektorräumen und linearen Abbildungen.

Zahlen: N = {1, 2, 3, . . .} natürliche Zahlen, N0 = {0, 1, 2, 3, . . .}

Z = {. . . ,−2,−1, 0, 1, 2, . . .} ganze Zahlen

Q = {pq

∣∣∣ p ∈ Z, q ∈ N, pq

ist gekürzter Bruch} rationale Zahlen

• in N,N0, Z,Q kann man addieren und multiplizieren

• in Z und Q kann man subtrahieren

• in Q kann man dividieren (außer durch 0).

Die Erfordernisse der Analysis führen zur Erweiterung von Q zu den reellen Zah-len R.

Veranschaulichung:

reelle Zahl = Punkt auf der Zahlengeraden.

Nach Festlegung eines Koordinatenkreuzes (= 0-Punkt und zwei zueinander senk-rechter „Einheitsvektoren“ können wir jeden Punkt der Ebene als Paar reellerZahlen schreiben.

Entsprechend: Punkte des Raumes = Tripeln reeller Zahlen

1

Page 2: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

2 Lineare Algebra I, Wintersemester 2008/09

Allgemeiner: n ∈ N

Ein n-Tupel (x1, . . . , xn) reeller Zahlen heißt Punkt oder Vektor des n-dimensio-nalen Raumes. Die Gesamtheit dieser n-Tupel wird mit Rn bezeichnet.Was kann man mit Vektoren machen?

I: Vektoraddition(x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn)

II: Skalarmultiplikationα ∈ R (ein sogenannter „Skalar“)x = (x1, . . . , xn) ∈ Rn

αx = (αx1, . . . , αxn)

III: Skalarproduktx = (x1, . . . , xn) ∈ Rn

y = (y1, . . . , yn) ∈ Rn

〈x, y〉 = x1y1 + · · ·+ xnyn ∈ R

heißt das (Standard-)Skalarprodukt von x und y.

Bemerkung. All dies kann man auch mit Q anstelle von R machen.

Besonderheit für n = 3

IV: Vektorprodukt (oder Kreuzprodukt)x = (x1, x2, x3) ∈ R3, y = (y1, y2, y3) ∈ R3

x× y = (x2y3 − x3y2, x3y1 − x1y3, x1y2 − x2y1) ∈ R3

Elementare Eigenschaften:Sei 0Rn = (0, . . . , 0) ∈ R. Dann gilt

(V1) (x+ y) + z = x+ (y + z) für beliebige x, y, z ∈ Rn (Assoziativität)

(V2) 0Rn + x = x für alle x ∈ Rn (neutrales Element)

(V3) x+ y = y + x für alle x, y ∈ Rn (Kommutativität)

(V4) α · (β · x)︸ ︷︷ ︸∈Rn

= (α · β)︸ ︷︷ ︸∈R

·x für bel. α, β ∈ R, x ∈ Rn

(Verträglichkeit der Multiplikation)

(V5) (α + β) · x = α · x+ β · x, α, β ∈ R, x ∈ Rn

(erstes Distributivgesetz)

(V6) α · (x+ y) = α · x+ α · y, α ∈ R, x, y ∈ Rn

(zweites Distributivgesetz)

Page 3: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

Prof. Dr. Alexander Schmidt 3

(V7) (Wirkung der 0 ∈ R): 0 · x = 0Rn für x ∈ Rn

(V8) (Wirkung der 1 ∈ R): 1 · x = x, x ∈ Rn.

Alle diese Eigenschaften folgen komponentenweise aus den bekannten Rechenre-geln für reelle Zahlen.

Konventionen:

• Punkt geht vor Strichrechnungα · x+ β · y = (α · x) + (β · y)

• Das Zeichen „+“ wird sowohl für die Addition reeller Zahlen, als auch fürdie Addition von Vektoren benutzt.

• Das Zeichen „·“ wird sowohl für die Multiplikation in R, als auch für dieSkalarmultultiplikation benutzt.Man läßt den Punkt oft weg: αβ = α · β, αx = α · x

• (V1) und (V4) erlauben es, Ausdrücke wie x+ y + z oder αβx ohne Klam-mern zu schreiben.

• Oft bezeichnet man 0Rn ∈ Rn einfach nur mit 0.

Geometrische Veranschaulichung:x+ y = Komposition von Vektoren

αx = Streckung um den Faktor α

Eigenschaften des SkalarproduktsFür alle x, y, z ∈ Rn, α ∈ R gilt

Page 4: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

4 Lineare Algebra I, Wintersemester 2008/09

(S1) 〈x+ y, z〉 = 〈x, z〉+ 〈y, z〉 (Distributivität)↑ ↑

(“+” im Rn) (“+” in R)

(S2) α〈x, y〉 = 〈αx, y〉 (Homogenität)

(S3) 〈x, y〉 = 〈y, x〉 (Symmetrie)

(S4) Positive Definitheit: 〈x, x〉 > 0 wenn x 6= 0Rn

(S1) – (S3) sind offensichtlich, (S4) folgt daraus dass Quadrate nichtnegativ sindund aus x2

1+ · · ·+ x2

n = 0⇔ x1 = . . . = xn = 0

Geometrische Veranschaulichung:

Definition 0.1. x ∈ Rn: ‖x‖ df=

√〈x, x〉 (Norm von x). ‖x‖ = Abstand von x

zum Ursprung 0.

Bemerkung. Es gilt ‖αx‖ = |α| ‖x‖, α ∈ R, x ∈ Rn.

Definition 0.2. (Standardabstand im Rn) x, y ∈ Rn

d(x, y)df= ‖x− y‖

Definition 0.3. (Orthogonalität) x, y ∈ Rn.x und y sind orthogonal (x ⊥ y), wenn 〈x, y〉 = 0 gilt.

Satz des Pythagoras: Sind x, y ∈ Rn orthogonal (zueinander), so gilt

‖x+ y‖2 = ‖x‖2 + ‖y‖2

Beweis.

‖x+ y‖2 = 〈x+ y, x+ y〉 = 〈x, x〉+ 2〈x, y〉+ 〈y, y〉= ‖x‖2 + ‖y‖2

Orthogonalprojektion

Satz über die Orthogonalprojektion:

Sei x ∈ Rn, x 6= 0. Dann gibt es zu jedem y ∈ Rn ein eindeutig bestimmtes

Page 5: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

Prof. Dr. Alexander Schmidt 5

z ∈ Rn und eine eindeutig bestimmte reelle Zahl c ∈ R so daß(i) x ⊥ z(ii) y = cx+ z.

Beweis. Eindeutigkeit: Falls solche z ∈ Rn c ∈ R existieren, so gilt

〈y, x〉 = 〈cx+ z, x〉 = 〈cx, x〉+ 〈z, x〉= c‖x‖2

Wegen ‖x‖ 6= 0 folgt c = 〈y,x〉‖x‖2

. Daher ist c eindeutig. Weiter gilt y = cx+ z, alsoz = y − cx und daher ist auch z eindeutig bestimmt.

Existenz: Eine einfache Rechnung zeigt, daß die oben angegebenen c und z diegewünschten Eigenschaften haben(ii) cx+ z = cx+ (y − cx) = y(i) 〈z, x〉 = 〈y − cx, x〉

= 〈y, x〉 − c〈x, x〉

= 〈y, x〉 − 〈y,x〉‖x‖2〈x, x〉 = 0

Hiermit erhalten wir:

Schwarzsche Ungleichung: Für x, y ∈ Rn gilt

|〈x, y〉| ≤ ‖x‖ · ‖y|

Beweis. Für x = 0 sind beide Seiten 0. Sei x 6= 0 und c ∈ R, z ∈ Rn wie eben,d.h. y = z + cx. 〈z, x〉 = 0. Dann gilt

‖y‖2 = 〈y, y〉 = 〈z + cx, z + cx〉= c2‖x‖2 + ‖z‖2

≥ c2‖x‖2

=

(〈y, x〉

‖x‖2

)2

‖x‖2

=(〈x, y〉)2

‖x‖2

Das Ziehen der Quadratwurzel liefert das Gewünschte.

Dreiecksungleichung: x, y ∈ Rn.

‖x+ y‖ ≤ ‖x‖+ ‖y‖

Page 6: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6 Lineare Algebra I, Wintersemester 2008/09

Beweis.

‖x+ y‖2 = 〈x+ y, x+ y〉 = ‖x‖2 + 2〈x, y〉+ ‖y‖2

≤ ‖x‖2 + 2|〈x, y〉|+ ‖y‖2

Schwarz ≤ ‖x‖2 + 2‖x‖ ‖y‖+ ‖y‖2

= (‖x‖+ ‖y‖)2

Bemerkung. Der Name kommt daher, daß für drei Punkte x, y, z ∈ Rn folgt

d(x, z) = ‖x− z‖ = ‖(x− y) + (y − z)‖≤ ‖x− y‖+ ‖y − z‖= d(x, y) + d(y, z)

Was ist der „Winkel“ zwischen zwei Vektoren?

Beobachtung:

a) Für x, y ∈ Rn beide nicht 0 gilt wegen der Schwarzschen Ungleichung

〈x, y〉

‖x‖ · ‖y‖≤ 1

Außerdem:

−〈x, y〉

‖x‖ · ‖y‖=〈x,−y〉

‖x‖ · ‖ − y‖≤ 1.

Daher gilt −1 ≤〈x, y〉

‖x‖ · ‖y‖≤ 1

b) Der Kosinus definiert eine eindeutige Funktion

cos : [0, π] −→ [−1, 1]

und daher ist die Umkehrfunktion

cos−1 : [−1, 1] −→ [0, π]

wohldefiniert.

Definition 0.4. (Winkel zwischen Vektoren). Seien x, y ∈ Rn von 0 verschieden

∠(x, y)df= cos−1

(〈x, y〉

‖x‖ · ‖y‖

)

Page 7: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

Prof. Dr. Alexander Schmidt 7

Eigenschaften:• ∠(x, y) = ∠(y, x)• ∠(x, x) = 0• Aus x ⊥ y folgt ∠(x, y) = π

2(= 90◦)

Kosinussatz: Für x, y ∈ Rn \ {0} gilt

‖x− y‖2 = ‖x‖2 + ‖y‖2 − 2‖x‖ ‖y‖ · cos(∠(x, y))

Beweis.

‖x− y‖2 = 〈x− y, x− y〉 = ‖x‖2 + ‖y|2 − 2〈x, y〉

= ‖x‖2 + ‖y‖2 − 2‖x‖ · ‖y‖ ·〈x, y〉

‖x‖ · ‖y‖︸ ︷︷ ︸

cos

(cos−1 〈x,y〉

‖x‖·‖y‖

)

= cos(∠(x, y))

n = 3 – das VektorproduktErinnerung: x, y ∈ R3

x× y = (x2y3 − x3y2, x3y1 − x1y3, x1y2 − x2y1)Eigenschaften: Für x, y, z ∈ R3, α ∈ R gilt(1) Additivität im ersten Argument:

(x+ y)× z = x× z + y × z

(2) Homogenität im ersten Argument:

(αx)× y = α(x× y)

(3) Antisymmetrie: x× y = −y × x(leicht nachzurechnen)

Außerdem folgt:(1’) x× (y + z) = x× y + x× z(2’) x× (αy) = α(x× y).

Weitere Eigenschaften(4) x× y ⊥ x, x× y ⊥ y(5) x× x = 0(6) Grassmann-Identität

(x× y)× z = 〈x, z〉y − 〈y, z〉x = z × (y × x)

(7) Jacobi-Identität

(x× y)× z + (y × z)× x+ (z × x)× y = 0

(8) 〈x× y, z〉 = 〈y × z, x〉 = 〈z × x, y〉(9) ‖x× y‖2 = ‖x‖2‖y‖2(sin〈x, y〉)2 falls x, y ∈ R3 \ {0}

Page 8: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

8 Lineare Algebra I, Wintersemester 2008/09

Beweis. (4) und (5) rechnet man einfach durch(6) Wir zeigen die Grassmann Identität nur in der ersten Komponente, die Rech-nungen für die zweite und dritte sind analog.((x× y)× z)1 = (x× y)2z3 − (x× y)3 · z2= (x3y1 − x1y3)z3 − (x1y2 − x2y1)z2= (x3z3 + x2z2)y1 − (y2z2 + y3z3)x1

= (x1z1 + x2z2 + x3z3)y1 − (y1z1 + y2z2 + y3z3)x1

= 〈x, z〉y1 − 〈y, z〉x1

Dies zeigt das erste = Zeichen. Das zweite folgt aus (3) und (2)

(x× y)× z = −z × (x× y) = z × (y × x)

(7) Jacobi-Identität folgt aus (6) wegen(x× y)× z + (y + z)× x+ (z × x)× y =〈x, z〉y − 〈y, z〉x+ 〈y, x〉z − 〈z, x〉y + 〈z, y〉x− 〈x, y〉z = 0(8)

〈x× y, z〉 = x2y3z1 − x3y2z1+x3y1z2 − x1y3z2+x1y2z3 − x2y1z3

Dieser Ausdruck bleibt der gleiche bei zykl. Permutation von x, y, z.(9)

‖x× y‖2 = 〈x× y, x× y〉 =[(8) mit z = x× y] = 〈y × (x× y), x〉

[(3)] = −〈(x× y)× y, x〉[(6)] = 〈〈x, y〉y − 〈y, y〉x, x〉

= ‖x‖2‖y‖2 − 〈x, y〉2

= ‖x‖2 · ‖y‖2(

1−(〈x,y〉‖x‖ ‖y‖

)2)

= ‖x‖2‖y‖2(1− (cos ∠(x, y))2)= ‖x‖2 · ‖y‖2 · sin(∠(x, y))2

Geometrische Deutung:(9) sagt, daß‖x× y‖ = Volumen des von x und y aufgespannten Parallelogramms.Bezeichnung: vol(x, y)Nach (4) steht x× y senkrecht auf der Fläche dieses Parallelogramms.⇒ geometrische Beschreibung des Kreuzprodukts bis auf das Vorzeichen (dieseshat mit der Orientierung zu tun, das kommt später).Drei Vektoren x, y, z ∈ R3 spannen ein sogenanntes Parallelotop (Spat) auf.Volumen: vol(x, y, z)

Page 9: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

Prof. Dr. Alexander Schmidt 9

Schulwissen:vol(x, y, z) = vol(x, y) · h

wobei h die Höhe ist.Schreiben wir z = c · (x × y) + w mit 〈x× y, w〉 = 0 (Orthogonalprojektion), sogilt

h = ‖c(x× y)‖ = |c| · ‖x× y‖ =|〈z, x× y〉|

‖x× y‖2· ‖x× y‖ =

|〈z, x× y〉|

‖x× y‖.

Es ergibt sich daher

vol(x, y, z) = vol(x, y) ·|〈z, x× y〉|

‖x× y‖

= ‖x× y‖ ·|〈z, x× y〉|

‖x× y‖

= |〈x× y, z〉|

Dies motiviert die

Definition 0.5. Das Spatprodukt (= Determinante) dreier Vektoren x, y, z ∈R3 ist die reelle Zahl 〈x× y, z〉 („Volumen mit Vorzeichen“).

Schlußbemerkung: Das Kreuzprodukt im R3 ist ein Beispiel für eine Operation,die weder kommutativ, noch assoziativ ist.

Beispiel.

•(1, 0, 0)× (0, 1, 0) = (0, 0, 1)(0, 1, 0)× (1, 0, 0) = (0, 0,−1)

•((1, 0, 0)× (1, 0, 0)

)× (0, 1, 0) = (0, 0, 0)× (0, 1, 0) = (0, 0, 0)

(1, 0, 0)×((1, 0, 0)× (0, 1, 0)

)= (1, 0, 0)× (0, 0, 1) = (0,−1, 0)

Page 10: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

10 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

1 Gruppen, Ringe, Körper

1.1 Mengen

Definition 1.1 (Cantor). Eine Menge ist eine Zusammenfassung bestimmter,wohlunterschiedener Objekte unserer Anschauung oder unseres Denkens zu einemGanzen.

Diese naive Definition bringt Probleme mit sich, reicht aber für unsere Zwecke.Es gibt einen strikten, axiomatischen Zugang zur Mengenlehre.

Schreibweise für MengenM = {a, b, c, . . . }z.B. {1, 2, 3} = {1, 3, 2} = {3, 2, 1, 1}a ∈M : a ist Element von Ma 6∈M : a ist nicht Element von Mandere Schreibweise M = {A | B} ist die Menge der Objekte der Form A,die der Bedingung B genügen, z.B. M = {x | x ∈ R, x ≤ 5} oder kürzerM = {x ∈ R | x ≤ 5}.

Definition 1.2. Die leere Menge ∅ ist die Menge, die kein Element enthält.

Definition 1.3. Eine Menge N heißt Teilmenge der Menge M (N ⊂ M), wennM alle Elemente aus N enthält.

Beispiel. • {1, 2} ⊂ N• die leere Menge ∅ ist Teilmenge jeder Menge.

Bemerkung. Anstelle von N ⊂ M wird oft auch N ⊆ M oder N j M ge-schrieben. Diese drei Symbole sind vollkommen gleichwertig. Die SchreibweisenN (M oder auch N $M oder auch N M bedeuten: N ist Teilmenge von Maber nicht gleich M .

Definition 1.4. Die Menge aller Teilmengen einer Menge M heißt Potenzmenge

von M und wird mit P(M) bezeichnet.

Beispiel. • M = {0, 1} =⇒ P(M) = {∅, {0}, {1}, {0, 1}}• ist M eine endliche Menge mit n Elementen, so ist P(M) eine endliche Mengemit 2n Elementen.

Endlich viele (nicht notwendig endliche) Mengen werden üblicherweise durchIndizes durchnummeriert M1, . . . ,Mn. Eine unendliche Familie von Mengen wirdtypischerweise in der Form (Mi)i∈I durchnummeriert, wobei I eine Indexmenge

ist.

Definition 1.5. Seien K,L, (Mi)i∈I Teilmengen einer Menge M . Dann bildetman die folgenden Mengen

Page 11: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

1.1 Mengen 11

(i)⋃i∈I

Mi = {m ∈M | es gibt ein i ∈ I mit m ∈Mi} (Vereinigung)

(ii)⋂i∈I

Mi = {m ∈M | m ∈Mi für alle i ∈ I} (Durchschnitt)

(iii) K \ L = {m ∈ K | m 6∈ L} (Komplement, auch K − L)

Beispiel. M = N• {1, 2, 3} − {3, 4, 5} = {1, 2}• {1, 2} − {1, 2, 3} = ∅

Definition 1.6. Sei (Mi)i∈I eine Familie von Teilmengen einer Menge M . Mansagt, M ist die disjunkte Vereinigung der Mi und schreibt

M =.⋃

i∈I

Mi oder auch M =⊔

i∈I

Mi,

wenn M = ∪i∈IMi und Mi ∩Mj = ∅ für i 6= j gilt.

Definition 1.7. (Produktmenge, kartesisches Produkt). Es seien M1, . . . ,MnMengen. Die Produktmenge

M1 × · · · ×Mn

besteht aus allen n-Tupeln (m1, . . . , mn) mit m1 ∈M1, . . . , mn ∈Mn.

Beispiel. • R× R = R2

• R×∅ = ∅

Bemerkung. Definition 1.7 dehnt sich natürlich auf eine Familie (Mi)i∈I aus.Schreibweise

∏i∈I

Mi.

Definition 1.8. Eine Relation R auf einer Menge M ist eine Teilmenge R ⊂M ×M .Sprechweise: x, y ∈M gehen die Relation R ein, wenn (x, y) ∈ R.Schreibweise x ∼R y.

Beispiele. 1) M = R, R = {(x, y) ∈ R×R | x < y}2) M = Z, R = {(m,n) ∈ Z× Z | m− n ist gerade}3) M = die Menge der Schüler einer SchuleR = {(x, y) ∈M ×M | x und y gehen in die gleiche Klasse}

Definition 1.9. Sei M eine Menge und R eine Relation auf M . R heißt Äqui-valenzrelation wenn die folgenden Bedingungen erfüllt sind(Ä1) Reflexivität: x ∼R x für alle x ∈M(Ä2) Symmetrie: x ∼R y =⇒ y ∼R x(Ä3) Transitivität: (x ∼R y und y ∼R z) =⇒ x ∼R z.

Page 12: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

12 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Beispiele. -die Relation in Beispiel 1 ist nicht reflexiv, nicht symmetrisch, abertransitiv-die Relationen in Beispiel 2 und Beispiel 3 sind Äquivalenzrelationen.

Bemerkung. Auf jeder Menge existiert die (nutzlose) Äquivalenzrelationen “=”,d.h. R = {(x, y) ∈M ×M | x = y}.

Typischerweise existieren auf einer Menge verschiedene Äquivalenzrelationen.So kann man z.B. auf einer Menge von Bauklötzchen die Äquivalenzrelationen“gleiche Farbe”, “gleiche Größe” oder “gleiche Form” einführen.

Definition 1.10. Sei M eine nichtleere Menge und R eine ÄquivalenzrelationaufM . Eine nichtleere Teilmenge A ⊂M heißt Äquivalenzklasse, wenn sie denfolgenden Bedingungen genügt:(i) a, b ∈ A =⇒ a ∼R b(ii) (a ∈ A und a ∼R b) =⇒ b ∈ A.

Lemma 1.11. Ist R eine Äquivalenzrelation auf einer Menge M , so gehört je-des Element x ∈ M zu genau einer Äquivalenzklasse. Insbesondere gilt für zweiÄquivalenzklassen A,A′ dass entweder A = A′ oder A ∩A′ = ∅.

Mit anderen Worten: M zerfällt in die disjunkte Vereinigung der Restklassenbzgl. R.

Beweis. 1) Es gibt eine Äquivalenzklasse die x enthält. Definiere A : = {a ∈M | x ∼R a}. Wegen x ∼R x (Ä1) gilt x ∈ A, also A 6= ∅. Es verbleibt, dieBedingungen (i) und (ii) aus Definition 1.10 zu verifizieren.

(i) Seien a, b ∈ A. Dann gilt x ∼R a und x ∼R b. Aus (Ä2) folgt a ∼R x und(Ä3) liefert a ∼R b.

(ii) Sei a ∈ A und a ∼R b. Zu zeigen: b ∈ A. Nach Definition gilt x ∼R a. (Ä3)liefert x ∼R b, also b ∈ A.

2) Zu zeigen: (x ∈ A und x ∈ A′) =⇒ A = A′.Wir zeigen A ⊂ A′. Der Nachweis von A′ ⊂ A ist aus Symmetriegründen derselbe,und wir haben die Implikation: (A ⊂ A′) und (A′ ⊂ A)⇒ A = A′.Sei nun a ∈ A. Dann gilt wegen x ∈ A:a ∼R x. Wegen x ∈ A′ folgt a ∈ A′, also A ⊂ A′.

Page 13: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

1.1 Mengen 13

Definition 1.12. Die Menge der Äquivalenzklassen einer Menge M bzgl. einerÄquivalenzrelation R wird mit M/R bezeichnet.

Beispiel. • In Beispiel 2 nach Definition 1.8 gibt es zwei Äquivalenzklassen

Agerade = {. . . ,−4,−2, 0, 2, 4, . . .}

undAungerade = {. . . ,−3,−1, 1, 3, . . .}

• in Beispiel 3 nach Definition 1.8 ist die Menge der Äquivalenzklassen die Mengeder Schulklassen der Schule.

Hintergrund: Der Übergang zu Äquivalenzklassen soll (für ein jeweils gegebenesProblem) nicht relevante Information abstreifen. So ist für die Erstellung einesStundenplans nur die Menge der Schulklassen relevant, nicht die (größere) Mengeder Schüler.

Beispiele. • (wie man Z aus N konstruiert).Wir betrachten die Äquivalenzrelation ∼ auf N× N

(m,n) ∼ (m′, n′)⇐⇒ m+ n′ = m′ + n.

Dann gilt Z = N× N/ ∼(identifiziere die Äquivalenzklasse des Paares (m,n) mit der ganzen Zahl m−n).

• Sei n ∈ N. Wir betrachten die Relation auf Z : a ∼ b⇐⇒ n|(a− b).Dies ist eine Äquivalenzrelation denn(Ä1) a− a = 0, n|0, also a ∼ a.(Ä2) a ∼ b =⇒ n|(a− b) =⇒ n|(b− a) =⇒ b ∼ a.(Ä3) (a ∼ b und b ∼ c) =⇒ n|(a − b) und n|(b − c) =⇒ n|((a − b) + (b − c)) =(a− c) =⇒ a ∼ c.

Es gibt genau n verschiedene Äquivalenzklassen, die mit 0, 1, . . . , (n− 1) bezeich-net werden. Die Menge der Äquivalenzklassen heißt die Menge der Restklassen

modulo n und wird mit Z/nZ bezeichnet.

Definition 1.13. Eine Abbildung f : M → N einer Menge M in eine Menge Nist eine Vorschrift, die jedem Element m ∈ M genau ein(!) Element f(m) ∈ Nzuordnet.

Beispiele. • q : Z→ Z , x 7−→ x2

• Ist M ⊂ N eine Teilmenge, so gibt es die kanonische Inklusionsabbildung

i : M → N ,m (aufgefasst als Element von M) 7−→ m (aufgefasst als Element von N)

z.B. {0, 1, 2} i−→ {0, 1, 2, 3}. Ist M = N , so ist dies die sogenannte Identitäts-

abbildung id : M →M , m 7→ m.

Page 14: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

14 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Definition 1.14. Zwei Abbildungen f, g : M → N heißen gleich, wenn f(m) =g(m) für alle m ∈M gilt.

Beispiel. Die Abbildungen f, g : R→ R

f(x) = x2 + 2x+ 1, g(x) = (x+ 1)2 sind gleich.

Definition 1.15. Sei f : M → N eine Mengenabbildung

(i) für n ∈ N heißt die Teilmenge von M

f−1(n) = {m ∈M | f(m) = n}

die Urbildmenge von n. Die Menge der n ∈ N mit f−1(n) 6= ∅ heißt dasBild von f . Bezeichnung: f(M) oder Bild(f) oder Im(f).

(ii) f heißt injektiv, wenn gilt m 6= m′ ⇒ f(m) 6= f(m′) (äquivalent: für jedesn ∈ N enthält f−1(n) höchstens ein Element).

(iii) f heißt surjektiv, wenn zu jedem n ∈ N einm ∈M mit f(m) = n existiert(äquivalent: f−1(n) 6= ∅ für alle n ∈ N).

(iv) f heißt bijektiv falls es surjektiv und injektiv ist. (äquivalent: f−1(n) ent-hält für jedes n ∈ N genau ein Element).

Ist f : M → N bijektiv, so definiert man die Umkehrabbildung f−1 : N → Mdurch die Regel:

f−1(n) = DAS Element der Menge f−1(n).

(Diese Doppelbezeichnung bringt in der Praxis typischerweise keine Probleme mitsich.)

Bemerkung. Sei f :M → N eine Mengenabbildung. Die Eigenschaften injektiv,surjektiv und bijektiv signalisiert man durch Modifikation des Pfeils:f :M → N (injektiv), f :M ։ N (surjektiv), f :M ∼

→ N (bijektiv)

Definition 1.16. Sei M eine Menge und R eine Äquivalenzrelation. Dann istdie kanonische Projektion

p : M →M/R

definiert durch:m ∈M geht auf die eindeutig bestimmte Klasse A ∈M/R mit m ∈ A.

Bemerkung. Es gilt p−1(A) = A. Da Äquivalenzklassen per definitionem nicht-leer sind, ist die kanonische Projektion eine surjektive Mengenabbildung.

Page 15: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

1.1 Mengen 15

Beispiel. Die Klasse 12B bestehe aus den Schülern {Albert, Berta, . . . }. Für denMathematiker IST die Klasse 12B eine Menge, nämlich 12B = {Albert, Berta,. . . }. Die kanonische Projektion

p : M −→ M/R↑ ↑

Menge der Schüler Menge der Schulklassender Schule der Schule

ordnet jedem Schüler seine Klasse zu.

p−1(12B) = die Menge der Schüler der Klasse 12B= {Albert, Berta, . . . }= 12B.

Definition 1.17. Sei M eine endliche Menge. Die Anzahl der Elemente von Mbezeichnet man mit #M oder auch mit card (M).

Beispiel. #∅ = 0#{2, 7, 9} = 3

Lemma 1.18. Sei f : M → N eine Abbildung endlicher Mengen(i) Ist f injektiv, so gilt #M ≤ #N(ii) ist f surjektiv, so gilt #M ≥ #N(iii) ist f bijektiv, so gilt #M = #N

Beweis. trivial

Lemma 1.19. Sei f : M → M eine Selbstabbildung einer endlichen Menge M .Dann sind die folgenden Aussagen äquivalent(i) f is injektiv(ii) f is surjektiv(iii) f ist bijektiv.

Beweis. (i) ⇒ (iii) Sei f injektiv. Dann gilt für jedes m ∈M : #f−1(m) ≤ 1.

Nun zerfälltM in die disjunkte Vereinigung der Urbildmengen:M =·⋃

m∈M

f−1(m).

Daher gilt#M =

m∈M

#f−1(m) ≤∑

m∈M

1 = #M.

Daher gilt in der Mitte Gleichheit, also #f−1(m) = 1 für alle m ∈ M , d.h. f istbijektiv.(ii) =⇒ (iii) analog, hier haben wir #f−1(m) ≥ 1 für alle m.(iii) =⇒ (i) und (iii) =⇒ (ii) sind trivial.

Die Gesamtheit aller Abbildungen einer Menge M in einer Menge N ist wiedereine Menge und wird mit Abb(M,N) bezeichnet.

Page 16: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

16 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Definition 1.20. Seien M,N,K Mengen und f : M → N , g : N → K Abbil-dungen. Die Abbildung g ◦ f : M → K, m 7→ g(f(m)) heißt die Komposition

von f und g. Die Komposition kann man als Mengenabbildung auffassen

◦ : Abb(M,N)×Abb(N,K) −→ Abb(M,K)(f, g) 7−→ g ◦ f

Die Menge der Abbildungen Abb(M,N) wird auch mit NM bezeichnet. DerGrund dafür ist

Lemma 1.21. Seien I und M Mengen und sei (Mi)i∈I die Familie von (immergleichen) Mengen Mi = M indiziert über i ∈ I. Dann existiert eine natürlicheBijektion

Φ : M I∼

−→∏

i∈I

Mi.

Beweis. Die rechte Seite ist die Menge aller Tupel (mi)i∈I , mi ∈ Mi = M . Dielinke Seite ist die Menge der Abbildung f : I → M . Eine solche Abbildung istdadurch gegeben, daß man jedem i ∈ I ein mi = f(i) ∈ M zuordnet. Wirdefinieren Φ durch die Zuordnung

f ∈M I 7−→ (f(i))i∈I ∈∏

i∈I

Mi.

Da die Abbildung f durch den Wert f(i) ∈ M , i ∈ I gegeben ist, ist Φ injektiv.Ist umgekehrt (mi)i∈I ∈

∏i∈I

Mi gegeben, so ist die Abbildung

f : I −→M, i −→ mi ∈ M

ein Urbild unter Φ. Daher ist Ψ auch surjektiv.

Page 17: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

1.2 Gruppen 17

1.2 Gruppen

Definition 1.22. Eine (binäre) Verknüpfung auf einer Menge M ist eine Ab-bildung

∗ : M ×M → M, (m,n) 7→ m ∗ n.

Definition 1.23. Eine Gruppe (G, ∗, e) ist eine MengeGmit einer Verknüpfung∗ und einem ausgezeichneten Element e ∈ G, so daß

(G1) g ∗ (h ∗ k) = (g ∗ h) ∗ k für alle g, h, k ∈ G (Assoziativität)(G2) e ∗ g = g für alle g ∈ G (Existenz eines linksneutralen Elements)(G3) für alle g ∈ G existiert ein h ∈ G mit h∗ g = e (Ex. eines Linksinversen)

Eine Gruppe heißt kommutativ (oder abelsch), wenn zusätzlich gilt:

(G4) g ∗ h = h ∗ g für alle g, h ∈ G.

Beispiele. 1) (Z,+, 0) ist eine abelsche Gruppe2) (Q,+, 0), (R,+, 0), (C,+, 0) sind abelsche Gruppen3) (Q \ {0}, •, 1) ist eine abelsche Gruppe4) (R>0, •, 1) ist eine abelsche Gruppe5) (Z/nZ,+, 0) ist eine abelsche Gruppe.Wie ist die Summe von Restklassen definiert? Vorschrift: Seien A,B ∈ Z/nZ.

i) Wähle „Vertreter“ a, b ∈ Z von A,B, d.h. a ∈ A, b ∈ B.ii) Bilde a + b in Z.

iii) A+Bdf= a+ b, d.h. die Restklasse zu der a+ b gehört.

Damit diese Definition widerspruchsfrei ist (Sprich: “+” ist wohldefiniert) mußman nachweisen, daß das Ergebnis nicht von der Auswahl von a, b in Schritt i)abhängt!

6) Die symmetrische Gruppe Sn. Sei n ∈ N eine natürliche Zahl.

Sndf= die Menge aller bijektiven Abbildungen

π : {1, . . . , n} −→ {1, . . . , n}

(sogenannte Permutationen).∗ = ◦ Komposition (d.h. Hintereinanderausführung) von Abbildungene = id{1,...,n} die identische Abbildung.Wir schreiben Permutationen in der Form

π =

(

1 2 . . . nπ(1) π(2) . . . π(n)

)

– oben stehen die Zahlen 1 bis n in der gewöhnlichen Reihenfolge.– unten stehen die Zahlen 1 bis n in einer (evtl.) anderen Reihenfolge.

Umgekehrt definiert ein solches Diagramm eine Permutation. Wie viele gibt es?

Page 18: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

18 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Elementare Kombinatorik:n Möglichkeiten für die 1(n− 1) Möglichkeiten für die 2

...1 Möglichkeit für ndaher gilt

#Sn = n(n− 1) . . . 2 · 1 = n! (n Fakultät)

Jetzt verifizieren wir (G1) – (G3)

(G1) g ∗ (h ∗ k) = g ◦ (h ◦ k) = (g ◦ h) ◦ k = (g ∗ h) ∗ k(G2) e ∗ g = id ◦ g = g(G3) ist g eine Permutation und h die inverse Abbildung g−1, so gilt h ∗ g =g−1 ◦ g = id = e.

Für n ≥ 3 ist Sn nicht kommutativ:

(

1 2 3 4 . . .2 1 3 4 . . .

)

(

1 2 3 4 . . .1 3 2 4 . . .

)

=

(

1 2 3 4 . . .2 3 1 4 . . .

)

aber

(

1 2 3 4 . . .1 3 2 4 . . .

)

(

1 2 3 4 . . .2 1 3 4 . . .

)

=

(

1 2 3 4 . . .3 1 2 4 . . .

)

Allgemeine Eigenschaften von Gruppen:

Satz 1.24. Sei G = (G, ∗, e) eine Gruppe. Dann gilt für alle g, h, k ∈ G

(1) aus g ∗ h = g ∗ k folgt h = k (Linkskürzung).(2) aus g ∗ h = k ∗ h folgt g = k (Rechtskürzung).(3) g ∗ e = e ∗ g = g (das (links)neutrale Element ist auch rechtsneutral).(4) aus g ∗ h = g oder h ∗ g = g für ein g ∈ G folgt h = e.(5) für alle g ∈ G gibt es ein eindeutig bestimmtes g−1 ∈ G mit g−1 ∗ g = e =g ∗ g−1.

(6) aus h ∗ g = e oder g ∗ h = e folgt h = g−1.(7) Es gilt (g−1)−1 = g.

Beweis. (1) Sei g ∗ h = g ∗ k. Nach (G3) ex. ein s ∈ G mit s ∗ g = e. Daher gilt

s ∗ (g ∗ h)G1= (s ∗ g) ∗ h = e ∗ h

G2= h

analogs ∗ (g ∗ k) = (s ∗ g) ∗ k = e ∗ k = k

Page 19: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

1.3 Ringe 19

Somit folgt h = k.(3) e ∗ g = g gilt nach (G2). Nach (G3) ex. ein h ∈ G mit h ∗ g = e. Daher gilt

h ∗ (g ∗ e) = (h ∗ g) ∗ e = e ∗ e = e = h ∗ g

Nach (1) folgt g ∗ e = g.(5, Existenz) Sei h ∈ G mit h ∗ g = e (existiert nach G3). Dann gilt

h ∗ (g ∗ h) = (h ∗ g) ∗ h = e ∗ h = h(3)= h ∗ e

Nach (1) folgt g ∗ h = e, d.h. h ist auch ein Rechtsinverses.(2) Sei g ∗ k = h ∗ k. Sei s ∈ G (nach 5) so daß k ∗ s = e. Dann gilt

(g ∗ k) ∗ s = g ∗ (k ∗ s) = g ∗ e(3)= g

analog(h ∗ k) ∗ s = h ∗ (k ∗ s) = h ∗ e = h.

Somit folgt g = h.

(4) g ∗ h = g(3)= g ∗ e

(1)=⇒ h = e, analog: h ∗ g = g = e ∗ g

(2)=⇒ h = e.

(5, Eindeutigkeit) und (6) Seien h, h′ ∈ G mit h ∗ g = e = h′ ∗ g. Mit 2) folgth = h′ Daher ist ⇒ g−1 ist eindeutig in G. Seien h ∈ G mit g ∗ h = e. Wegeng ∗ g−1 = e folgt mit (1) dass h = g−1.(7) aus g ∗ (g−1) = e folgt g = (g−1)−1

Bemerkung. Sind g, g′ ∈ G so gilt

(g ∗ g′)−1 = (g′)−1 ∗ g−1.

Begründung: ((g′)−1 ∗ g−1) ∗ g ∗ g′ = (g′)−1 ∗ e ∗ g′ = e.

Im weiteren werden wir uns vor allem mit abelschen, also kommutativen, Gruppenbeschäftigen.

1.3 Ringe

Definition 1.25. Ein Ring R = (R,+, ·, 0R) ist eine Menge R mit zwei Ver-knüpfungen +, ·: R×R→ R und einem ausgezeichneten Element 0R ∈ R so daßgilt

(R1) (R,+, 0R) ist eine abelsche Gruppe(R2) a · (b · c) = (a · b) · c für alle a, b, c ∈ R(R3) a(b+ c) = ab+ ac, (a+ b)c = ac + bc für alle a, b, c ∈ R.

Page 20: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

20 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Ein Ring mit 1 (unitärer Ring) ist ein Tupel R = (R,+, ·, 0R, 1R), so daß(R,+, ·, 0R) ein Ring ist und außerdem noch gilt

(R4) 1R · a = a = a · 1R für alle a ∈ R.

Ein Ring heißt kommutativ, wenn die Multiplikation kommutativ ist, also wenn(R5) a · b = b · a für alle a, b ∈ R gilt.

Bemerkung. Das inverse Element von a ∈ R bzgl. der Addition bezeichnet manmit −a. Ein Inverses bzgl. der Multiplikation existiert i.A. nicht.

Beispiele. 1) (Z,+, ·, 0, 1) ist ein kommutativer Ring mit 12) Q, R, C analog.3) Z/nZ ist ein kommutativer Ring mit 1. Multiplikationsvorschrift für A · B.

(i) Wähle Repräsentanten a ∈ A, b ∈ B.(ii) Bilde a · b in Z.(iii) A · B := Klasse von a · b.

Wieder muß nachgewiesen werden, daß das Ergebnis unabhängig von der Auswahlin (i) ist.

4) Die Menge der geraden ganzen Zahlen ist ein kommutativer Ring ohne 1.

Lemma 1.26. In einem Ring R = (R,+, ·, 0R) gelten die folgenden Aussagen

(i) 0R · a = 0R = a · 0R für alle a ∈ R(ii) a(−b) = −ab = (−a) · b für alle a, b ∈ R.

Ist R unitär, so gilt

(iii) −b = (−1R)b.

Beweis. (i) 0R · a = (0R + 0R) · a = 0Ra + 0Ra. Nach Kürzen folgt 0R = 0R · a.Analoger Beweis für a · 0R = 0R.(ii) 0R = a ·0R = a(b+(−b)) = ab+a(−b) also −ab = a(−b). Die andere Aussagebeweist man analog.Ist R unitär, so setzt man in (ii) a = 1R, und erhält (iii).

Beispiel. R = {0} mit den einzig möglichen Verknüpfungen + und · heißt derNullring. Der Nullring ist ein kommutativer Ring mit 1. (Es gilt 0R = 0 = 1R).Dies ist der einzige Ring mit 1 in dem 1R = 0R gilt.Grund: Gilt 0R = 1R, so gilt für jedes r ∈ R: r = 1Rr = 0Rr = 0R, d.h. R bestehtaus genau einem Element.

Lemma 1.27. Es sei R = (R,+, ·, 0R, 1R) ein Ring mit 1 und R× ⊂ R dieMenge aller Elemente in R die sowohl ein Links- als auch ein Rechtsinverses bzgl.Multiplikation haben, d.h.

R× = {r ∈ R | ∃s, t ∈ R : sr = 1R = rt}

Dann ist {R×, ·, 1R} eine Gruppe. Man nennt R× die Einheitengruppe von R.

Page 21: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

1.3 Ringe 21

Beweis. Wir müssen zunächst zeigen, dass die Multiplikation nicht aus R× hin-ausführt. Seien also r, r′ ∈ R× und s, s′, t, t′ mit sr = 1 = rt, s′r′ = 1 = r′t′. Danngilt

(s′s)(rr′) = s′(sr)r′ = s′1r′ = s′r′ = 1 und (rr′)(t′t) = r(r′t′)t = r1t = rt = 1.

Daher gilt rr′ ∈ R×. Wir weisen nun die Gruppenaxiome (G1)–(G3) nach. G1,also die Assoziativität der Multiplikation, folgt aus den Axiomen für Ringe (R2).1 ∈ R× ist ein neutrales Element, also gilt G2. Bleibt zu zeigen, dass für r ∈ R×

ein r′ ∈ R× mit r′r = 1 existiert. Nach Definition existiert ein s ∈ R mit sr = 1und wir müssen einsehen, dass s ∈ R× gilt. s hat offensichtlich ein Rechtsinverses,nämlich r. Aber r ist auch linksinvers zu s. Dies sieht man so. Wähle t ∈ R mitrt = 1. Dann gilt:

s = s(rt) = (sr)t = t.

Hieraus folgt: rs = rt = 1.

Bemerkungen. 1. Im Beweis haben wir gesehen, dass für r ∈ R× das Links-und das Rechtsinverse übereinstimmen. Dies folgt auch aus 1.24.2. Angenommen es gilt 0R ∈ R

×. Dann existiert ein r ∈ R mit 0Rr = 1R und esfolgt 0R = 0Rr = 1R, d.h. R ist der Nullring.

Wir werden es zunächst nur mit kommutativen Ringen zu tun haben. Beson-ders einfache Ringe sind Körper. (siehe nächster Abschnitt)

Page 22: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

22 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

1.4 Körper

Definition 1.28. Ein Körper K ist ein kommutativer Ring mit 1 (K,+, 0K, 1K)in dem gilt

K× = K \ {0R}.

In Worten: K ist nicht der Nullring (sonst wäre 0K ∈ K×) und jedes von Nullverschiedene Element besitzt ein Inverses bzgl. Multiplikation.

Beispiele. 1) Q, R, C mit den üblichen Operationen sind Körper.2) Z ist kein Körper (nur 1 und −1 haben ein Inverses).

Lemma 1.29. In einem Körper K gilt

a · b = 0K =⇒ (a = 0K oder b = 0K)

Beweis. Angenommen a 6= 0K . Dann existiert ein a−1 ∈ K mit a−1a = 1K . Esfolgt b = 1K · b = a−1ab = a−10K = 0K .

Lemma 1.30. Ist p eine Primzahl, so ist Z/pZ ein Körper.

Beweis. Z/pZ ist ein kommutativer Ring mit 1. Es genügt zu zeigen, daß jedevon 0 verschiedene Restklasse ein Inverses bzgl. Multiplikation besitzt. In anderenWorten ist zu zeigen:

Für jedes A ∈ Z/pZ, A 6= 0, ist die 1 im Bild der Abbildung:·A : Z/pZ→ Z/pZ, B 7→ A ·B.

Wir zeigen sogar, daß die Abbildung surjektiv ist. Da Z/pZ endlich ist, genügtes nach Lemma 1.19 zu zeigen, daß die Abbildung injektiv ist.Angenommen es gäbe Restklassen B,C ∈ Z/pZ mit AB = AC. Zu zeigen: B =C. Seien a, b, c ∈ Z Vertreter von A,B und C. Wegen A 6= 0 gilt p ∤ a. WegenAB = AC gilt ab ≡ ac mod p ⇒ a(b− c) ≡ 0 mod p ⇒ p | a(b− c).Weil p Primzahl ist und p ∤ a folgt p | (b − c), also b ≡ c mod p also B = C.Also ist die Abbildung: ·A : Z/pZ→ Z/pZ injektiv, also surjektiv, also liegt 1 imBild.

Bemerkung. Ist n ∈ N keine Primzahl, so ist Z/nZ kein Körper.

Beweis. Für n = 1 ist Z/nZ der Nullring. Nun sei n > 1 und keine Primzahl.Dann existieren a, b ∈ N mit 1 < a, b < n und ab = n. Für die Restklassenbedeutet dies a 6= 0, b 6= 0 aber ab = ab = n = 0. Dies steht im Widerspruch zuLemma 1.29. Also ist Z/nZ kein Körper.

Wie man am Beispiel Z/pZ sieht, kann es in einem Körper passieren, dass1K + · · ·+ 1K︸ ︷︷ ︸

p−mal

= 0K gilt.

Page 23: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

1.5 Homomorphismen 23

Definition 1.31. Sei K ein Körper. Die kleinste natürliche Zahl n mit

1K + · · ·+ 1K︸ ︷︷ ︸

n−mal

= 0K (in K)

heißt die Charakteristik von K. Notation char(K). Gibt es eine solche Zahlnicht, setzt man char(K) = 0.

Bemerkung. 1) Offensichtlich gilt immer char(K) = 0 oder char(K) ≥ 2 (wegen1K 6= 0K)2) die Körper Q, R, C haben die Charakteristik 03) Z/pZ hat die Charakteristik p.

Satz 1.32. Die Charakteristik eines Körpers ist entweder gleich 0 oder eine Prim-zahl.

Beweis. Sei char(K) 6= 0, also char(K) = n ≥ 2. Wäre n keine Primzahl, so gäbees a, b ∈ N, 1 < a, b < n mit ab = n. Dann gilt

(1K + · · ·+ 1K)︸ ︷︷ ︸

a−mal

· (1K + · · ·+ 1K)︸ ︷︷ ︸

b−mal

= (1K + · · ·+ 1K)︸ ︷︷ ︸

n−mal

= 0.

Nach Lemma 1.29 ist entweder (1K + · · ·+ 1K)︸ ︷︷ ︸

a−mal

oder (1K + · · ·+ 1K)︸ ︷︷ ︸

b−mal

gleich 0K ,

im Widerspruch zur Minimalität von n.

Bemerkung. Für uns wird (außer recht spät) die Charakteristik keine Rollespielen. Solange es keine Arbeit macht, werden wir jede Annahme an die Cha-rakteristik vermeiden.

1.5 Homomorphismen

Homomorphismen = Strukturerhaltende Abbildungen.

Definition 1.33. Seien (G, ∗G, eG) und (H, ∗H , eH) Gruppen. Eine Abbildungf : G→ H heißt Gruppenhomomorphismus, wenn für alle g, g′ ∈ G gilt

f(g ∗G g′) = f(g) ∗H f(g

′).

Sind (R,+R, ·R, 0R) und S,+S, ·S, 0S) Ringe, so heißt eine Abbildung f : R → SRinghomomorphismus, wenn für alle a, b ∈ R gilt

f(a+R b) = f(a) +S f(b), f(a ·R b) = f(a) ·S f(b).

Ein Ringhomomorphismus f : R → S von Ringen mit 1 (R,+R, ·R, 0R, 1R) und(S,+S, ·S, 0S, 1S) heißt unitär (oder Homomorphismus von Ringen mit 1), wennzusätzlich gilt: f(1R) = 1S.Eine Abbildung von Körpern heißt Körperhomomorphismus, wenn sie einunitärer Ringhomomorphismus ist.

Page 24: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

24 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Definition 1.34. Ein Gruppen-(Ring-, Körper-)-homomorphismus heißt injek-tiv (auch Monomorphismus) bzw. surjektiv (auch Epimorphismus) wenn er alsMengenabbildung injektiv, bzw. surjektiv ist. Er heißt Gruppen-(Ring-, Körper)-Isomorphismus, wenn er bijektiv ist.

Bemerkung. Die inverse Abbildung f−1 zu einem Gruppen-(Ring-, Körper)-Isomorphismus ist auch ein Gruppen-(Ring-, Körper)-Isomorphismus.

Lemma 1.35. Sei f : (G, ∗G, eG) → (H, ∗H , eH) ein Gruppenhomomorphismus.Dann gilt

(i) f(eG) = eH(ii) f(g−1) = f(g)−1 für alle g ∈ G.

Beweis. (i) Es gilt eG ∗G eG = eG, also

f(eG) ∗H f(eG) = f(eG ∗G eG) = f(eG) = f(eG) ∗H eH .

Kürzen ergibt f(eG) = eH .

(ii) eH(i)= f(eG) = f(g ∗ g−1) = f(g) · f(g−1). Daher gilt f(g)−1 = f(g−1).

Beispiele. • Ist (G, ∗, e) eine Gruppe, so ist die Identität id : G → G einGruppenisomorphismus.

• Sind (G, ∗G, eG), (H, ∗H , eH) Gruppen, so ist der triviale Homomorphismusf : G→ H , f(g) = eH für alle g ∈ G ein Gruppenhomomorphismus. Er istgenau dann injektiv, wenn G = {eG} gilt und genau dann surjektiv, wennH = {eH} gilt.

• Sei n ∈ N. Die Restklassenabbildung (kanonische Projektion)

Z −→ Z/nZ , a 7−→ a

ist ein surjektiver, unitärer Ringhomomorphismus.

• Die Inklusionen Q → R → C sind Körperhomomorphismen.

• Die Exponentialabbildung

(R,+, 0) −→ (R>0, ·, 1)t 7−→ et

ist ein Gruppenisomorphismus.

• Sei n ∈ N. Die Abbildung

Sn −→ Sn+1,

(

1 . . . nπ(1) . . . π(n)

)

7−→

(

1 . . . n, n+ 1π(1) . . . π(n), n+ 1

)

ist ein injektiver Gruppenhomomorphismus.

Page 25: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

1.5 Homomorphismen 25

Definition 1.36. Eine Teilmenge H einer Grupppe G = (G, ∗, e) heißt Unter-

gruppe, wenn sie mit der von G ererbten Struktur eine Gruppe ist, d.h.

(i) e ∈ H(ii) h, h′ ∈ H ⇒ h ∗ h′ ∈ H(iii) h ∈ H ⇒ h−1 ∈ H .

Lemma 1.37. Sei H eine Untergruppe von G. Die Relation

g ∼H g′ ⇐⇒ g−1 ∗ g′ ∈ H

ist eine Äquivalenzrelation auf G.

Beweis. Refl.: g ∼H g weil g−1 ∗ g = e ∈ H .Symm.: g ∼H g′ ⇒ g−1 ∗ (g′) ∈ H ⇒ (g′)−1 ∗ g = (g−1 ∗ g′)−1 ∈ H ⇒ g′ ∼H gTrans.: g ∼ g′ und g′ ∼ g′′ ⇒ g−1 ∗ g′′ = g−1 ∗ g′ ∗ (g′)−1 ∗ g′′ ∈ H ⇒ g ∼H g

′′

Bemerkung. Die Äquivalenzklasse eines Elements g ∈ G besteht aus allen g′ ∈G der Form g∗h mit h ∈ H . Bezeichnung: gH . Die Menge aller Äquivalenzklassenwird mit G/H bezeichnet (die “Linksnebenklassen zu H”).

Definition 1.38. Sei f : G → H ein Gruppenhomomorphismus. Der Kern vonf ist die Teilmenge

ker(f) = {g ∈ G | f(g) = eH}

Lemma 1.39. Sei f : G→ H ein Gruppenhomomorphismus.(i) ker(f) ist eine Untergruppe von G(ii) im(f) ist eine Untergruppe von H(iii) f ist injektiv ⇐⇒ ker(f) = {eG}(iv) f ist surjektiv ⇐⇒ im(f) = H .

Beweis. (i) f(eG) = eH ⇒ eG ∈ ker(f).g, g′ ∈ ker(f)⇒ f(g ∗ g′) = f(g) ∗ f(g′) = eH also g ∗ g′ ∈ ker(f)aus 1.35 (ii) folgt für g ∈ ker(f), dass f(g−1) = f(g)−1 = e−1

H = eH , also g−1 ∈ker(f).

Page 26: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

26 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

(ii) f(eG) = eH ⇒ eH ∈ im(f).Seien h, h′ ∈ im(f) und g, g′ ∈ G mit f(g) = h, f(g′) = h′. Dann gilt f(g ∗ g′) =f(g) ∗ f(g′) = h ∗ h′, also h ∗ h′ ∈ im(f).Ist h = f(g) ∈ im(f), so gilt h−1 = f(g−1) ∈ im(f).

(iii) (=⇒) Sei f injektiv. Für g ∈ ker(f) gilt f(eG) = eH = f(g)⇒ g = eG, alsog = eG, d.h. ker(f) = {eG}(⇐=) Sei nun ker(f) = {eG} und g, g′ ∈ G mit f(g) = f(g′). Dann gilt

f(g ∗ (g′)−1) = f(g) ∗ f(g′)−1 = eH ,

also g ∗ (g′)−1 ∈ ker(f) = {eG}. Es folgt g = g′.

(iv) ist trivial.

Bemerkung. Jeder Gruppenhomomorphismus f : G → H induziert einen sur-jektiven Gruppenhomomorphismus F : G։ im(f) durch F (g) = f(g) ∈ im(f).

Notation: Von jetzt an lassen wir das ∗-Zeichen weg und schreiben gh für g ∗ h.

Lemma 1.40. Sei G eine kommutative Gruppe und H ⊂ G eine Untergruppe.

(i) die Menge G/H der Linksnebenklassen zu H wird durch die Verknüpfung

(gH)(g′H) = (gg′)H

zu einer kommutativen Gruppe.

(ii) Die kanonische Projektion p : G→ G/H ist ein surjektiver Gruppenhomo-morphismus und es gilt

ker(p) = H.

Bemerkung. G/H heißt die Faktorgruppe von G nach H .

Beweis. Wir müssen nachweisen, daß die Verknüpfung wohldefiniert ist, d.h. giltg1H = g2H und g′

1H = g′

2H , so folgt (g1g

′1) = (g2g

′2)H .

Wir wissen: g−1

1 g2 ∈ H und (g′1)−1g′

2∈ H . Es ist H Untergruppe in G und G ist

kommutativ. Also gilt

(g1g′1)−1(g2g

′2) = ((g′

1)−1g−1

1 )(g2g′2)

= ((g′1)−1g′

2)(g−1

1 g2) ∈ H

Die Gültigkeit der Gruppenaxiome wird von G ererbt, z.B. gilt eG/H = eGH .

Page 27: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

1.5 Homomorphismen 27

(ii) Kanonische Projektionen ist immer surjektiv. Dass p ein Homomorphismusist, folgt direkt aus der Definition der Verknüpfung auf G/H . Schließlich gilt

ker(p) = {g ∈ G | p(g) = eG/H}= {g ∈ G | g ∼H eG}= {g ∈ G | g−1eG ∈ H} = {g ∈ G | g ∈ H} = H.

Bemerkung. Ist G nicht kommutativ, so ist die Verknüpfung auf G/H nur unterbestimmten Bedingungen an H wohldefiniert.

Definition 1.41. Sei (R,+R, 0R, ·R) ein Ring und S ⊂ R eine Teilmenge. S heißtUnterring (oder Teilring), wenn S mit den von R ererbten Strukturen ein Ringist, d.h.• 0R ∈ S und (S,+R, 0R) ist eine Untergruppe von (R,+R, 0R)• mit s1, s2 ∈ S liegt s1 · s2 in S.Ist R unitär, so heißt S unitärer Unterring von R wenn S ein Unterring ist,unitär ist, und es gilt 1S = 1R.

Beispiel. • Z ist ein unitärer Unterring von Q.• 2Z = {a ∈ Z | a ist gerade} ist ein (nicht-unitärer) Unterring in Z

• R × R mit komponentenweiser Addition und Multiplikation ist ein unitärerRing. R×{0} ⊂ R×R ist ein Unterring, ist unitär, aber kein unitärer Unterringweil: 1R×R = (1, 1), aber 1R×{0} = (1, 0).

Definition 1.42. Ein Unterkörper eines Körpers ist ein unitärer Teilring, derselbst Körper ist.

Beispiel. Q ist Teilkörper von R und C und R ist Teilkörper von C.

Lemma 1.43. Ist

f : (R,+R, 0R, ·R) −→ (S,+S, 0S, ·S)

ein Ringhomomorphismus, so gilt

f(0R) = 0S, f(−a) = −f(a), a ∈ R.

Beweis. Der Ringhomomorphismus f induziert einen Homomorphismus der “un-terliegenden” Gruppen f : (R,+R, 0R) → (S,+S, 0S). Das Ergebnis folgt aus1.35.

Bemerkung. • ker(f) ist ein Unterring in R, der i.A. nicht unitär ist, auch wennR unitär ist.• im(f) ist ein Unterring in S. Sind R und S unitär, und f ein unitärer Ringho-momorphismus, so ist im(f) ein unitärer Teilring.

Page 28: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

28 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Lemma 1.44. Sei f : (R,+R, 0R, ·R, 1R) −→ (S,+S, 0S, ·S, 1S) ein unitärer Ring-homomorphismus. Dann gilt f(R×) ⊂ S× und die induzierte Abbildung

(R×, ·, 1R) −→ (S×, ·, 1S)

zwischen den Einheitengruppen ist ein Gruppenhomomorphismus.

Beweis. Sei r ∈ R× und s ∈ R× sei (Rechts-, wie Links-) Inverses. Dann gilt

f(s)f(r) = f(sr) = f(1R) = 1S, und f(r)f(s) = f(rs) = f(1R) = 1S.

Also gilt f(r) ∈ S×. Die induzierte Abbildung R× → S× ist ein Gruppenhomo-morphismus, weil f ein unitärer Ringhomomorphismus ist.

Satz 1.45. Seien K = (K,+K, ·K , 0K , 1K) und L = (L,+L, ·L, 0L, 1L) Körperund f : K → L ein Körperhomomorphismus. Dann gilt

(i) f ist injektiv(ii) char(K) = char(L)(iii) im(f) ist ein Teilkörper von L

Beweis. (i) Nach 1.39 genügt es zu zeigen, dass ker(f) = {0} gilt. Sei a ∈ker(f), a 6= 0. Dann existiert a−1 ∈ K und es gilt

1L = f(1K) = f(a · a−1) = f(a) · f(a−1) = 0L.

Dieser Widerspruch zeigt, dass ein solches a nicht existiert, also ker(f) = {0}.(ii) Aus (i) folgt

1K + · · ·+ 1K︸ ︷︷ ︸

n−mal

= 0K ⇐⇒ f(1K) + · · ·+ f(1K) = 0L

⇐⇒ 1L + · · ·+ 1L︸ ︷︷ ︸

n−mal

= 0L.

Direkt nach der Definition von Charakteristik folgt char(K) =char(L).(iii) im(f) ist ein unitärer Teilring in L. Zu zeigen: ist y ∈ im(f), y 6= 0, sogilt y−1 ∈ im(f). Sei nun y = f(x). Nach (i) folgt x 6= 0. Daher liegt y in derUntergruppe f(K×) ⊂ L× und das gleiche gilt für y−1.

Bemerkung. Die induzierte Abbildung F : K → f(K), x 7→ f(x) ∈ f(K), istalso ein Körperisomorphismus und man identifiziert K mit f(K).Sprechweise: Der Körper K ist über f in L eingebettet. I.A. kann es mehrereEinbettungen von K nach L geben (!)

Sind f : G1 → G2 und g : G2 → G3 Grupppenhomomorphismen, so auch dieVerknüpfung

g ◦ f : G1 −→ G3.

Gleiches gilt für Ring- und Körperhomomorphismen. Spezialfall G1 = G2 = G3.

Page 29: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

1.5 Homomorphismen 29

Definition 1.46. Sei G eine Gruppe. Ein Gruppenhomomorphismus f : G→ Gheißt Gruppenendomorphismus. Ist f bijektiv, so heißt f Gruppenauto-

morphismus.Die analoge Sprechweise benutzt man für Ringe und Körper.Bezeichnung: End(G), End(R), End(K) bzw. Aut(G), Aut(R), Aut(K).

Lemma 1.47. Sei G eine Gruppe (R ein Ring, K ein Körper). Dann istAut(G)(Aut(R),Aut(K)) mit der Verknüpfung

Aut(G)× Aut(G) −→ Aut(G)(f, g) 7−→ g ◦ f

(analog für Aut(R), Aut(K)) eine Gruppe.

Beweis. Wohldefiniertheit: Mit f und g ist auch g ◦ f bijektiv.• Assoziativität: h ◦ (g ◦ f) = h ◦ g ◦ f = (h ◦ g) ◦ f• neutrales Element: idG• Inverses. Mit f ist auch f−1 ein Gruppenautomorphismus und es gilt

f ◦ f−1 = idG.

Bemerkung. Ist R = (R,+R, ·R, 0R) ein Ring, so muß man zwischen den Grup-pen Aut(R,+R, ·R, 0R) (Ringautomorphismen) und Aut(R,+R, 0R) (Gruppenau-tomorphismen) unterscheiden. Die erste Gruppe ist eine Untergruppe der zweiten.

Page 30: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

30 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

2 Vektorräume

2.1 Definitionen

Sei R ein unitärer Ring.

Definition 2.1. Ein (unitärer Links-)Modul über R ist eine abelsche Gruppe(M,+M , 0M) mit einer Operation

R×M → M, (a,m) 7→ a ·m,

so daß für alle a, b ∈ R, v, w ∈M gilt(M1) a · (b · v) = (a · b) · v(M2) (a+ b) · v = a · v + b · v(M3) a · (v + w) = a · v + a · w(M4) 1R · v = v.

(M2) und (M3) sind so zu interpretieren, dass Punkt- vor Strichrechnung geht.Man läßt die Punkte typischerweise weg und schreibt av für a · v.

Definition 2.2. Ein Modul über einem Körper K heißt K-Vektorraum.

Beispiele. 1) {0} mit der offensichtlichen (und einzig möglichen) Operation istein K-Vektorraum.2) (K,+K , 0K) mit der OperationK×K → K, (a, v) 7→ av ist einK-Vektorraum.3) Kn = K × · · · ×K

︸ ︷︷ ︸

n−mal

wird zum K-Vektorraum durch

(v1, . . . , vn) + (w1, . . . , wn) = (v1 + w1, . . . , vn + wn)

und a(v1, . . . , vn) = (av1, . . . , avn)4) C ist ein R-Vektorraum. Allgemeiner: Ist L ein Körper und K ⊂ L ein Teil-körper, so ist L ein K-Vektorraum.5) Die Menge Cn(R,R) der n-mal stetig differenzierbaren reellwertigen Funktio-nen auf R (0 ≤ n ≤ ∞) ist ein R-Vektorraum durch

Addition: (f1 + f2)(x) = f1(x) + f2(x).Skalarmultiplikation: (af)(x) = af(x).

Von jetzt an sei K ein fixierter Körper, den wir manchmal von der Notationausschließen.

Lemma 2.3. Sei V ein K-Vektorraum. Dann gilt für alle v ∈ V , a ∈ K(i) 0K · v = 0V(ii) (−1)v = −v(iii) a · 0V = 0V .

Page 31: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

2.1 Definitionen 31

Beweis. (i) 0V + 0K · v = 0K · v = (0K + 0K)v = 0K · v + 0K · v. Jetzt kürzen.(ii) 0V = 0K · v = (1K + (−1)K) · v = v + (−1K)v.(iii) a · 0V = a · (0V + 0V ) = a · 0V + a · 0V .

Definition 2.4. Es seien V,W K-Vektorräume. Ein Gruppenhomomorphismus

f : V →W

heißt (K-)lineare Abbildung oder (K-)Vektorraumhomomorphismus, wennf(ax) = a · f(x) für alle x ∈ V gilt. Eine lineare Abbildung heißt Vektorraum-Monomorphismus, Vektorraum-Epimorphismus bzw. Vektorraum-Isomorphismus,wenn sie injektiv, surjektiv bzw. bijektiv ist. Die Menge der linearen Abbildungenvon V nach W wird mit HomK(V,W ) bezeichnet.

Weitere Notationen:

EndK(V ) = HomK(V, V )

Gl(V ) = AutK(V ) = {ϕ ∈ EndK(V ), ϕ ist Isom.}

Beispiele linearer Abbildungen.

1) Kn → K1 = K, (a1, . . . , an) 7→ a1.2) Rn → R, x 7→ 〈x, y〉 für ein festes y ∈ Rn.3) Kn → K2n, (a1, . . . , an) 7→ (a1, . . . , an, a1, . . . , an).

4) C0(R,R)→ R, f 7→1∫

0

f(x)dx.

5) n ≥ 1:

Cn(R,R) −→ Cn−1(R,R)

f 7−→ f ′ = df

dx(Ableitung).

Definition 2.5. Eine Teilmenge V eines Vektorraumes W heißt Untervektor-raum, wenn sie mit den von W ererbten Strukturen ein Vektorraum ist, d.h.(i) V ist Untergruppe von W(ii) v ∈ V ⇒ a · v ∈ V für alle a ∈ K.

Lemma 2.6. Seien f : V →W eine (K-)lineare Abbildung. Dann gilt(i) ker(f) ⊂ V ist Untervektorraum(ii) im(f) ⊂W ist Untervektorraum.

Beweis. ker(f) und im(f) sind Untergruppen nach 1.39. Für v ∈ ker(f) giltf(av) = af(v) = a · 0 = 0, also av ∈ ker(f) für alle a ∈ K. Für w = f(v) ∈ im(f)gilt a · w = a · f(v) = f(a · v) ∈ im(f).

Page 32: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

32 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

2.2 Operationen auf Vektorräumen

1) Seien U, V K-Vektorräume und M eine Menge.• Abb(M,V ) wird zum Vektorraum durch

(f1 + f2)(m) = f1(m) + f2(m), (af)(m) = a(f(m))

neutrales Element: e(m) = 0V für alle m ∈ M . (“Nullabbildung”) Bez.: 0 ∈Abb(M,V )• HomK(U, V ) ⊂ Abb(U, V ) ist ein Untervektorraum, weil:– 0 ist eine lineare Abbildung– f1, f2 linear ⇒ f1 + f2 linear– a ∈ K, f linear ⇒ af linear.

• Spezialfall: V = KHomK(U,K) =: U∗ heißt der Dualraum zu U , seine Elemente heißen Linear-formen auf U .• Ist f : U → V eine lineare Abbildung, so ist die duale Abbildung

f ∗ : V ∗ −→ U∗, ϕ 7−→ ϕ ◦ f

linear. Die Abbildung

∗ : HomK(U, V ) −→ HomK(V ∗, U∗)f 7−→ f ∗

ist linear.Wir haben eine natürliche lineare Abbildung

U −→ (U∗)∗ , u 7−→ (f 7→ f(u)),

die Auswertungsabbildung.• das kartesische Produkt U ×V wird durch (u1, v1) + (u2, v2) = (u1 +u2, v1 +v2)und a(u, v) = (au, av) zu einem K-Vektorraum.Alternative Bezeichnung: U ⊕ V (die direkte Summe).

2) Seien U1, U2 ⊂ V Untervektorräume.• U1 ∩ U2 ist ein Untervektorraum.• U1 + U2 = {u1 + u2 | u1 ∈ U1, u2 ∈ U2} ist ein Untervektorraum.

Lemma 2.7. Die natürliche Abbildung

ϕ : U1 ⊕ U2 → U1 + U2, (u1, u2) 7−→ u1 + u2

ist surjektiv. Gilt U1 ∩ U2 = {0}, so ist ϕ ein Isomorphismus.

Beweis. • ϕ ist linear. Seien u1, v1 ∈ U1, u2, v2 ∈ U2 und a ∈ K:

Page 33: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

2.2 Operationen auf Vektorräumen 33

ϕ((u1, u2) + (v1, v2)) = ϕ((u1 + v1, u2 + v2))= u1 + v1 + u2 + v2 = (u1 + u2) + (v1 + v2)= ϕ((u1, u2)) + ϕ((v1, v2)).

ϕ(a(u1, u2)) = ϕ(au1, au2)) =au1 + au2 = a(u1 + u2) = aϕ((u1, u2)).

• Die Surjektivität folgt aus der Definition von U1 + U2.

• Sei U1 ∩ U2 = {0} und (u1, u2) ∈ ker(ϕ). Dann gilt u1 + u2 = 0 ⇒ u1 = −u2.Folglich u1 ∈ U2, u2 ∈ U1, also u1, u2 ∈ U1 ∩ U2 = {0} ⇒ (u1, u2) = (0, 0). Dahergilt ker(φ) = {0} und die Injektivität von ϕ folgt aus 1.39 (iii).

3) Sei U ⊂ V ein Untervektorraum. Die Faktorgruppe V/U der Restklassen v+Uvon V modulo U wird ein K-Vektorraum durch

a · (v + U) = a · v + U.

Unabhängigkeit von der Auswahl: Ist v1 + U = v2 + U , so gilt v1 − v2 ∈ U .Folglich: av1 − av2 = a(v1 − v2) ∈ U und daher av1 + U = av2 + U

V/U heißt der Faktorvektorraum. Die kanonische Projektion p : V → V/U istlinear.

Satz 2.8. (Universelle Eigenschaft des Faktorraums). Sei U ⊂ V ein Untervek-torraum und p : V → V/U die kanonische Projektion. Zu jeder linearen Abbildungf : V → W mit U ⊂ ker(f) gibt es eine eindeutig bestimmte lineare Abbildungf : V/U →W mit f = f ◦ p: Bild

V

W

V/U

f

p

f

Beweis. Existenz: Definiere f(v + U) = f(v).Wohldefiniertheit: Gilt v1 + U = v2 + U , so gilt v1 − v2 ∈ U ⊂ ker(f). Daher gilt

f(v1) = f(v1)− f(v1 − v2) = f(v1 − v1 + v2)= f(v2).

Eindeutigkeit: Seien f1 und f2 zwei solche Abbildungen und v+U ∈ V/U beliebig.Z.z. f

1(v + U) = f

2(v + U). Wegen f(v) = f

1(p(v)) = f

1(v + U) und f(v) =

f2(p(v)) = f

2(v + U) gilt f

1(v + U) = f

2(v + U).

Page 34: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

34 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Korollar 2.9. Seien U ⊂ V Vektorräume und W ein weiterer Vektorraum. Danngibt es einen natürlichen Isomorphismus von Vektorräumen

F : {ϕ ∈ HomK(V,W ) | U ⊂ ker(ϕ)}∼−→ HomK(V/U,W )

Beweis. Die Abbildung F ist durch die Universaleigenschaft des Faktorraumsgegeben (2.8), d.h. F (ϕ) =: ψ ist die eindeutig bestimmte Abbildung mit ψ(v +U) = ϕ(v) ∈W . Dass F linear ist, folgt direkt aus der Definition.Um zu zeigen, daß F ein Isomorphismus ist, genügt es, eine Umkehrabbildunganzugeben. Sei p : V → V/U die kanonische Projektion und für ψ : V/U → Wsetze G(ψ) = ψ ◦ p : V →W . Dann gilt F ◦G(ψ) = ψ und G ◦ F (ϕ) = ϕ für alleϕ und ψ.

Korollar 2.10. Es gibt einen natürlichen Isomorphismus

(

W/im(f))∗ ∼= ker(f ∗ : W ∗ → V ∗).

Beweis.

(

W/im(f))∗

= HomK(W/im(f), K)und

ker f ∗ = {ϕ : W −→ K, f ∗(ϕ) = 0}= {ϕ : W −→ K, ϕ ◦ f = 0}= {ϕ : W −→ K | im(f) ⊂ kerϕ}

Die Aussage folgt aus 2.9 (mit U = im(f) und W = K).

Satz 2.11. (Erster Homomorphiesatz für lineare Abbildungen). Seien U, V Vek-torräume und f : V → W eine lineare Abbildung. Dann gibt es einen natürlichenVektorraumisomorphismus

F : V/ ker(f)∼−→ im(f)

mit der Eigenschaft f = i◦F ◦p. Hier bezeichnet p : V → V/ ker(f) die kanonischeProjektion und i : im(f)→W die Inklusion.

Beweis. Nach 2.8 erhalten wir eine Abbildung f : V/ ker(f) → W mit f(v +ker(f)) = f(v), d.h. f = f ◦ p.• f ist injektiv, da f(v + ker(f)) = 0 ⇒ f(v) = 0⇒ v ∈ ker(f) ⇒ v + ker(f) =0 + ker(f).• das Bild von f ist gleich im(f) (klar).Damit können wir f in der Form f = i ◦ F mit F : V/ ker(f)→ im(f) schreiben.i und f sind injektiv, also auch F . Außerdem ist F nach Konstruktion surjektiv.Daher ist F ein Isomorphismus und es gilt f = f ◦ p = i ◦ F ◦ p.

4) Unendliche Familien

Page 35: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

2.2 Operationen auf Vektorräumen 35

Seien (Ui)i∈I Vektorräume. Das kartesische Produkt

i∈I

Ui

wird (analog zum Produkt zweier Vektorräume) durch komponentenweise Addi-tion und Skalarmultiplikation zu einem Vektorraum.

Notation: Ist I eine Indexmenge und sind (ai)i∈I Objekte die durch I induziertsind, so sagt man, daß eine Eigenschaft “für fast alle i ∈ I” erfüllt ist, wenn eseine endliche Teilmenge J ⊂ I gibt, so daß ai die Eigenschaft für alle i ∈ I \ Jhat.

Beispiel.⊕

i∈I

Ui := {(ui)i∈I | ui = 0 für fast alle i}

heißt die direkte Summe der Vektorräume Ui und ist ein Untervektorraum imProdukt. Ist I selbst eine endliche Menge so gilt

i∈I

Ui =∏

i∈I

Ui.

Ist die Indexmenge I endlich und nicht-leer nimmt man sich typischerweise eine

bijektive Abbildung I∼−→ {1, . . . , n} und schreibt

i∈I

Ui =n⊕

i=1Ui und analog für

die anderen Operationen.

Konventionen:⊕

i∈∅

Ui = {0} =∏

i∈∅

Ui.

Für Unterräume in V :∑

i∈∅

Ui = {0},⋂

i∈∅

Ui = V.

Sei nun (Ui)i∈I eine Familie von Unterräumen eines Vektorraums V . Dann habenwir die Untervektorräume

i∈I

Ui = {u | u ∈ Ui für alle i}

i∈I

Ui =

{

i∈I

ui | ui ∈ Ui für alle i, und ui = 0 f. f. a. i.

}

Wegen der Bedingung ui = 0 f. f. a. i ist die scheinbar unendliche Summe nureine endliche Summe und darum überhaupt erst definiert.

Wir haben gesehen, daß HomK(V,W ) wieder eine Vektorraumstruktur trägt. Ins-besondere ist es eine abelsche Gruppe bzgl. +. Ist V = W , so definieren wir aufHomK(V, V ) = EndK(V ) eine Multiplikation durch ◦ (Komposition).

Lemma 2.12. Mit diesen Operationen ist (EndK(V ),+, ◦, 0, idV ) ein unitärerRing. Die Abbildung

K → EndK(V ), a 7−→ a · idV

Page 36: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

36 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

ist ein Ringhomomorphismus. Durch die Operation

EndK(V )× V −→ V(f, v) 7−→ f(v)

wird V zu einem (unitären, links) EndK(V )-Modul .

Beweis. Wir verifizieren die Ringaxiome für (EndK(V ),+, ◦, 0, idV ). Zunächst ist◦ assoziativ. Weiter gilt g ◦ (f1 + f2) = g ◦ f1 + g ◦ f2 wegen

(g ◦ (f1 + f2))(v) = g((f1 + f2)(v)) = g(f1(v) + f2(v)) = g(f1(v)) + g(f2(v))= g ◦ f1(v) + g ◦ f2(v) = (g ◦ f1 + g ◦ f2)(v).

Analog (g1 + g2) ◦ f = g1 ◦ f + g2 ◦ f . Also ist EndK(V ) ein Ring in dem idVoffenbar ein 1-Element ist. Dass die Abbildung K → EndK(V ), a 7→ a · idV einRinghomomorphismus ist, liest man leicht an den Definitionen ab. Die gegebeneOperation macht V zu einem EndK(V )-Modul weil:

(M1) g · (f · v) = g(f(v)) = (g ◦ f)(v) = (g · f)(v).(M2) (f + g) · v = (f + g)(v) = f(v) + g(v) = f · v + g · v(M3)

f · (v + w) = f(v + w) = f(v) + f(w)= f · v + f · w.

(M4) 1EndK(V ) · v = idV (v) = v.

2.3 Basen

Erinnerung: Eine über eine Indexmenge I indizierte Familie (mi)i∈I von Elemen-ten einer Menge M ist nichts weiter als eine Abbildung m : I → M und wirschreiben m(i) = mi ∈M und m = (mi)i∈I ∈M

I .

Sprechweise: (mi)i∈I ist ein System von Elementen in M .

Definition 2.13. Ein System von Skalaren (αi)i∈I ∈ KI heißt endlich, wenn

αi = 0 für fast alle i gilt. Die Menge aller endlichen Systeme von Skalaren wirdmit

K(I)

bezeichnet.

Bemerkung. Sei V ein K-Vektorraum, (vi)i∈I ein System von Vektoren in Vund (αi)i∈I ∈ K

(I) ein endliches System von Skalaren. Dann gilt αivi = 0 für fastalle i, so dass man der Summe

i∈I

αivi

einen Sinn geben kann.

Page 37: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

2.3 Basen 37

Definition 2.14. Sei V ein K-Vektorraum, I eine Indexmenge und v = (vi)i∈Iein System von Vektoren in V . Der Untervektorraum

Lin((vi)i∈I) =

{

i∈I

αivi | (αi)i∈I ∈ K(I)

}

heißt die lineare Hülle des Systems (vi)i∈I . Jeder Vektor v ∈ Lin((vi)i∈I) heißtLinearkombination der vi. Man nennt Lin((vi)i∈I) auch den von den Vektoren(vi)i∈I aufgespannten Untervektorraum.

Bemerkung. Setzt man Ui = Kvi := {αvi | α ∈ K}, so gilt

Lin((vi)i∈I) =∑

i∈I

Ui.

Definition 2.15. Sei (vi)i∈I ein System von Vektoren eines Vektorraums V .

(i) (vi)i∈I heißt Erzeugendensystem von V , wenn Lin((vi)i∈I) = V gilt

(ii) (vi)i∈I heißt linear unabhängig, wenn für jedes endliche System von Ska-laren (αi)i∈I ∈ K

(I) die Implikation

i∈I

αivi = 0 =⇒ αi = 0 für alle i

gilt.

(iii) (vi)i∈I heißt Basis von V , wenn es zu jedem Vektor v ∈ V ein eindeutigbestimmtes endliches System von Skalaren (αi)i∈I ∈ K

(I) mit v =∑

i∈Iαivi

gibt.

Lemma 2.16. Ein System von Vektoren (vi)i∈I ist genau dann eine Basis vonV wenn es ein Erzeugendensystem und linear unabhängig ist.

Beweis. Sei (vi)i∈I eine Basis. Da jeder Vektor als Linearkombination darstellbarist, gilt Lin((vi)i∈I) = V , d.h. (vi)i∈I ist ein Erzeugendensystem. Ist nun (αi)i∈I ∈K(I) ein endliches System von Skalaren mit

i∈Iαivi = 0, so gilt wegen

i∈I0 ·vi = 0

und der Eindeutigkeit der Darstellung: αi = 0 für alle i ∈ I.Sei nun (vi)i∈I ein Erzeugendensystem. Dann ist jeder Vektor Linearkombinationder (vi)i∈I . Z.z. Ist das System (vi)i∈I linear unabhängig, so ist die Darstellungjedes Vektors v ∈ V als Linearkombination der vi eindeutig.Seien nun (αi), (βi) ∈ K

(I) endliche Familien und∑

αivi = v =∑

βivi. Dann istdie Familie (αi − βi)i∈I auch endlich und es gilt

I

(αi − βi)vi = 0⇒ αi − βi = 0

für alle i. Hieraus folgt αi = βi für alle i.

Page 38: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

38 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Beispiel. Im Kn bilden die Vektoren

e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 1)

eine Basis. Diese heißt die kanonische Basis des Kn. Der Vektor ei, (i =1, . . . , n), heißt der i-te Einheitsvektor.

Lemma 2.17. Der K-Vektorraum V habe die endliche Basis (v1, . . . , vn). Dannist die Abbildung

φ : Kn −→ V

(α1, . . . , αn) 7−→n∑

i=1αivi

ein Vektorraumisomorphismus.

Beweis. Zunächst ist φ linear.v1, . . . , vn linear unabhängig ⇒ ker(φ) = 0⇒ φ ist injektiv.v1, . . . , vn sind Erzeugendensystem ⇒ φ ist surjektiv.

Bemerkung. Im Moment wissen wir noch nicht, ob für n 6= m eventuell einIsomorphismus Kn ∼= Km existieren könnte.

• Aus unseren Konventionen folgt, daß der triviale K-Vektorraum {0} dieleere Basis hat

• Jeder Vektorraum V hat ein Erzeugendensystem, z.B. das, welches aus allenVektoren besteht (wähle I = V und id : V → V )

• Ist V 6= {0} und 0 6= v ∈ V , so ist das 1-elementige System (v1), v1 = v,linear unabhängig (α1v1 = 0 und α1 6= 0 ⇒ 0 = α−1

1 α1v1 = v1, Wider-spruch).

Definition 2.18. Ein Vektorraum V heißt endlich erzeugt, wenn es ein endli-ches Erzeugendensystem (v1, . . . , vn) von V gibt.

Beispiel. Kn ist endlich erzeugt.

Bemerkung. Im Moment wissen wir noch nicht, ob ein Untervektorraum einesendlich erzeugten Vektorraums wieder endlich erzeugt ist. Später werden wir dieszeigen.

Definition 2.19. Ein Erzeugendensystem (vi)i∈I eines Vektorraums V heißt mi-

nimal, wenn für jede echte Teilmenge J $ I das System (vi)i∈J kein Erzeugen-densystem ist.

Beispiel. Das Erzeugendensystem (e1, . . . , en) des Kn ist minimal. Läßt manden i-ten Einheitsvektor weg, so kann man nur noch Elemente (α1, . . . , αn) ∈ K

n

mit αi = 0 als Linearkombination erhalten. Wegen 1 6= 0 in K fehlt also z.B. derVektor (0, . . . , 1, . . . , 0) (die 1 steht an i-ter Stelle).

Page 39: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

2.3 Basen 39

Satz 2.20. Ein Erzeugendensystem ist genau dann minimal, wenn es eine Basisist.

Beweis. Sei (vi)i∈I eine Basis und J $ I eine echte Teilmenge. Wähle ein i0 ∈ I\J .Trivialerweise gilt vi0 = 1 ·vi0. Wegen der Eindeutigkeit der Darstellung, läßt sichalso vi0 nicht als Linearkombination der vj , j ∈ J , schreiben, und deshalb ist(vi)i∈J kein Erzeugendensystem. Folglich ist (vi)i∈I ein minimales Erzeugenden-system.

Sei nun (vi)i∈I ∈ VI ein minimales Erzeugendensystem. Nach 2.16 müssen

wir zeigen, dass (vi)i∈I linear unabhängig ist. Angenommen es gäbe ein von 0verschiedenes endliches System (αi) ∈ K

(I) mit∑

i∈Iαivi = 0. Sei i0 ∈ I mit

αi0 6= 0. Dann gilt−αi0vi0 =

i∈I\{i0}

αivi,

also vi0 =∑

i∈I\{i0}−αiαi0vi.

Behauptung: (vi)i∈I\{i0} ist auch ein Erzeugendensystem.

Beweis der Behauptung: Sei v ∈ V . Dann existiert eine endliche Familie βi ∈ K(I)

mit v =∑

i∈Iβivi. Nun gilt

v = βi0vi0 +∑

i∈I\{i0}

βivi =∑

i∈I\{i0}

(

−βi0 · αiαi0

+ βi

)

vi.

Dies zeigt die Behauptung und wir erhalten einen Widerspruch zur Minimalitätdes Systems (vi)i∈I .

Vorbemerkung: Seien I, J Mengen, die nicht (oder nicht notwendig) Teilmengeneiner gemeinsamen Obermenge sind. Dann kann man die disjunkte Vereinigung

I ∪ J bilden. Die Elemente in I ∪ J sind die Elemente von I und die Elementevon J . Sind I und J Teilmengen einer Menge M , so kann man ihre Vereinigungbilden und es gibt eine natürliche Surjektion

I ∪ J −→ I ∪ J,

die dann und nur dann bijektiv ist, wenn I ∩ J = ∅ gilt.Sind nun (vi)i∈I und (wi)i∈J zwei Systeme von Vektoren eines Vektorraums V , sobezeichnet man das System

(ui)i∈I∪J mit ui =

{

vi i ∈ Iwi i ∈ J

als die Vereinigung der Systeme (vi)i∈I und (wi)i∈J .

Page 40: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

40 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Definition 2.21. Ein linear unabhängiges System von Vektoren (vi)i∈I ∈ VI

heißt maximal, wenn für jeden Vektor v ∈ V das System (vi)i∈I∪{∗} mit vi = vifür i ∈ I und v∗ = v nicht linear unabhängig ist.

Satz 2.22. Ein linear unabhängiges System ist genau dann maximal, wenn eseine Basis ist.

Beweis. Sei (vi) eine Basis und v ∈ V beliebig. Dann existiert (αi)i∈I ∈ K(I) mit

v =∑

αivi. Dies formuliert man zu

αivi + (−1)v = 0

um und sieht, dass die Vereinigung von (vi)i∈I mit dem 1-elementigen System(v) nicht linear unabhängig ist. Also ist (vi) ein maximales linear unabhängigesSystem.

Sei (vi) ein maximales linear unabhängiges System. Nach 2.16 ist zu zeigen,dass (vi) ein Erzeugendensystem ist. Angenommen nicht. Dann gäbe es ein

v ∈ V \ Lin((vi)i∈I).

Behauptung: Das System (vi)i∈I∪{∗} mit vi = vi für i ∈ I, v∗ = v ist linearunabhängig.

Beweis der Beh.: Sei (αi)i∈I∪{∗} eine endliche Familie mit∑

i∈I∪{∗}αivi = 0. Dann

gilt α∗v = −∑

i∈Iαivi. Wegen v /∈ Lin((vi)i∈I) folgt α∗ = 0. Da das System (vi)i∈I

linear unabhängig ist, folgt αi = 0 für alle i ∈ I. Dies zeigt die Behauptung.

Wegen der Maximalität von (vi)i∈I erhalten wir einen Widerspruch, also giltLin((vi)i∈I) = V .

Page 41: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

2.3 Basen 41

Satz 2.23. (Basisergänzungssatz) Sei (vi)i∈I ein Erzeugendensystem des Vektor-raums V und I ′ ⊂ I eine Teilmenge, so dass das System (vi)i∈I′ linear unabhängigist. Dann gibt es eine Teilmenge J ⊂ I, mit I ′ ⊂ J so daß (vi)i∈J eine Basis ist.Insbesondere besitzt jeder Vektorraum eine Basis und jeder endlich erzeugte Vek-torraum besitzt eine endliche Basis.

Beweis. Wir begründen zunächst das „insbesondere“. Sei (vi)i∈I ein Erzeugen-densystem von V (jeder Vektorraum besitzt ein solches). Setzt man I ′ = ∅, soerhält man J ⊂ I so dass (vi)i∈J eine Basis von V ist. War I endlich, so ist auchJ endlich.

Nun beweisen wir die Aussage des Satzes. Die Strategie ist die folgende: Wirerhalten durch Vergrößern der Menge I ′ ein maximal linear unabhängiges System,welches nach 2.22 eine Basis ist. Der Prozess des Vergrößerns ist im Fall dass Iein unendliches System ist mengentheoretisch aufwendig. Wir beschränken unsdaher auf den Fall dass I endlich ist. Einen Beweis im allgemeinen Fall findetman z.B. in W. Greub “Lineare Algebra” oder in F. Brieskorn “Lineare Algebraund analytische Geometrie”.

Sei nun (v1, . . . , vn), n ≥ 0, ein linear unabhängiges System und (w1, . . . , wm)ein System, so dass V durch (v1, . . . , vn, w1, . . . , wm) erzeugt wird. Wir zeigen: esgibt eine Zahl s, 0 ≤ s ≤ m, und Indizes 1 ≤ j(1) < · · · < j(s) ≤ m so daß(v1, . . . , vn, wj(1), , . . . , wj(s)) eine Basis ist:

Wir starten mit dem System (v1, . . . , vn).- nehme w1 zum System hinzu. Wenn es dadurch linear abhängig wird, ent-

fernen wir w1 wieder.- nehme w2 zum System hinzu. Wenn es dadurch linear abhängig wird, ent-

fernen wir w2 wieder.usw.- nehme wm zum System hinzu. Wenn es dadurch linear abhängig wird, ent-

fernen wir wm wieder.

Wir erhalten ein System (wj(1), . . . , wj(s)) mit folgenden Eigenschaften:

• (v1, . . . , vn, wj(1), . . . , wj(s)) ist linear unabhängig• wenn man ein weiteres w hinzunimmt wird das System linear abhängig

Nach Umnumerierung von w1, . . . , wm sei dieses System (v1, . . . , vn, w1, . . . , ws).

Behauptung: Das linear unabhängige System (v1, . . . , vn, w1, . . . , ws) ist ein Er-zeugendensystem, also eine Basis.

Beweis der Behauptung: Sei s < i ≤ m. Nach Konstruktion ist das System(v1, . . . , vn, w1, . . . , ws, wi) linear abhängig. Daher existieren Skalareα1, . . . , αn, β1, . . . , βs, βi ∈ K mit

α1v1 + · · ·+ αnvn + β1w1 + · · ·+ βsws + βiwi = 0,

Page 42: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

42 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

wobei nicht alle Koeffizienten gleich 0 sind. Wäre βi = 0, so wären alle anderenKoeffizienten auch 0 (lineare Unabhängigkeit von (v1, . . . , vn, w1, . . . , ws)). Alsoist βi 6= 0. Daher gilt wi = −β−1

i (α1v1+· · ·+αnvn+β1w1+· · ·+βsws), d.h. für s <i ≤ m kann man wi als Linearkombination von v1, . . . , vn, w1, . . . , ws schreiben.Ein beliebiges Element v ∈ V kann nach Voraussetzung als Linearkombinationvon v1, . . . , vn, w1, . . . , wm und daher (nach Substitution von ws+1, . . . , wm) auchals Linearkombination von (v1, . . . , vn, w1, . . . , ws), geschrieben werden. Dies zeigtdie Behauptung und beendet den Beweis.

Mit dem Basisergänzungssatz 2.23 und Lemma 2.17 sehen wir, daß jeder end-lich erzeugte Vektorraum isomorph zu einem Kn ist. Aber ist das n eindeutigbestimmt? Wichtig ist nun der

Satz 2.24. Sei (v1, . . . , vn) linear unabhänging und (w1, . . . , wm) eine Basis vonV . Dann gilt n ≤ m.

Beweis. In linear unabhängigen Systemen kommt kein Vektor doppelt vor, alsogilt: #{v1, . . . , vn} = n, #{w1, . . . , wm} = m. Sei

k = #({v1, . . . , vn} \ {w1, . . . , wm}).

Dann gilt 0 ≤ k ≤ n. Wir führen den Beweis mit Induktion nach k.IAnfang: k = 0⇒ {v1, . . . , vn} ⊂ {w1, . . . , wm}, also n ≤ m.IVorraussetzung: Die Aussage sei für beliebige Systeme (v1, . . . , vn), (w1, . . . , wm)mit den obigen Eigenschaften und #({v1, . . . , vn} \ {w1, . . . , wm}) < k schon be-wiesen.ISchritt: Seien nun (v1, . . . , vn) und (w1, . . . , wm) solche Systeme mit #({v1, . . . , vn}\{w1, . . . , wm}) = k. Nach Umnummerierung können wir annehmen:

• {v1, . . . , vk} ∩ {w1, . . . , wm} = ∅• {vk+1, . . . , vn} ⊂ {w1, . . . , wm}

Wir betrachten nun das linear unabhängige System (v1, . . . , vk−1, vk+1, . . . , vn).Nach 2.23 gibt es wj(1), . . . , wj(s) so daß (v1, . . . , vk−1, vk+1, . . . , vn, wj(1), . . . , wj(s))eine Basis ist. Wegen vk 6∈ Lin(v1, . . . , vk−1, vk+1, . . . , vn) gilt s ≥ 1. Wir wendennun die Indvoraussetzung auf die Systeme

(v1, . . . , vk−1, vk+1, . . . , vn, wj(1), . . . , wj(s)), (w1, . . . , wm)

an. Dies geht wegen

#({v1, . . . , vk−1, vk+1, . . . , vn, wj(1), . . . , wj(s)} \ {w1, . . . , wm}) < k.

Nach Induktionsvor. gilt n− 1 + s ≤ m und wegen s ≥ 1 folgt n ≤ m.

Page 43: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

2.3 Basen 43

Korollar 2.25. Sei V ein Vektorraum, der eine Basis aus n Vektoren hat. Danngilt:

(i) mehr als n Vektoren sind stets linear abhängig,(ii) jede Basis von V besteht aus genau n Vektoren,(iii) jedes Erzeugendensystem besteht aus mindestens n Vektoren.

Beweis. (i) folgt aus 2.24.(ii): ist (v1, . . . , vn) eine Basis und (w1, . . . , wm) eine andere Basis, so folgt aus2.24 dass n ≤ m und m ≤ n.(iii) Wäre (w1, . . . , wm), m < n, ein Erzeugendensystem, so gäbe es nach 2.23eine Basis aus weniger als n Vektoren, was (ii) widerspräche.

Definition 2.26. Ist V ein endlich erzeugter Vektorraum, so nennt man dieKardinalität einer (jeder) Basis die Dimension von V . ( Bezeichnung: dimK Voder einfach dim V ). Ist V nicht endlich erzeugt, so setzt man dim V =∞.

Beispiel. V = {0} ⇐⇒ dim V = 0.• dimKn = n, insbesondere gilt:Kn ∼= Km ⇒ n = m, da isomorphe Vektorräumedie gleiche Dimension haben.• dimR C

0(R,R) =∞.

Beweis der letzten Aussage: Sei n ∈ N beliebig und seien a0, . . . , an ∈ R reelleZahlen, nicht alle 0. Dann ist a0 + a1x + · · ·+ anx

n nicht das Nullpolynom, hatdaher nur endlich viele Nullstellen und ist insbesondere nicht konstant 0. Dasbedeutet, dass die n+1 Funktionen 1, x, x2, . . . , xn linear unabhängig sind. Dahergilt dimR C

0(R,R) > n für alle n ∈ N, was die Aussage zeigt.

Satz 2.27. Ist V ein endlich erzeugter Vektorraum und W ⊂ V ein Untervek-torraum, so ist W endlich erzeugt und es gilt dimW ≤ dim V . Die Gleichheit istäquivalent zu W = V .

Beweis. Sei n = dim V . Wir erhalten eine endliche Basis von W wie folgt.

(1) W = {0} fertig.

(2) W 6= {0}. Wähle w1 ∈W \ {0}.(w1) Basis von W fertig. Ansonsten ist (w1) kein maximales linear unab-hängiges System und wir finden w2 ∈ W mit (w1, w2) linear unabhängig.(w1, w2) Basis fertig, ansonsten suche w3 usw.

Dieser Prozess bricht ab, weil mehr als n Vektoren in V (und damit in W ) stetslinear abhängig sind. Wir erhalten eine Basis (w1, . . . , wm) von W mit m ≤ n.Im Fall m = n ist (w1, . . . , wm) ein maximales linear unabhängiges System vonVektoren in V , also eine Basis, daher W = Lin(w1, . . . , wn) = V .

Page 44: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

44 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Von jetzt an benutzen wir das Wort endlich-dimensionaler Vektorraum für endlicherzeugte Vektorräume.

Lemma 2.28. Sei f : V → W eine lineare Abbildung zwischen endlich-dimen-sionalen Vektorräumen. Dann gilt

(i) ist f injektiv und (v1, . . . , vn) linear unabhängig in V , so ist (f(v1), . . . , f(vn))linear unabhängig in W . Insbesondere gilt dimV ≤ dimW und Gleichheitgilt dann und nur dann, wenn f ein Isomorphismus ist.

(ii) Ist f surjektiv und (v1, . . . , vn) ein Erzeugendensystem von V , so ist(f(v1), . . . , f(vn)) ein Erzeugendensystem von W . Es gilt dim V ≥ W undGleichheit gilt genau dann, wenn f ein Isomorphismus ist.

Beweis. (i) Sei (v1, . . . , vn) ein linear unabhängiges System in V . Dann gelten dieImplikationen

n∑

i=1αif(vi) = 0 ⇒ f

(

n∑

i=1αivi

)

= 0⇒n∑

i=1αivi = 0 ⇒ αi = 0 für i = 1, . . . , n.

Daher ist das System (f(v1), . . . , f(vn)) von Vektoren in W linear unabhängig.Ist nun (v1, . . . , vn) eine Basis von V , folgt aus der linearen Unabhängigkeit von(f(v1), . . . , f(vn) und aus 2.27 die Ungleichung dimV = n ≤ dimW .Da f injektiv ist, induziert f einen Isomorphismus

F : V∼

−→ im(f), v 7→ f(v) ∈ im(f) ⊂W.

Wir erhalten dim im(f) = dim V . Nun folgt

f Isom. ⇔ im(f) = W2.27⇔ dim im(f) = dimW ⇔ dim V = dimW .

Page 45: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

2.3 Basen 45

(ii) Sei f surjektiv und (v1, . . . , vn) ein Erzeugendensystem von V . Es sei w =f(v) ∈ W beliebig. Dann existieren α1, . . . , αn ∈ K mit v =

∑ni=1 αivi. Es folgt

w =∑ni=1 αif(vi). Daher ist (f(v1), . . . , f(vn)) ein Erzeugendensystem von W .

Wählen wir nun eine Basis (v1, . . . , vdim(V )), so ist (f(v1), . . . , f(vdim(V )) ein Er-zeugendensystem, also dim V ≥ dimW .

Ist f ein Isomorphismus, so gilt offenbar dim V = dimW . Umgekehrt gel-te dimV = dimW =: n. Sei (w1, . . . , wn) eine Basis von W und wi = f(vi),i = 1, . . . , n. Dann ist (v1, . . . , vn) linear unabhängig(Grund:

αivi = 0 ⇒∑

αif(vi) = 0 ⇒ αi = 0, i = 1, . . . , n), wegen n = dimV maximal linear unab-

hängig, also eine Basis von V . Ist nunn∑

i=1αivi ∈ ker(f), so folgt

n∑

i=1αiwi = 0, also

αi = 0, i = 1, . . . , n. Daher gilt ker(f) = {0} und f ist ein Isomorphismus.

Korollar 2.29. Sei V ein endlich-dimensionaler K-Vektorraum und f : V → Vein Endomorphismus. Dann sind äquivalent:

(i) f ist injektiv(ii) f ist surjektiv(iii) f ist ein Isomorphismus.

Beweis. Ist f injektiv, so ist f Isomorphismus nach 2.28 (i). Ist f surjektiv, soist f Isomorphismus nach 2.28 (ii). Die verbleibenden Implikationen sind trivial.

Lemma 2.30. Sind U, V Vektorräume, so gilt

dimU ⊕ V = dimU + dim V

Bemerkung. Per Konvention gilt ∞ + n = ∞ = ∞ + n für n ∈ N0, sowie∞+∞ =∞.

Beweis. Gilt dimU =∞ oder dim V =∞, so gilt nach 2.27 auch dimU⊕V =∞.Sind n = dimU und m = dim V endlich, (u1, . . . , un) eine Basis von U und(v1, . . . , vm) eine Basis von V , so sieht man unmittelbar, daß

((u1, 0), (u2, 0), . . . , (un, 0), (0, v1), . . . , (0, vm))

eine Basis von U ⊕ V ist. Dies zeigt die Dimensionsformel.

Definition 2.31. Es sei V ein Vektorraum und U ⊂ V ein Untervektorraum.Ein Untervektorraum U ′ von V heißt Komplement zu U , wenn gilt

U ∩ U ′ = {0} und U + U ′ = V.

Bemerkung. Ist U ′ ein Komplement zu U , so ist U ein Komplement zu U ′.

Satz 2.32. Sei V ein Vektorraum und U ⊂ V ein Untervektorraum. Dann exi-stiert ein Komplement U ′ zu U .

Page 46: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

46 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Beweis. Sei (ui)i∈I eine Basis von U . Wir ergänzen diese zu einer Basis (ui)i∈I∪Jvon V . Setze U ′ = Lin((ui)i∈J). Dann gilt U ∩ U ′ = {0}, U + U ′ = V .

Lemma 2.33. Sei V ein Vektorraum, U ⊂ V ein Untervektorraum und U ′ ⊂ Vein Komplement zu U . Dann ist die natürliche Abbildung

U ⊕ U ′ −→ V, (u, u′) 7→ u+ u′

ein Isomorphismus. Insbesondere gilt dimV = dimU + dimU ′.

Beweis. Der Isomorphismus folgt aus 2.7, die Dimensionsformel aus 2.30.

Satz 2.34 (Dimension des Faktorraums). Sei V ein endlich-dimensionaler Vek-torraum und U ⊂ V ein Untervektorraum. Dann ist V/U endlich-dimensionalund es gilt

dimV/U = dimV − dimU.

Beweis. Sei U ′ ein Komplement zu U in V . Wir betrachten die zusammengesetzteAbbildung

ϕ : U ′i−→ V

p−→ V/U.

Behauptung: ϕ ist ein Isomorphismus.

Beweis der Behauptung: ker(ϕ) = ker(p)∩U ′ = U ∩U ′ = {0}. Also ist ϕ injektiv.Sei nun v + U ∈ V/U beliebig. Wegen U + U ′ = V existiert u ∈ U und u′ ∈ U ′

mit u + u′ = v, also u′ + U = v + U . Somit ist u′ ein Urbild von v + U unterϕ.

Satz 2.35. (Dimensionsformel für lineare Abbildungen). Ist f : V → W einelineare Abbildung zwischen endlich-dimensionalen Vektorräumen, so gilt

dimV = dim(ker(f)) + dim(im(f)).

Beweis. Nach Satz 2.11 gilt V/ ker(f) ∼= im(f). Die Aussage folgt aus 2.34.

Satz 2.36. Seien U1, U2 Untervektorräume des endlich-dimensionalen Vektor-raums U Dann gilt

dimU1 + dimU2 = dim(U1 + U2) + dim(U1 ∩ U2)

Beweis. Wir betrachten wie im Beweis von Lemma 2.7 die surjektive lineareAbbildung

ϕ : U1 ⊕ U2 −→ U1 + U2, (u1, u2) 7−→ u1 + u2

Behauptung: Die Abbildung

i : U1 ∩ U2 −→ ker(ϕ), u 7−→ (u,−u)

ist ein Isomorphismus.

Beweis der Behauptung: Injektivität ist klar. Sei (u1, u2) ∈ ker(ϕ). Dann giltu1 = −u2, also u1, u2 ∈ U1 ∩ U2. Setze u = u1, dann gilt i(u) = (u1, u2). Dieszeigt die Surjektivität.

üNach 2.35 gilt nun dim(U1 ⊕ U2) = dim(U1 ∩ U2) + dim(U1 + U2) und nach2.30 gilt dim(U1 ⊕ U2) = dimU1 + dimU2.

Page 47: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

2.4 Basen und lineare Abbildungen 47

2.4 Basen und lineare Abbildungen

Sei f : V →W eine lineare Abbildung und (vi)i∈I eine Basis von V . Wir erhaltendas System (f(vi))i∈I von Vektoren in W . Umgekehrt gilt:

Satz 2.37. Zu jedem System (wi)i∈I gibt es eine eindeutig bestimmte lineareAbbildung f : V →W mit wi = f(vi) für alle i ∈ I.

Beweis. Jedes v ∈ V hat eine endliche Darstellung v =∑

i∈I

αivi, αi = 0 f.f.a. i.

Wegen der Eindeutigkeit der Darstellung ist die Abbildung

f : V −→W, f(v) =∑

i∈I

αiwi

wohldefiniert, linear und hat die gewünschte Eigenschaft. Sind nun f1, f2 zweilineare Abbildungen und f1(vi) = wi = f2(vi) für alle i ∈ I, so gilt für v =

αivi:

f1(v) =∑

i∈I

αif1(vi) =∑

αiwi =∑

αif2(vi) = f2(∑

αivi) = f2(v),

also f1 = f2.

Korollar 2.38. Für jeden Vektorraum V ist die kanonische Auswertungsabbil-dung ϕ : V → V ∗∗ injektiv.

Beweis. Zu zeigen: ker(ϕ) = 0, d.h.: aus f(u) = 0 für alle f ∈ V ∗ folgt u = 0.Sei u 6= 0. Nach dem Basisergänzungssatz 2.23 existiert eine Basis (ui)i∈I , die uenthält, d.h. ui0 = u für ein i0 ∈ I. Wir definieren eine Linearform f : V → Kdurch f(ui0) = 1 und f(ui) = 0 für i 6= i0. Dann gilt f(u) 6= 0.

Satz 2.39. Ist V ein endlich-dimensionaler Vektorraum, so gilt dimV = dim V ∗.

Beweis. Sei (v1, . . . , vn) eine Basis von V . Seien v∗1, . . . , v∗

n ∈ V∗ definiert durch

v∗i (vj) = δij , wobei δij =

{

0 i 6= j1 i = j

(Kroneckersymbol).

Behauptung: (v∗1, . . . , v∗

n) ist eine Basis von V ∗.Beweis: Sei α1v

1 + · · · + αnv∗

n der Nullhomomorphismus V → K. Zu zeigen:α1 = · · · = αn = 0. Es gilt

α1 = α1 + 0 + · · ·+ 0= α1v

1(v1) + α2v∗

2(v1) + · · ·+ αnv∗

n(v1)= (α1v

1 + · · ·+ αnv∗

n)(v1) = 0.

Analog zeigt man α2 = · · · = αn = 0, weshalb (v∗1, . . . , v∗

n) ein linear unabhängigesSystem in V ∗ ist. Sei nun f : V → K beliebig und sei f(vi) = αi, i = 1, . . . , n.Dann gilt f = α1v

1 + · · ·+ αnv∗

n, weil beide Seiten Linearformen auf V sind, diedie gleichen Bilder auf den Basisvektoren v1, . . . , vn haben.

Page 48: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

48 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Definition 2.40. Die eben definierte Basis (v∗1, . . . , v∗

n) von V ∗ heißt die zurBasis (v1, . . . , vn) von V duale Basis.

Korollar 2.41. Ist V ein endlich-dimensionaler Vektorraum, so ist die kanoni-sche Auswertungsabbildung ϕ : V → V ∗∗ ein Isomorphismus.

Beweis. Nach 2.38 ist ϕ injektiv. Nach 2.39 gilt

dim V = dimV ∗ = dimV ∗∗

Wegen 2.28 (i) ist ϕ ein Isomorphismus.

Bemerkung. Für unendlich-dimensionale Vektorräume ist 2.41 falsch!

2.5 Der Rangsatz

Definition 2.42. Seien V,W endlich-dimensionale Vektorräume und f : V →Weine lineare Abbildung. Der Rang von f ist definiert durch

Rg(f) = dim(im(f)).

Bemerkung. • f = 0⇐⇒ Rg(f) = 0• f surjektiv ⇐⇒ Rg(f) = dimW

I.A. gilt die Ungleichung

0 ≤ Rg(f) ≤ min(dim V, dimW ).

Nun definiert f die duale Abbildung f ∗ : W ∗ → V ∗, ϕ 7→ ϕ ◦ f . Es gilt der

Satz 2.43 (Rangsatz). Sei f : V → W eine lineare Abbildung zwischen endlich-dimensionalen Vektorräumen. Dann gilt

Rg(f) = Rg(f ∗)

Beweis. Es gilt für f : V →W :

Rg(f ∗) = dim(im(f ∗))2.35= dim(W ∗)−dim(ker(f ∗))

2.10= dim(W ∗)−dim(W/im(f))∗

2.39= dim(W )− dim(W/im(f))

2.35= dim(W )− dim(W ) + dim(imf) = Rg(f).

Page 49: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

49

3 Matrizen und lineare Gleichungssysteme

Im ganzen Kapitel sei K ein fester Körper. Jeder endlich-dimensionale Vektor-raum V über K ist isomorph zum Kn, n = dim V . Der Isomorphismus ist unka-nonisch und hängt von der Auswahl einer Basis ab. (Lemma 2.17).

3.1 Matrizen

Definition 3.1. Eine m× n-Matrix mit Einträgen in K ist ein Schema

a11 . . . a1n...

. . ....

am1 . . . amn

mit aij ∈ K für 1 ≤ i ≤ m, 1 ≤ j ≤ n.

Die Menge der m× n-Matrizen über K wird mit Mm,n(K) bezeichnet.

Definition 3.2. Mm,n(K) wird zum K-Vektorraum durch

• (aij) + (bij) = (aij + bij),• α · (aij) = (αaij), α ∈ K.

Die m× n Matrix mit 0 an allen Stellen wird mit 0 ∈Mm,n(K) bezeichnet.Üblicherweise identifiziert man Kn mit Mn,1(K) durch

(a1, . . . , an) 7−→

a1...an

(Spaltenvektoren).

Definition 3.3. Sind A = (aij)1≤i≤m1≤j≤n

∈ Mm,n(K) und B = (bij)1≤i≤n1≤j≤k

∈ Mn,k(K)

Matrizen, so heißt die Matrix

C = (cij)1≤i≤m1≤j≤k

∈Mm,k(K) mit cij =n∑

s=1

ais · bsj .

das Produkt der Matrizen A und B. Schreibweise: C = A · B.

Warnung: i.A. ist B · A nicht definiert und selbst im Fall m = n = k, gilt i.A.A · B 6= B · A!

Beispiel.(

1 10 1

)(

23

)

=

(

53

)

(1 2)

(

55

)

= (15)

Identifizieren wir wie oben den Kn mit Mn,1(K), so definiert die Multiplikationmit einer festen Matrix A ∈Mm,n(K) eine Abbildung

Fm,n(A) : Kn → Km.

Page 50: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

50 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Wir erhalten so eine Zuordnung A 7−→ Fm,n(A), die jeder m × n-Matrix eineAbbildung Kn → Km zuordnet.

Satz 3.4. Die eben definierte Zuordnung definiert einen Vektorraum-Isomorphis-mus

Fm,n : Mm,n(K) ∼−→ HomK(Kn, Km)

Für A ∈Mm,n(K) und B ∈Mn,k(K), gilt

Fm,k(A · B) = Fm,n(A) ◦ Fn,k(B)

in HomK(Kk, Km).

Beweis. 1.) Fm,n(A) ist eine lineare Abbildung:

A

x1...xn

+ A

y1...yn

=

a11x1 + a12x2 + · · ·+ a1nxn...

...am1x1 + · · ·+ amnxn

+

a11y1 + · · ·+ a1nyn...

am1y1 + · · ·+ amnyn

=

a11(x1 + y1) + · · ·+ a1n(xn + yn)...

...am1(x1 + y1) + · · ·+ amn(xn + yn)

= A

x1 + y1...

xn + yn

= A

x1...xn

+

y1...yn

A

α

x1...xn

= A

αx1...

αxn

=

a11αx1 + · · ·+ a1nαx1...

am1αx1 + · · ·+ amnαxn

= α

a11x1 + · · ·+ a1nxn...

...am1x1 + · · ·+ amnxn

= α A

x1...xn

2.) Fm,n : Mm,n(K)→ HomK(Kn, Km) ist linear:

Page 51: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

3.1 Matrizen 51

Man muß nachrechnen: Fm,n(A+B) = Fm,n(A) +Fm,n(B) und Fm,n(α ·A) =αFm,n(A). Beide Gleichheiten von linearen Abbildungen zeigt man durch einset-zen eines beliebigen Vektors (x1, . . . , xn) ∈ Kn und Anwendung der Definitionen.Dies sind einfache Rechnungen, ähnlich denen wie unter 1.

3.) Beobachtung: Für 1 ≤ i ≤ n gilt

Fm,n(A)(ei) = A

0...1...0

i-te Stelle =

a1,i...

am,i

= i-te Spalte von A.

Nun ist (e1, . . . , en) eine Basis der Kn und nach 2.37 ist eine lineare Abbildungϕ : Kn → Km eindeutig durch das System (ϕ(e1, . . . , ϕ(en)) im Km gegeben undumgekehrt. Daher ist Fm,n ein Isomorphismus. Es verbleibt die Formel für dieKomposition zu zeigen. Es genügt zu zeigen: für i = 1, . . . , k gilt

Fm,k(A · B)(ei) = Fm,n(A)(Fn,k(B)(ei))

Linke Seite:Fm,k(A · B)(ei) = i-te Spalte von A ·B

=

a11b1i + a12b2i + · · ·+ a1nbni...

am1b1i + am2b2i + · · ·+ amnbni

Rechte Seite:A· (i-te Spalte von B) = dasselbe.

Korollar 3.5. Das Matrizenprodukt ist assoziativ 1. Für m = n = k erhaltenwir einen Isomorphismus unitärer Ringe

Fn,n : Mn,n(K) ∼−→ EndK(Kn).

Definition 3.6. Die Matrix En = (δij)1≤i≤n1≤j≤n

(also Einsen auf der Hauptdiagonale

und sonst Nullen) heißt die Einheitsmatrix vom Rang n.

Bemerkungen. • Es gilt Fn,n(En) = idKn

• eine n × n Matrix A heißt invertierbar, wenn eine n × n Matrix B mitB · A = En existiert. A ist dann und nur dann invertierbar, wenn Fn,n(A)ein Automorphismus ist.

1das kann man natürlich auch zu Fuß ausrechnen

Page 52: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

52 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

• die Menge der invertierbaren n × n-Matrizen wird mit Gln(K) bezeich-net und bildet eine Gruppe bezüglich Matrizenmultiplikation, die durchFn,n isomorph auf Gl(Kn) = AutK(Kn) abgebildet wird. Aus allgemeinengruppentheoretischen Gründen (siehe 1.24) sehen wir, dass eine invertier-bare Matrix A auch ein Rechtsinverses hat, welches mit dem Linksinversenübereinstimmt. Bezeichnung A−1.

• wir bezeichnen den zum Isomorphismus Fm,n inversen Isomorphismus mit

Mm,n : HomK(Kn, Km) ∼−→ Mm,n(K).

Für eine lineare Abbildung f : Kn → Km heißt Mm,n(f) ∈ Mm,n(K) dieDarstellungsmatrix (oder auch darstellende Matrix) von f .

Wir nennen ein Diagramm von Vektorräumen und linearen Abbildungen kom-

mutativ, wenn jede Verbindung zwischen zwei Vektorräumen im Diagramm die-selbe Abbildung repräsentiert.

Beispiele

•U V

W

f

hg

ist kommutativ falls h = g ◦ f .

•U V

W S

f

gh

ϕ

ist kommutativ falls g ◦ f = ϕ ◦ h.

Seien nun V,W endlich-dimensionale Vektorräume, n = dimV , m = dimW und(v1, . . . , vn), (w1, . . . , wm) Basen von V und W . Nach 2.17 erhalten wir Isomor-phismen

φv1,...,vn : Kn ∼−→ V , (α1, . . . , αn) 7−→

n∑

i=1

αivi

ψw1,...,wm : Km ∼−→W , (β1, . . . , βm) 7−→

m∑

j=1

βjwj.

Page 53: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

3.1 Matrizen 53

Für A ∈Mm,n(K), erhalten wir ein kommutatives Diagramm

Kn Km

V W

Fm,n(A)

≀ ψw1,...,wm≀ φv1,...,vn

ψw1,...,wm◦Fm,n(A)◦φ−1

v1,...,vn

Korollar 3.7. Wir erhalten einen Isomorphismus von Vektorräumen

F v1,...,vnw1,...,wn

: Mm,n(K) −→ HomK(V,W )A 7−→ ψw1,...,wn ◦ Fm,n(A) ◦ φ−1

v1,...,vn

Den inversen Isomorphismus bezeichnen wir mit Mv1,...,vnw1,...,wm

: HomK(V,W ) ∼−→

Mm,n(K).

Bezeichnung: Mv1,...,vnw1,...,wm

(f) heißt die, die lineare Abbildung f bzgl. der Basen(v1, . . . , vn) und (w1, . . . , wn) darstellende Matrix. Alternative Bezeichnungen:Darstellungsmatrix, Koordinatenmatrix.

Aus den Definitionen folgt für eine lineare Abbildung f : V → W das kom-mutative Diagramm

Kn Km

V W

Fm,n(Mv1,...,vnw1,...,wm

(f))

≀ ψw1,...,wm≀ φv1,...,vn

f

Wechsel der Basen: Seien nun (v′1, . . . , v′n) und (w′1, . . . , w

′n) andere Basen von V

bzw. W . Wie ändert sich für eine lineare Abbildung f : V → W die repräsentie-rende Matrix?

Definition 3.8. Sind (v1, . . . , vn) und (v′1, . . . , v′n) zwei Basen desselben Vektor-

raums V , so heißt die Matrix

T = Mv1,...,vnv′

1,...,v′n

(idV ) ∈Mn,n(K)

die Transformationsmatrix von (v1, . . . , vn) nach (v′1, . . . , v′n).

Page 54: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

54 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Lemma 3.9. T ist invertierbar. T−1 ist die Transformationsmatrix von (v′1, . . . , v′n)

zu (v1, . . . , vn).

Beweis. Das Diagramm

Kn Kn Kn

V V V

Fn,n(Mv1,...,vn

v′1,...,v′n

(idV ))Fn,n(M

v′1,...,v′n

v1,...,vn(idV ))

idV

idV

≀φv1,...,vn ≀ φv′

1,...,v′n ≀ φv1·vn

setzt sich aus zwei kommutativen Diagrammen zusammen und ist daher kommu-tativ. Daher gilt

idV ◦ idV ◦ φv1,...,vn = φv1,...,vn ◦ Fn,n(Mv′

1,...,v′n

v1,...,vn(idV )) ◦ Fn,n(Mv1,...,vn

v′1,...,v′n

(idV )).

Eine Anwendung von φ−1v1,...,vn

liefert

idKn = Fn,n(Mv′

1,...,v′n

v1,...,vn(idV )) ◦ Fn,n(Mv1,...,vn

v′1,...,v′n

(idV )).

Wegen idKn = Fn,n(En) und weil Fn,n nach 3.5 ein Isomorphismus ist, folgt

En = Mv′1,...,v′n

v1,...,vn(idV ) ·Mv1,...,vn

v′1,...,v′n

(idV )).

Bemerkung. Im Moment haben wir noch kein Rechenverfahren zur Berechnungder inversen Matrix T−1 zur Hand. Diesem Problem widmen wir uns später.

Page 55: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

3.1 Matrizen 55

Wir erinnern uns an das kommutative Diagramm

Kn Km

V W

Fm,n(Mv1,...,vnw1,...,wm

(f))

≀ ψw1,...,wm≀ φv1,...,vn

f

Hieraus erkennen wir:

Lemma 3.10. Ist Mv1,...,vnw1,...,wm

(f) = (aij) ∈Mm,n(K), so gilt für j = 1, . . . , n:

f(vj) = a1,jw1 + . . .+ am,jwm.

Beweis. In der j-ten Spalte der Matrix Mv1,...,vnw1,...,wm

(f) = (aij) steht das Bilddes j-ten Basisvektors also der Vektor Fm,n(Mv1,...,vn

w1,...,wm(f))(ej) ∈ Km. Nun gilt

φv1,...,vn(ej) = vj und die Kommutativität des Diagramms zeigt

f(vj) = ψw1,...,wm(Fm,n(Mv1,...,vnw1,...,wm

(f))(ej)) = ψw1,...,wm(

a1,j...

am,j

)

= a1,jw1 + . . .+ am,jwm.

Lemma 3.11. Seien U , V , W endlich-dimensionale Vektorräume (u1, . . . , un),(v1, . . . , vm) und (w1, . . . , wk) Basen von U , V und W und f : U → V undg : V →W lineare Abbildungen. Dann gilt:

Mv1,...,vmw1,...,wk

(g) ·Mu1,...,unv1,...,vm

(f) = Mu1,...,unw1,...,wk

(g ◦ f).

Beweis. Es sei Mu1,...,unw1,...,wk

(g ◦ f) = (ci,j). Dann gilt:

g(f(uj)) = c1,jw1 + · · ·+ ck,jwk.

Setzt man Mu1,...,unv1,...,vm

(f) = (bi,j) und Mv1,...,vmw1,...,wk

(g) = (ai,j), so gilt

f(uj) = b1,jv1 + · · · bm,jvm

undg(vi) = a1,iw1 + . . .+ ak,iwk.

Page 56: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

56 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Zusammen ergibt sich

g(f(uj)) = g(b1,jv1 + · · · bm,jvm) = b1,jg(v1) + · · ·+ bm,jg(vm) =

b1,ja1,1w1 + · · ·+ b1,jak,1wk + b2,ja1,2w1 + · · · .

Wir erhalten durch Koeffizientenvergleich von g(f(uj)) vor wi für i = 1, . . . , k,j = 1, . . . , n

ci,j = ai,1b1,j + · · ·+ ai,mbm,j .

Aus diesem Lemma erhalten wir einen neuen Beweis für 3.9, denn es gilt nach3.11

Mv′1,...,v′n

v1,...,vn(idV ) ·Mv1,...,vn

v′1,...,v′n

(idV )) = Mv1,...,vnv1,...,vn

(idV ) = En.

Satz 3.12. (Basiswechselsatz). Seien V,W endlich-dimensionale Vektorräumeund f : V → W eine lineare Abbildung. Seien (v1, . . . , vn) und (v′1, . . . , v

n) zweiBasen von V und T1 ∈Mn,n(K) Transformationsmatrix.

Seien weiterhin (w1, . . . , wm) und (w′1, . . . , w′

m) zwei Basen von W und T2 dieTransformationsmatrix. Dann gilt

Mv′

1,...,v′n

w′1,...,w′m

(f) = T2 ·Mv1,...,vnw1,...,wm

(f) · T−11

Beweis. Wir wenden 3.11 auf die Abbildungen

VidV−→ V

f−→W

idW−→W

und die Basen (v′1, . . . , v′

n), (v1, . . . , vn), (w1, . . . , wm), (w′1, . . . , w′

m) an und erhal-

ten unter Verwendung von T−11 = M

v′1,...,v′n

v1,...,vn (idV ) (siehe 3.9)

T2 ·Mv1,...,vnw1,...,wm

(f) · T−11 = M

w1,...,wmw′

1,...,w′m

(idW ) ·Mv1,...,vnw1,...,wm

(f) ·Mv′1,...,v′n

v1,...,vn(idV ) =

Mv1,...,vnw′

1,...,w′m

(f) ·Mv′1,...,v′n

v1,...,vn(idV ) = M

v′1,...,v′n

w′1,...,w′m

(f)

3.2 Ränge von Matrizen

Definition 3.13. Sei A ∈ Mm,n(K) eine Matrix. Der Zeilen-(bzw. Spalten-)rang von A ist die Dimension des durch die Zeilen (bzw. Spalten) von A im Kn

(bzw. im Km) aufgespannten Untervektorraums.Bezeichnung.: ZRg(A), SRg(A).

nVektoren imKm spannen höchstens einen Vektorraum der Dimension min(m,n)auf. Daher gilt:

0 ≤ ZRg(A), SRg(A) ≤ min(m,n).

Ziel dieses Abschnitts ist der Beweis von

Page 57: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

3.2 Ränge von Matrizen 57

Satz 3.14. (Rangsatz für Matrizen). Für jede Matrix A ∈Mm,n(K) gilt

ZRg(A) = SRg(A).

Danach werden wir die Notation Rg(A) für diese Zahl benutzen.

Um den Rangsatz zu zeigen, beginnen wir mit

Lemma 3.15. (i) Für A ∈Mm,n(K) gilt

SRg(A) = Rg(Fm,n(A)).

(ii) Seien V , W endlich-dimensionale Vektorräume, n = dim V , m = dimW , und(v1, . . . , vn), (w1, . . . , wm) Basen von V und W . Sei f : V → W ein Homomor-phismus. Dann gilt

Rg(f) = SRg(Mv1,...,vnw1,...,wm

(f)).

Beweis. (i) Die Spalten von A sind die Bilder der Basisvektoren e1, . . . , en ∈ Kn

unter Fm,n(A). Diese Bilder spannen Fm,n(A)(Kn) auf. Dies zeigt (i).(ii) Aus dem kommutativen Diagramm

Kn Km

V W

Fm,n(Mv1,...,vnw1,...,wm

(f))

≀ ψw1,...,wm≀ φv1,...,vn

f

folgt, dass die Einschränkung von ψw1,...,wm auf den Untervektorraum

im(Fm,n(Mv1,...,vnw1,...,wm

(f))) ⊂ Km

einen Isomorphismus

im(Fm,n(Mv1,...,vnw1,...,wm

(f)))∼−→ im(f)

induziert. Insbesondere gilt

Rg(f) = Rg(Fm,n(Mv1,...,vnw1,...,wm

(f)))(i)= SRg(Mv1,...,vn

w1,...,wm(f)).

Definition 3.16. Zu A = (aij)i=1,...,mj=1,...,n

∈ Mm,n(K) definiert man die transpo-

nierte Matrix At ∈Mn,m(K) durch

At = (aji)j=1,...,ni=1,...,m

.

Page 58: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

58 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Beispiel.(

1 2 34 5 6

)t

=

1 42 53 6

(1, 0, 0)t =

100

Bemerkung. Oft wird auch die Bezeichnung tA anstelle von At verwendet. Of-fenbar gilt

ZRg(A) = SRg(At)

Für A ∈Mm,n(K), B ∈Mn,k(K) gilt

(A · B)t = Bt·At ∈Mk,m(K).

Erinnerung: Ist V ein endlich-dimensionaler Vektorraum mit Basis (v1, . . . , vn),so hat der duale Vektorraum V ∗ = HomK(V,K) die duale Basis v∗1 , . . . , v

n diedurch v∗i (vj) = δij gegeben ist..Eine lineare Abbildung f : V → W induziert die duale Abbildung f ∗ : W ∗ → V ∗

die durch f ∗(ϕ) = ϕ ◦ f gegeben ist. Für Vf−→ W

g−→ U gilt (g ◦ f)∗ =

f ∗ ◦ g∗ : U∗ → V ∗.

Lemma 3.17. Seien V,W endlich-dimensionale Vektorräume und (v1, . . . , vn),(w1, . . . , wm) Basen. Dann gilt für jede lineare Abbildung f : V → W :

Mw∗

1,...,w∗m

v∗1,...,v∗n

(f ∗) = (Mv1,...,vnw1,...,wm

(f))t ∈Mn,m(K).

Beweis. Sei Mv1,...,vnw1,...,wm

(f) = (aij) ∈Mm,n(K), d.h. für i = 1, . . . , n gilt

f(vi) = a1iw1 + · · ·+ amiwm.

Die Spalten der Matrix auf der linken Seite sind die Koordniaten (in (v∗1, . . . , v∗

n))der Bilder der Basisvektoren w∗1, . . . , w

m unter f∗. Um Gleichheit mit (aij)t zu

zeigen, ist also für jedes 1 ≤ j ≤ m zu zeigen, dass

f ∗(w∗j ) = aj1v∗

1 + · · ·+ ajnv∗

n.

Beide Seiten sind Linearformen auf V , d.h. Elemente in V ∗ = HomK(V,K). Esgenügt daher zu zeigen, daß für alle i, 1 ≤ i ≤ n, gilt

f ∗(w∗j )(vi) = (aj1v∗

1 + · · ·+ ajnv∗

n)(vi) = aji.

Nun ist f ∗(w∗j ) die Komposition Vf−→W

w∗j−→ K. Daher gilt

f ∗(w∗j )(vi) = w∗j (f(vi)) = w∗j (a1iw1 + · · ·+ amiwm)= aji

Page 59: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

3.2 Ränge von Matrizen 59

Beweis des Rangsatzes für Matrizen 3.14. Wir betrachten die Abbildung

f = Fm,n(A) : Kn−→ Km.

Nach 3.17 wird f ∗ : (Km)∗ → (Kn)∗ bezüglich der zu den kanonischen Basendualen Basen (e∗1, . . . , e

m) von (Km)∗ und (e∗1, . . . , e∗

n) von (Kn)∗ durch die trans-ponierte Matrix At dargestellt.Der Rangsatz für lineare Abbildungen 2.43 und 3.15 zeigen uns daher

SRg(A) = Rgf = Rgf ∗ = SRg(At) = ZRg(A).

Page 60: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

60 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Korollar 3.18. Für eine Matrix A ∈Mn,n(K) sind die folgenden Aussagen äqui-valent

(i) A ist invertierbar, d.h. A ∈ Gln(K)(ii) die Zeilen von A bilden eine Basis des Kn

(iii) die Spalten von A bilden eine Basis des Kn

(iv) Rg(A) = n.

Beweis. Die Äquivalenz (ii) ⇔ (iii) ⇔ (iv) folgt aus dem Rangsatz. SchließlichgiltA invertierbar ⇐⇒ Fn,n(A) ist bijektiv

2.29⇐⇒ Fn,n(A) ist surjektiv ⇐⇒ Rg(A) = n.

Korollar 3.19. Ist A ∈ Mm,n(K) und T ∈ Gln(K), S ∈ Glm(K), so gilt

Rg(A) = Rg(SAT ).

Beweis. Sei f = Fm,n(A) : Kn → Km. Sei w1, . . . , wm die durch die Spaltenvon S−1 gegebene Basis des Km und v1, . . . , vn die durch die Spalten von Tgegebene Basis des Kn. Dann ist S die Transformationsmatrix von (e1, . . . , em)zu (w1, . . . , wm) im Kn und T−1 die Transformationsmatrix von (e1, . . . , en) zu(v1, . . . , vn) im Kn. Nach 3.12 gilt

Mv1,...,vnw1,...,wm(f) = SA(T−1)−1

= SAT

und deshalb nach 3.15

Rg(A) = Rg(f) = Rg(SAT )

Korollar 3.20. Sei A ∈Mm,n(K) und r = Rg(A). Dann gibt es eine invertierbarer× r Untermatrix von A, d.h. Indizes 1 ≤ i1 < · · · < ir ≤ m, 1 ≤ j1 < · · · < jr ≤n, so daß die Matrix

A = (aij) i∈{i1,...,ir}j∈{j1,...,jr}

invertierbar ist. Umgekehrt folgt aus der Existenz einer invertierbaren s× s Un-termatrix, daß s ≤ r gilt.

Beweis. Wähle r Zeilen aus, daß diese eine Basis des (r-dimensionalen) von denZeilen von A im Kn aufgespannten Untervektorraums bilden. Dann streiche dieanderen Zeilen. Die so erhaltene Matrix hat Rang r. Dann wähle r linear unab-hängige Spalten aus und erhalte eine r × r-Matrix mit Rang = r.Umgekehrt: Ist A′ eine invertierbare s×s Untermatrix von A, so sind die Spaltenvon A′ linear unabhängig, also auch die s-vielen Spalten von A, die A′ treffen⇒ r ≥ s.

Page 61: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

61

Satz 3.21. Sei f : V →W eine lineare Abbildung zwischen endlich-dimensionalenVektorräumen, n = dim V , m = dimW , r = Rg(f).

Dann gibt es Basen (v1, . . . , vn), (w1, . . . , wm) von V und W , so daß

Mv1,...,vnw1,...,wm(f) =

r︷ ︸︸ ︷

r

1 01

10 1

0

0 0

︸ ︷︷ ︸

n

m

Beweis. Rg(f) = Rg(M irgendeine Basis

irgendeine Basis(f)) ≤ min(n,m).

Es gilt r = dim f(V ) = dim(V )− dim ker(f) also dim ker(f) = n− r.

Sei U ⊂ V ein Komplement zu ker(f) (siehe 2.32). Wähle eine Basis (v1, . . . , vn)von V , so daß Lin(v1, . . . , vr) = U und Lin(vr+1, . . . , vn) = ker(f). Die einge-schränkte Abbildung f : U → W ist wegen U ∩ ker(f) = {0} injektiv. Sei nunwi = f(vi) für i = 1, . . . , r und wähle wr+1, . . . , wm so daß w1, . . . , wm eine Basisvon W ist.

Korollar 3.22. Sei A ∈ Mm,n(K) und r = Rg(A). Dann existieren MatrizenS ∈ Glm(K), T ∈ Gln(K) mit

SAT =

r︷ ︸︸ ︷

r

1 01

10 1

0

0 0

︸ ︷︷ ︸

n

m

Beweis. Wende 2.10 auf Fm,n(A) : Kn → Km und den Basiswechselsatz 3.12an.

4 Lineare Gleichungssysteme

4.1 Gauß-Elimination

Aufgabe: v1, . . . , vm ∈ Kn seien gegeben. Berechne eine Basis von Lin(v1, . . . , vm)!

Definition 4.1. Zwei Tupel (v1, . . . , vm) und (w1, . . . , wk) von Vektoren im Kn

heißen linear äquivalent, wenn Lin(v1, . . . , vm) = Lin(w1, . . . , wk) gilt. Mansetzt:

Rg(v1, . . . , vm) = dim Lin(v1, . . . , vm).

Page 62: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

62 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Die folgenden Operationen heißen Zeilen-Umformungen. Mit ihrer Hilfeerhält man aus einem Tupel von Vektoren ein linear äquivalentes Tupel:

(i) Multiplikation von vi mit λ 6= 0 für ein i

(ii) Ersetzen von vi durch vi + λvj, i 6= j

(iii) Vertauschen der vi(iv) Streichen von vi, wenn vi = 0.

(Nullvektoren sind entbehrlich, die anderen Operationen sind umkehrbar.)

Bemerkung. Schreibt man v1, . . . , vm in der Form

v1 = (a11, . . . , a1n)...vm = (am1, . . . , amn)

so bewirken die Operationen (i), (ii), (iii) auf der m × n-Matrix A = (aij) dasfolgende:(i) Multiplikation von links mit der m×m-Matrix Ei(λ), die definiert ist durch

Ei(λ)k,ℓ =

0 k 6= ℓ1 k = ℓ 6= iλ k = ℓ = i

, d.h. Ei(λ) :=

1 0. . .λ

. . .0 1

(λ 6= 0 steht an der Stelle (i, i)).(ii) Multiplikation von links mit der m×m Matrix

Ei,j(λ)k,ℓ =

1 k = ℓλ k = i und ℓ = j0 sonst.

, d.h. Ei,j(λ) =

1. . .

λ 1. . .

1

λ steht an der Stelle (i, j), (i 6= j).(iii) Multiplikation von links mit der m×m-Matrix Pij, die gegeben ist durch

(Pi,j)k,ℓ =

1 (k, ℓ) = (i, j) oder (j, i)1 i 6= k = ℓ 6= j0 sonst.

Page 63: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

4.1 Gauß-Elimination 63

(vertausche i-te und j-te Zeile in Em).

Pij =

1. . .

1j 0 1

1. . .

1i 1 0

1. . .

1

j i

Definition 4.2. Eine m × n-Matrix A hat Zeilenstufenform, wenn es ganzeZahlen 0 ≤ r ≤ m, 1 ≤ j1 < · · · < jr ≤ n gibt, so daß gilt

(1) aij = 0 falls i > r oder falls i ≤ r und j < ji.(2) aiji = 1 für alle 1 ≤ i ≤ r.

Man sagt dass A strenge Zeilenstufenform hat, wenn dazu noch gilt

(3) aijk = 0 für alle 1 ≤ k ≤ r, k 6= i.

Bild:

j1 j2 jr

0 . . . 0∣∣∣ 1 ∗ ∗ 0 ∗ ∗ 0 ∗ . . . . . . ∗

∣∣∣ 1 ∗ ∗ 0 ∗ · · · · · · ∗

∣∣∣ 0 ∗ · · · · · · ∗

. . ....

......

...0 ∗ ∗ · · · ∗∣∣∣ 1 ∗ ∗ · · · ∗

r

Page 64: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

64 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Satz 4.3 (Gauß-Elimination). Durch Zeilenumformungen (i), (ii), (iii) kann maneine (m× n)-Matrix in strenge Zeilenstufenform bringen.

Beweis. Die j-te Spalte sei die erste, die nicht nur aus Nullen besteht. j1 = j1) Heraufbringen: Ein Zeilentausch (iii) bringt a1j 6= 02) Normieren: Anwenden von (i) bewirkt a1j = 13) Ausräumen: Durch Ersetzen von vi durch vi − aijv1 erhält die Matrix bis zurj-ten Spalte die gewünschte FormJetzt betrachte die Matrix ohne die 1. Zeile und wähle j2. Mache Schritt 1, 2,3 und beachte, daß sich auch in Schritt 3 der wesentliche Teil der ursprünglichersten Zeile nicht ändert usw.

Beispiel. Sei char(K) 6= 2

2 4 2 63 6 3 94 8 5 9

−→

1 2 1 33 6 3 94 8 5 9

−→

1 2 1 30 0 0 00 0 1 −3

−→

1 2 1 30 0 1 −30 0 0 0

−→

1 2 0 60 0 1 −30 0 0 0

Page 65: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

4.1 Gauß-Elimination 65

Satz 4.4. Der von Vektoren v1, . . . , vm im Kn erzeugte Untervektorraum istdurch die strenge Stufe eindeutig bestimmt und umgekehrt.

D.h. gilt Lin(v1, . . . , vm) = Lin(w1, . . . , wk) so unterscheiden sich die strengenZeilenstufenmatrizen nur um 0-Zeilen unterhalb der Stufe.

Beweis. Sei U = Lin(v1, . . . , vm) und r := dimU . Dann ist U = Lin(v′1, . . . , v′r)

wobei v′1, . . . , v′r die ersten r-Zeilen der assoziierten Matrix in strenger Zeilenstu-

fenform sind.

Seien nun (v1, . . . , vm) und (w1, . . . , wk) mit Lin(v1, . . . , vm) = Lin(w1, . . . , wk)gegeben und seien A ∈ Mm,n(K) und B ∈ Mk,n(K) die assoziierten Matrizen instrenger Zeilenstufenform. Wegen Rg(A) = dimU = Rg(B) sind bei A und B diei-ten Zeilen mit i > r = dimU alle Null.

Betrachten wir für 1 ≤ j ≤ r die Projektion pj : Kn → Kj , (a1, . . . , an) 7→

(a1, . . . , aj), so sind die Stufen bei A wie bei B gerade die j, mit dim pj(U) >dim pj−1(U). Also haben die Stufen bei A und B die gleiche geometrische Form.

Seien nun a1 = (a11, . . . , a1n), . . . , ar = (ar1, . . . , arn) die ersten r-Zeilen vonA und b1 = (b11, . . . , b1n), . . . , br = (br1, . . . , brn) die ersten r-Zeilen von B. Dannsind (a1, . . . , ar) und (b1, . . . , br) beides Basen von U .

Schreiben wir nun aj =n∑

i=1

λijbi, so ist (weil die ji-te Spalte von B genau

eine 1 bei (i, ji) hat) λij = ajji. Aber A ist in strenger Zeilenstufenform, also

ajji =

{

0 i 6= j1 i = j

. Hieraus folgt λij = 0, falls i 6= j, und = 1, falls i = j, und

damit aj = bj für j = 1, . . . , r.

Berechnung der inversen Matrix

Ist A ∈ Gln(K), d.h. A ∈ Mn,n(K) und n = Rg(A), so ist die strenge Zei-lenstufenform von A die Einheitsmatrix En. Dies gibt die folgende Methode zurBerechnung von A−1:

Führe die gleichen Operationen die A auf strenge Zeilenstufenform (d.h. auf En)bringen mit En aus. Das Ergebnis ist A−1.Begründung: Jede der Operationen (i), (ii) und (iii) entspricht der Linksmulti-plikation mit einer Matrix. Ist M das (von rechts nach links gebildete) Produktdieser Matrizen, so gilt M · A = En und M ·En =M und also M = A−1.

Beispiel. Suche

2 0 −1−1 −1 20 1 −1

−1

wenn char(K) 6= 2, d.h. 2 6= 0, 1

2∈ K:

Page 66: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

66 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

2 0 −1−1 −1 20 1 −1

1 0 00 1 00 0 1

1 0 −1

2

−1 −1 20 1 −1

1

20 0

0 1 00 0 1

1 0 −1

2

0 −1 3

2

0 1 −1

1

20 0

1

21 0

0 0 1

1 0 −1

2

0 1 −3

2

0 1 −1

1

20 0

−1

2−1 0

0 0 1

1 0 −1

2

0 1 −3

2

0 0 1

2

1

20 0

−1

2−1 0

1

21 1

1 0 −1

2

0 1 −3

2

0 0 1

1

20 0

−1

2−1 0

1 2 2

1 0 00 1 −3

2

0 0 1

1 1 1−1

2−1 0

1 2 2

1 0 00 1 00 0 1

1 1 11 2 31 2 2

Also gilt

1 1 11 2 31 2 2

2 0 −1−1 −1 20 1 −1

= E3

und das gilt auch in char(K) = 2 (wie man durch Ausmultiplizieren einsieht). Inchar(K) = 2 hätte auch die folgende Rechnung zum Ziel geführt:

Page 67: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

4.1 Gauß-Elimination 67

2 0 1−1 −1 20 1 −1

=

0 0 11 1 00 1 1

0 0 11 1 00 1 1

1 0 00 1 00 0 1

1 1 00 0 10 1 1

0 1 01 0 00 0 1

1 1 00 1 10 0 1

0 1 00 0 11 0 0

1 0 10 1 10 0 1

0 1 10 0 11 0 0

1 0 00 1 00 0 1

1 1 11 0 11 0 0

=

1 1 11 2 31 2 2

in K wenn charK = 2

Beispiel. Suche

1 1 12 0 03 1 1

−1

wenn char(K) 6= 2:

1 1 12 0 03 1 1

1 0 00 1 00 0 1

1 1 10 −2 −20 −2 −2

1 0 0−2 1 0−3 0 1

1 1 10 1 10 −2 −2

1 0 01 −1

20

−3 0 1

1 0 00 1 10 0 0

0 1

20

1 −1

20

−1 −1 0

Der Prozess bricht ab. Matrix nicht invertierbar da der Rang gleich 2 < 3 ist.

Wenn charK = 2.

Page 68: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

68 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

1 1 12 0 03 1 1

=

1 1 10 0 01 1 1

1 1 10 0 01 1 1

1 0 00 1 00 0 1

1 1 10 0 00 0 0

1 0 00 1 01 0 1

bricht ab, der Rang ist 1.

Page 69: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

4.1 Gauß-Elimination 69

Berechnen der dualen Basis.

Elemente des Dualraums (Kn)∗ sind Linearformen aufKn. Die kanonische Ba-sis des (Kn)∗ ist durch die zur kanonischen Basis (e1, . . . , en) des Kn duale Basis(e∗1, . . . , e

n) gegeben. Wie vorher schreiben wir Elemente des Kn als Spaltenvek-toren (d.h. (n×1)-Matrizen). Jeder Zeilenvektor (d.h. (1×n)-Matrix) (a1, . . . , an)definiert mit Hilfe der Matrixmultiplikation M1,n(K)×Mn,1(K)→M1,1(K) = Kdurch

(x1, . . . , xn)t 7−→ (a1, . . . , an) · (x1, . . . , xn)

t = a1x1 + · · ·+ anxn ∈ K

ein Element von (Kn)∗. Es gilt

(1, 0, . . . , 0) = e∗1, . . . , (0, . . . , 0, 1) = e∗n.

Daher läßt sich die Linearform ϕ = a1e∗

1 + · · · + ane∗

n durch den Zeilenvektor(a1, . . . , an) darstellen, mit anderen Worten: wir können den (Kn)∗ mit dem Vek-torraum der Zeilenvektoren der Länge n identifizieren.

Sei nun (v1, . . . , vn) eine Basis des Kn und (v∗1, . . . , v∗

n) die duale Basis, d.h. dieBasis des (Kn)∗, die durch v∗i (vj) = δij charakterisiert ist. Die Zeilenvektorformder dualen Basis berechnet man wie folgt:

• bilde die Matrix A deren i-te Spalte gleich vi ist.

• die i-te Zeile von A−1 ist v∗i .

Begründung: v∗i ist durch v∗i (vj) = δij charakterisiert. D.h. für den als Zeilegeschriebenen Vektor v∗i gilt: v∗i · vj = δij . Bildet man die Matrix A mit den vi alsSpalten und die Matrix B mit den v∗i als Zeilen, so gilt B ·A = En, also B = A−1.

Basisergänzung

Seien (v1, . . . , vk) linear unabhängige Vektoren im Kn und (w1, . . . , wm) ein Er-zeugendensystem. Wir suchen Indizes 1 ≤ j(1) < · · · < j(s) ≤ m, s = n − k,so daß (v1, . . . , vk, wj(1), , . . . , wj(s)) eine Basis ist (diese Indizes existieren nach2.23).

Das machen wir wie folgt: Wir bringen die Matrix Amit Zeilenvektoren v1, . . . ,vk, w1, . . . , wm) auf strenge Zeilenstufenform. Hierbei mußte (evtl.) mehrere Maleder Schritt 1 (Zeilentausch) durchgeführt werden. Wir gehen dabei so vor, dassder notwendige Zeilentausch stets mit der Zeile ausgeführt wird, die am weitestenoben steht und einen nicht verschwindenden Eintrag in der untersuchten Spaltehat. Dann gilt: Unter den ersten n Zeilen sind s = n− k Stück, die ursprünglichzu einem Zeilenvektor wj(i) gehörten (i = 1, . . . , s). Dies liefert die gesuchten j(i).

Lineares Komplement

Gegeben U = Lin(v1, . . . , vm) ⊂ Kn.Gesucht: U ′ ⊂ Kn mit U ∩ U ′ = {0} und U + U ′ = Kn und eine Basis von U ′.Methode: Forme die Matrix mit Zeilen v1, . . . , vm in strenge Zeilenstufenform um.

Page 70: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

70 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Die von 0 verschiedenen Zeilen sind eine Basis von U , die Vektoren ej , wobei jkein Stufenindex ist, sind Basis eines Teilraums U ′ mit U∩U ′ = {0}, U+U ′ = Kn.

Von jetzt ab Notationsvereinfachung:

Wir identifizieren eine m× n Matrix direkt mit der assoziierten linearen Ab-bildung Kn → Km und umgekehrt.

4.2 Lineare Gleichungssysteme

Ein lineares Gleichungssystem ist ein System von Gleichungen

a11x1 + a12x2 + · · ·+ a1nxn = b1...

...am1x1 + am2x2 + · · ·+ amnxn = bm

(∗)

(∗) heißt homogen wenn alle bi = 0 sind, ansonsten inhomogen. Ist (∗) inho-mogen, so nenne man das System (∗∗) mit den gleichen aij und rechts überallNullen das zugehörige homogene System. Wir schreiben (∗) in der Form

A · x = b

mit A = (aij), x = (x1, . . . , xn)t, b = (b1, . . . , bm)t.

Satz 4.5. Die Menge der Lösungen x ∈ Kn des homogenen Gleichungssystems

Ax = 0 (∗∗)

ist ein Untervektorraum des Kn. Seine Dimension ist gleich n−Rg(A).

Beweis. Offensichtlich ist die Lösungsmenge gleich dem Kern von A. Die Aussageüber die Dimension folgt aus 2.35 sowie aus Rg(A) = dim(im(A)).

Korollar 4.6. Die folgenden Aussagen sind äquivalent (i) Rg(A) = n(ii) A ist invertierbar(iii) das homogene System (∗∗) hat genau die triviale Lösung x = (0, . . . , 0) ∈ Kn.

Beweis. (i) ⇐⇒ (ii) haben wir schon in 3.18 gesehen. (i) ⇐⇒ (iii) folgt aus4.5.

Definition 4.7. Eine Teilmenge A eines Vektorraums V heißt affiner Teilraum,wenn es ein v ∈ V und einen Untervektorraum U ⊂ V gibt so daß

A = v + U = {v + u | u ∈ U}

gilt.

Page 71: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

4.2 Lineare Gleichungssysteme 71

Bemerkung: Anders ausgedrückt: ein affiner Teilraum ist ein Element in V/U ,wobei U ein Untervektorraum von V ist.

Lemma 4.8. Ist A ⊂ V ein affiner Teilraum, so gibt es genau einen Untervek-torraum U mit der Eigenschaft A = v + U für ein v ∈ V .

Beweis. Ein solcher Untervektorraum U existiert nach Definition. Sei A = v0 +U0 = v1 + U1. Dann gilt

U0 = {a− a′ | a, a′ ∈ A} = U1

Definition 4.9. Ist A ⊂ V ein affiner Teilraum, so setzt man

dimA := dimU,

wobei U der nach 4.8 eindeutig bestimmte Untervektorraum mit A = v + U ist.

Satz 4.10. Für das inhomogene Gleichungssystem Ax = b (∗) gibt es genaudie beiden folgenden Möglichkeiten

(i) b 6∈ im(A) und die Lösungsmenge L von (∗) ist leer

(ii) b ∈ im(A). Dann ist die Lösungsmenge L ein affiner Teilraum des Kn derDimension n−Rg(A). Ist v0 ∈ L eine Lösung von (∗), so gilt

L = v0 + U,

wobei U der Lösungsraum des zugehörigen homogenen Systems Ax = 0 (∗∗)ist.

Beweis. Es gilt nach Definition b 6∈ im(A) ⇐⇒ L = ∅. Ist b ∈ im(A) so gibt eseine Lösung v0 ∈ K

n mit Av0 = b. Sei U = ker(A) die Lösungsmenge von (∗∗).Für u ∈ U gilt A(v0 + u) = Av0 + Au = b, also v0 + U ⊂ L. Andererseits seiv ∈ L, d.h. Av = b. Dann gilt für u = v − v0: Au = Av − Av0 = b − b = 0, alsou ∈ U und v = v0 + u. Daher gilt auch L ⊂ v0 + U . Schließlich gilt

dimL = dimU = n−Rg(A).

Korollar 4.11. Das inhomogene System (∗) hat genau dann eine Lösung wenn

Rg(A) = Rg(A|b)

gilt. Hier ist (A|b) die m×(n + 1) Matrix, die durch Anfügen von b an A als(n+ 1)-te Spalte entsteht.

Beweis. Rg(A) = Rg(A|b) ⇐⇒ b ∈ Lin (Spalten von A) ⇐⇒ b ∈ im(A).

Page 72: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

72 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

4.3 Explizite Lösung linearer Gleichungssysteme

Wir betrachten das homogene System

Ax = 0 (∗)

Das Ausführen von Zeilenumformungen (i) – (iii) ändert den Lösungsraum ker(A)nicht (z.B. weil diese Umformungen der Multiplikation von links und invertier-baren Matrizen entspricht).Daher erhalten wir folgendes Verfahren:

1. Schritt: bringe A auf strenge Zeilenstufenform2. Schritt: Sei nun S die strenge Zeilenstufenform von A

j1 j2 jr

S =

0 . . . 0∣

∣ 1 ∗ ∗ 0 ∗ ∗ 0 ∗ . . . . . . ∗∣

∣ 1 ∗ ∗ 0 ∗ · · · · · · ∗∣

∣ 0 ∗ · · · · · · ∗

. . ....

......

...0 ∗ ∗ · · · ∗

∣ 1 ∗ ∗ · · · ∗

r

Die von j1, . . . , jr verschiedenen Indizes in {1, . . . , n} seien k1 < · · · < kn−r, d.h.

{1, . . . , n} = {j1, . . . , jr, k1, . . . , kn−r}

Dann gilt Sx = 0⇐⇒

xj1...xjr

= −B ·

xk1

...xkn−r

wobei B aus den ersten r Zeilen von S entsteht, indem man die Spalten zumIndex ji, i = 1, . . . , r, wegläßt (also B ∈Mr,n−r(K)).Folglich kann man xk1

, . . . , xkn−r beliebig wählen und xj1 , . . . , xjr ergeben sichdann eindeutig. Setzt man nun den i-ten Standardbasisvektor im Kn−r ein, erhältman links die i-te Spalte von −B und einen i-ten Basisvektor (x1, . . . , xn) derLösungsmenge durch (xk1

, . . . , xkn−r) = ei, (xj1, . . . , xjr) = i-te Spalte von −B.

Page 73: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

4.3 Explizite Lösung linearer Gleichungssysteme 73

Beispiel. char K 6= 2 und2x1 + 4x2 + 2x3 + 6x4 = 03x1 + 6x2 + 3x3 + 9x4 = 04x1 + 8x2 + 5x3 + 9x4 = 0

A =

2 4 2 63 6 3 94 8 5 9

Bsp. nach 4.3−→ S =

1 2 0 60 0 1 −30 0 0 0

j1 = 1, j2 = 3, k1 = 2, k2 = 4.

B =

(

2 60 −3

)

−B =

(

−2 −60 3

)

Basis des 2-dimensionalen Lösungsraums: ((−2, 1, 0, 0), (−6, 0, 3, 1))

Page 74: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

74 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Nun betrachten wir das inhomogene System

Ax = b (∗)

Die Zeilenumformungen (i), (ii), (iii) auf der Matrix (A|b) verändern nicht den Lö-sungsraum. Wir kommen auf (S|s) in strenger Zeilenstufenform. Sei r = Rg(A) =Rg(S). Wegen Rg(A|b) = Rg(S|s) ist die Existenz von Lösungen nach 4.11 äqui-valent zu sr+1 = · · · = sn = 0. Ist dies erfüllt, setze xj = 0 für j 6∈ {j1, . . . , jr} und(xj1 , . . . , xjr) = (s1, . . . , sr) um eine spezielle Lösung zu erhalten. Alle anderenLösungen erhält man durch Addition von Lösungen des zugeordneten homogenenSystems.

Beispiel. char K 6= 2:

2x1 + 4x2 + 2x3 + 6x4 = 43x1 + 6x2 + 3x3 + 9x4 = 64x1 + 8x2 + 5x3 + 9x4 = 9

(A|b) =

2 4 2 6 43 6 3 9 64 8 5 9 9

1 2 1 3 23 6 3 9 64 8 5 9 9

1 2 1 3 20 0 0 0 00 0 1 −3 1

−→

1 2 1 3 20 0 1 −3 10 0 0 0 0

−→

1 2 0 6 10 0 1 −3 10 0 0 0 0

Rg = 2, also existiert Lösung. Außerdem haben wir die Stufenindizes j1 = 1,j2 = 3: Spezielle Lösung (1, 0, 1, 0).Die allgemeine Lösung ist (1, 0, 1, 0) + Lin((−2, 1, 0, 0), (−6, 0, 3, 1))d.h.

L = {(1− 2x2 − 6x4, x2, 1 + 3x4, x4) ∈ K4 | x2, x4 ∈ K}.

5 Determinanten und Eigenwerte

5.1 Polynome

Definition 5.1. Ein Polynom mit Koeffizienten in einem Körper K ist einAusdruck

f = f(x) = a0 + a1x+ a2x2 + · · ·+ anx

n, aj ∈ K.

Das Zeichen x heißt die Unbestimmte oder Variable des Polynoms. Die Mengeder Polynome mit Koeffizienten in K wird mit K[x] bezeichnet.

Page 75: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

5.1 Polynome 75

Bemerkung. 1) Ein Polynom ist ein formaler Ausdruck, d.h. nichts weiter alsdie Familie seiner Koeffizienten a0, a1, . . . , d.h. eine Abbildung f : N0 → K mitf(i) = 0 f.f.a. i.2) Jedes Polynom f(x) = a0 + · · ·+ anx

n ∈ K[x] induziert eine Abbildung

K −→ K, α 7→ f(α) = a0 + a1α + · · ·+ anαn.

I.A. ist f durch diese Abbildung nicht eindeutig bestimmt. Z.B. induzieren diePolynome x2 und x ∈ Z/2Z[x] die gleiche Abbildung Z/2Z→ Z/2Z.

K[x] wird folgendermaßen zu einem unitären kommutativen Ring:Sei f =

i∈N0

aixi, g =

i∈N0

bixi. Dann setzt man

f + g =∑

i∈N0

(ai + bi)xi

f · g =∑

s∈N0

(

s∑

i=0

ai · bs−i

)

xs.

Wir haben eine natürliche Inklusion K → K[x], die einem α ∈ K das “konstante”Polynom α (d.h. a0 = α, ai = 0 für alle i > 0) zuordnet.

Definition 5.2. Ist f = a0 + a1x+ · · ·+ anxn und an 6= 0, so heißt n der Grad

von f (Notation: deg(f)) und an der Leitkoeffizient (Notation: an = e(f)).Gilt an = 1 so nennt man f normiert.

Konvention: deg(0) = −∞, e(0) = 0.

Lemma 5.3. (i) deg(f · g) = deg(f) + deg(g)

(ii) Es gilt deg(f + g) ≤ max(deg(f), deg(g)) und wenn deg(f) 6= deg(g), sogilt deg(f + g) = max(deg(f), deg(g))

(iii) Es gilt e(f · g) = e(f) · e(g).

Beweis. Das liest man direkt aus den Definitionen ab, wobei man verwendet, dassK nullteilerfrei ist, d.h. es gilt ab = 0 ⇒ (a = 0 oder b = 0).

Korollar 5.4. Der Ring K[x] ist nullteilerfrei, d.h. aus f · g = 0 folgt f = 0 oderg = 0.

Beweis. dies folgt aus e(f · g) = e(f) · e(g) und der Nullteilerfreiheit von K.

Satz 5.5 (Division mit Rest). Seien f, g ∈ K[x], g 6= 0. Dann existieren eindeutigbestimmte Polynome q, r ∈ K[x] mit

f = q · g + r , deg(r) < deg(g).

Das Polynom r heißt der Rest der Division von f durch g.

Page 76: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

76 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Beweis. Eindeutigkeit: Sei f = q1 · g + r1 = q2 · g + r2. Dann gilt

(q1 − q2) · g = r2 − r1.

Wegen deg(r2 − r1) < deg(g) folgt q1 − q2 = 0 also auch r2 − r1 = 0.

Existenz: Per Induktion nach deg(f). Ist deg(f) < deg(g), setze q = 0, f = r.Sonst seif = axn+k+ niedrigere Potenzeng = bxn+ niedrigere Potenzen, n, k ≥ 0, a, b 6= 0.

Dann gilt

deg(

f −a

bxkg

)

< deg f.

Nach Induktionsannahme gibt es q1, r1 mit

f −a

bxkg = q1 · g + r1, deg(r1) < deg(g).

Wir erhalten die Darstellung

f =(

q1 +a

bxk)

· g + r1

Beispiel. f = x5 + 3x4 − 4x3 + 2, g = x2 + 1. Man findet g und r wie beimschriftlichen Dividieren ganzer Zahlen.x5 + 3x4 − 4x3 + 0x2 + 0x+ 2: (x2 + 1) = x3 + 3x2 − 5x− 3x5 + x3

3x4 − 5x3 + 0x2 + 0x+ 23x4 + 3x2

−5x3 − 3x2 + 0x+ 2−5x3 − 5x

−3x2 + 5x+ 2−3x2 − 3

5x+ 5, Rest.

Definition 5.6. Ein α ∈ K heißt Nullstelle oder Wurzel von f ∈ K[x], wennf(α) = 0 gilt.

Korollar 5.7. Ist α ∈ K eine Wurzel von f ∈ K[x], so gibt es ein g ∈ K[x] mitf = g · (x− α).

Beweis. Ist f = 0 setze g = 0. Ansonsten können wir schreiben:

f = g(x− α) + r mit deg(r) < deg(x− α).

Folglich deg(r) ≤ 0, d.h. r ist konstant. Setzt man α ein, erhält man

0 = f(α) = g(α)(α− α) + r(α) = r(α)

also r = 0.

Page 77: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

5.1 Polynome 77

Korollar 5.8. Ein Polynom f 6= 0 vom Grad n hat höchstens n Wurzeln in K.

Beweis. Sei α eine Wurzel, so schreiben wir f = (x − α) · g deg(g) ≤ n − 1. Istnun β 6= α eine weitere Wurzel, so gilt 0 = f(β) = (β − α) · g(β) ⇒ g(β) = 0.Die Aussage folgt über vollständige Induktion nach dem Grad.

Euklidischer Algorithmus

Seien f1, f2 ∈ K[x] beide nicht 0. Der Euklidische Algorithmus ist die Folgevon Divisionen mit Rest

f1 = q1f2 + f3 deg f3 < deg f2f2 = q2f3 + f4 deg f4 < deg f3

...fn−1 = qn−1fn + 0 (weil die Grade abnehmen).

Definition 5.9. Wir sagen f teilt g (Notation: (f | g)) wenn g = f · h für einPolynom h gilt.

Satz 5.10. Seien f1, f2 ∈ K[x] beide 6= 0 und d = fn wie im EuklidischenAlgorithmus. Dann gilt

(i) d | f1, d | f2(ii) Aus g | f1 und g | f2 folgt g|d(iii) Es gibt Polynome p, q ∈ K[x] mit

pf1 + qf2 = d.

Beweis. (i) Steige den Algorithmus aufwärts:d|fn ⇒ d|fn−1 fn−2 = qfn−1 + fn ⇒ d|fn−2 usw. ⇒ d|f2, d|f1(ii) Steige ab: g|f1, g|f2 ⇒ g|f3 ⇒ · · · ⇒ g|fn = d.(iii) Den Algorithmus absteigend sieht man, daß jedes fk eine Darstellung derForm fk = pkf1 + qkf2 hat.

Definition 5.11. Ein Polynom d mit den Eigenschaften (i) und (ii) aus 5.6 heißtein größter gemeinsamer Teiler von f1 und f2.

Satz 5.12. Sind f1, f2 ∈ K[x] beide nicht 0, so existiert ein größter gemeinsamerTeiler. Dieser ist bis auf einen konstanten Faktor 6= 0 eindeutig bestimmt.

Beweis. Die Existenz folgt aus 5.6. Sind d1, d2 beide g.g.T., so gilt d1|d2 undd2|d1, also deg(d1) ≤ deg(d2) ≤ deg(d1) ⇒ deg d1 = deg d2 und aus d1|d2 folgtd2 = α · d1, α ∈ K, α 6= 0.

Page 78: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

78 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Bemerkung. Unter allen größten gemeinsamen Teilern gibt es genau ein nor-miertes Polynom. Dies nennt man den größten gemeinsamen Teiler (ggT (f1, f2)).Dieser kann in der Form

ggT (f1, f2) = pf1 + qf2

dargestellt werden.

Korollar 5.13. Haben die nicht verschwindenden Polynome f und g nur kon-stante gemeinsame Teiler, so existieren Polynome p, q mit

pf + qg = 1.

Beweis. ggT (f, g) = 1

Definition 5.14. Ein Polynom f , deg(f) ≥ 1, heißt irreduzibel, wenn ausf = g · h folgt, daß g oder h konstant ist. Ansonsten heißt f reduzibel.

Beispiel. • Jedes Polynom ax+ b, a 6= 0, vom Grad 1 ist irreduzibelx2 + 2x+ 1 = (x+ 1)2 ist reduzibel.• x2 + 1 ist irreduzibel als Polynom über Q und R, aber reduzibel als Polynomüber C.

Lemma 5.15. Ist f irreduzibel und f | (g · h), so gilt f |g oder f |h.

Beweis. Da f irreduzibel ist, sind die Polynome der Form a und af , a ∈ K,a 6= 0, die einzigen Teiler von f . Gilt nun f ∤ g, so folgt ggT (f, g) = 1. Alsoexistieren p, q ∈ K[x] mit p · f + q · g = 1⇒ p · f · h+ q · g · h = h⇒ f |h.

Satz 5.16. Jedes Polynom f 6= 0 besitzt eine, bis auf die Reihenfolge der Fak-toren eindeutige “Primfaktorzerlegung”:

f = a · p1 . . . pk , a = e(f), e(pi) = 1, i = 1, . . . , k

mit irreduziblen normierten Faktoren pi.

Beweis. Existenz: Induktion nach deg f . Sei deg f = 0. Setze k = 0, a = f . Seideg(f) = n. Ist f irreduzibel, so schreibt man f = e(f)e(f)−1f und e(f)−1f istnormiert und irreduzibel. Ansonsten gilt f = g ·h mit deg(g), deg(h) < n und dieInduktionsvoraussetzung für g und h liefert auch eine Darstellung für f .

Eindeutigkeit: a = e(f) ist eindeutig. Angenommen es gilt p1 . . . pk = q1 . . . qℓ mitirreduziblen, normierten Polynomen p1, . . . , pk, q1, . . . , qℓ. Zu zeigen:k = ℓ und p1, . . . , pk, und q1, . . . , qℓ unterscheiden sich nur in der Reihenfolge.

Aus 5.10 erhalten wir pk|qi für ein i, 1 ≤ i ≤ ℓ. O.B.d.A. i = ℓ. Da qℓ irreduzibelist, folgt pk = qℓ. Also

pk(p1 . . . pk−1 − q1 . . . qℓ−1) = 0

Aus 5.4 folgt: p1 . . . pk−1 = q1 . . . qℓ−1. Dann weiter . . .

Bemerkung. Der Beweis, daß in Z jedes Element eine eindeutige Primzerlegunga = (±1) · p1 . . . pk hat geht genauso.

Page 79: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

5.2 Determinanten 79

5.2 Determinanten

Definition 5.17. Sei V ein K-Vektorraum. Eine Multilinearform (n-Form)auf V ist eine Abbildung

α : V × · · · × V︸ ︷︷ ︸

n−mal

−→ K

die in jeder Variable (d.h. bei Festhalten der (n− 1) anderen) linear ist. α heißtalternierend, wenn α(v1, . . . , vn) = 0 für jedes n-Tupel (v1, . . . , vn) gilt mitvi = vj für irgendwelche i 6= j.

Alternierende n-Formen können addiert und mit Skalaren multipliziert werdenund bilden in natürlicher Weise einen K-Vektorraum, der mit AltnV bezeichnetwird.

Spezialfall n = 1: Alt1V = V ∗ (Dualraum).

Bemerkung. Ist α eine alternierende k-Form, so wechselt α beim Vertauschenzweier Einträge das Vorzeichen, wegen0 = α(v1, . . . , vi + vj , . . . , vi + vj , . . . , vn) =α(v1, . . . , vi, . . . , vi, . . . , vn) + α(v1, . . . , vi, . . . , vj , . . . , vn)+α(v1, . . . , vj, . . . , vi, . . . , vn) + α(v1, . . . , vj, . . . , vj, . . . , vn), also

α(v1, . . . , vj , . . . , vi, . . . , vn) = −α(v1, . . . , vi, . . . , vj, . . . , vn).

Satz 5.18. Eine alternierende n-Form α : V n → K ist(i) homogen, d.h.

α(v1, . . . , vj−1, λvj, vj+1, . . . , vn) = λα(v1, . . . , vn)

für alle λ ∈ K, v1, . . . , vn ∈ V , j = 1, . . . , n.

(ii) scherungsinvariant, d.h.

α(v1, . . . , vj−1, vj + λvi, vj+1, . . . , vn) = α(v1, . . . , vn)

für alle λ ∈ K, v1, . . . , vn ∈ V , i, j ∈ {1, . . . , n}, i 6= j.

Beweis. (i) folgt aus der Multilinearität.(ii) Es giltα(v1, . . . , vj + λvi, . . . , vn) = α(v1, . . . , vj, . . . , vn) + α(v1, . . . , λvi, . . . , vn)

und α(v1, . . . , λvi, . . . , vi, . . . , . . . , vn) = λα(v1, . . . , vi, . . . , vi, . . . , vn) = 0.

Lemma 5.19. Ist α : V n → K eine homogene und scherungsinvariante Abbil-dung und sind (v1, . . . , vn) linear abhängig, so gilt α(v1, . . . , vn) = 0.

Page 80: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

80 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Beweis. Sei z.B. v1 = λ2v2 + · · ·+ λnvn. Dann folgt aus der Scherungsinvarianz

α(v1, . . . , vn) = α(v1 − λ2v2 − · · · − λnvn, v2, . . . , vn)= α(0, v2, . . . , vn)= 0 · α(0, v2, . . . , vn) = 0

Satz 5.20. Sei V ein n-dimensionaler K-Vektorraum. Dann ist jede homogeneund scherungsinvariante Abbildung V n −→ K eine alternierende n-Form auf V .

Beweis. Sei α : V n → K homogen und scherungsinvariant. Dann giltα(v1, . . . , vn) = 0 falls (v1, . . . , vn) linear abhängig (siehe 5.19.)• α ist n-Form. Wegen der Homogenität genügt es zu zeigen:

α(v1, . . . , vi + v′

i, vn) = α(v1, . . . , vi, vn) + α(v1, . . . , v′

i, . . . , vn)

1. Fall: v1, . . . , vi−1, vi+1, . . . , vn sind linear abhängig ⇒ beide Seiten = 0.2. Fall: sonst ergänze zu einer Basis (v1, . . . , vi−1, w, vi+1, . . . , vn). Dann ist vi =a + λw, v′i = a′ + λ′w mit λ, λ′ ∈ K und a, a′ ∈ Lin(v1, . . . , vi−1, vi+1, . . . , vn).Wegen der Scherungsinvarianz gilt

α(v1, . . . , vi, . . . , vn) = α(v1, . . . , λw, . . . , vn) = λα(v1, . . . , w, . . . , vn)α(v1, . . . , v

i, . . . , vn) = α(v1, . . . , λ′w, . . . , vn) = λ′α(v1, . . . , w, . . . , vn)

analogα(v1, . . . , vi + v

i, . . . , vn) = (λ+ λ′)α(v1, . . . , w, . . . , vn)

Von jetzt an sei n = dimK V . Die Bedingungen Homogenität und Scherungsinva-rianz, also (i) und (ii) aus 5.18, sind geometrische Forderungen an ein “Volumen”

In dim 2:

(i) Streckt man in eine Richtung um den Faktor λ, so multipliziert sich dasVolumen mit λ.

v2

v1 λv1

Page 81: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

5.2 Determinanten 81

(ii) Die beiden schraffierten Parallelogramme haben gleiches Volumen (Prinzipdes Cavalieri, wird im 3. Semester Analysis streng bewiesen „Satz von Fubini“).

v2

v1

λv2v1 + λv2

Wegen dieses geometrischen Hintergrunds nennt man eine Funktion α : V n → K,n = dimK V , α 6= 0, eine Volumenform auf V . Wir werden zeigen, daß eineVolumenform bis auf einen (nicht-verschwindenden) Faktor eindeutig bestimmtist. In der “realen” Welt (d.h. K = R) normiert man das Volumen durch eineMaßeinheit (z.B. Kubikmeter, wenn n = 3).

Satz 5.21. Sei n = dimV und (v1, . . . , vn) eine Basis von V . Dann gibt es zujedem λ ∈ K genau eine alternierende n-Form

α : V n → K

auf V mit α(v1, . . . , vn) = λ. Insbesondere gilt

dim AltnV = 1.

Beweis. “Insbesondere”: Wir erhalten einen Isomorphismus AltnV∼

−→ K durchα 7→ α(v1, . . . , vn). Die erste Aussage folgt vermittels des Isomorphismus: Kn →V , (λ1, . . . , λn) 7→ λ1v1 + . . . , λnvn, aus dem nächsten Satz.

Satz 5.22. Es gibt genau eine alternierende n-Form auf dem Kn

det : (Kn)n → K

mit det(e1, . . . , en) = 1. Sie wird Determinante genannt.

Page 82: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

82 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Beweis. Wir fassen Vektoren v1, . . . , vn ∈ Kn als Zeilen einer Matrix auf. Damit

ist Existenz und Eindeutigkeit einer Funktion

det : Mn,n(K) −→ K

zu zeigen mit

(i) det ist multilinear in den Zeilen,

(ii) Sind in A zwei Zeilen gleich, so gilt det(A) = 0,

(iii) det(En) = 1.

Nach 5.18 und 5.20 sind (i) und (ii) (zusammen) äquivalent zu

(i)’ det bleibt invariant unter der Zeilenumformung vi 7→ vi+λvj, i 6= j, λ ∈ K,

(ii)’ bei der Zeilenumformung vi 7→ λvi, λ ∈ K, multipliziert sich det mit λ.

Eindeutigkeit: Sei det eine solche Funktion. Ist (v1, . . . , vn) linear abhängig, sogilt det(v1, . . . , vn) = 0 nach 5.19. Ansonsten kann man die Matrix mit den Zeilenv1, . . . , vn durch Zeilenumformung vom Typ (i)’ und vom Typ (ii)’ mit λ 6= 0 aufEn transformieren. Wegen (iii) gilt det(En) = 1 und rückwärts ist det(v1, . . . , vn)bestimmt.

Existenz: Für n = 1 setze det(a) = a. Sei n ≥ 2 und det : Mn−1,n−1(K) → Kbereits konstruiert. Sei A ∈Mn,n(K). Für 1 ≤ i, j ≤ n sei Aij ∈Mn−1,n−1(K) dieMatrix die durch Streichen der i-ten Zeile und j-ten Spalte aus A entsteht. Seinun j, 1 ≤ j ≤ n, beliebig aber fest. Wir definieren

det :Mn,n(K)→ K

induktiv durch „Entwicklung nach der j-ten Spalte“:

det(A)def=

n∑

i=1

(−1)i+jaij det(Aij).

Zu zeigen: die so definierte Funktion det :Mn,n(K)→ K erfüllt die Eigenschaften(i)–(iii).Nach Induktionvoraussetzung ist det : Mn−1,n−1(K) → K eine alternierende(n− 1)-Form mit det(En−1) = 1. Wir erhalten:

det(En) =n∑

i=1

(−1)i+jδij det((En)ij)

= δjj det(En−1) = 1

Page 83: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

5.3 Eigenschaften der Determinante 83

Als Funktion in den Zeilen v1, . . . , vn ist det multilinear, was man direkt aus derdefinierenden Formel abliest, also gilt (i). Es verbleibt, (ii) zu zeigen. Sei vs = vkfür s 6= k. Da det das Vorzeichen wechselt, wenn man zwei Zeilen vertauscht,erhalten wir

det(Asj) = (−1)s+k det(Akj),

woraus wegen asj = akj die Gleichung

0 = (−1)s+jasj det(Asj) + (−1)k+jakj det(Akj)

folgt. Für i 6= s, i 6= k hat Aij zwei gleiche Zeilen, d.h. det(Aij) = 0 für i /∈ {s, k}.Zusammen ergibt sich

det(A) =n∑

i=1

(−1)i+jaij det(Aij) = (−1)s+jasj det(Asj) + (−1)k+jakj det(Akj) = 0.

Dies zeigt (ii) und beendet den Beweis.

Man schreibt die Determinante auch in der Form

detA = |A| =

a11 . . . a1n

an1 . . . ann

Der Existenzbeweis liefert auch gleich eine Berechnungsmöglichkeit. In kleinenDimensionen erhält man

n = 1 det(a) = a

n = 2

a bc d

= ad− bc

n = 3 :∣

a11 a12 a13

a21 a22 a23

a31 a32 a33

= a11

a22 a23

a32 a33

−a21

a12 a13

a32 a33

+ a31

a12 a13

a22 a23

= a11a22a33 + a12a23a31 + a13a21a32

−a11a32a23 − a21a12a33 − a31a22a13.

5.3 Eigenschaften der Determinante

Satz 5.23. Eine Funktion α : Mn,n(K) → K, die als Funktion auf den Zeilenhomogen und scherungsinvariant ist, ist von der Form α = c · det für ein c ∈ K.

Beweis. Nach 5.20 ist α eine alternierende n-Form. Nach 5.21 giltdim Altn(Kn) = 1 und 0 6= det ∈ Altn(Kn).

Page 84: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

84 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Erinnern wir uns an die Matrizen

Ej(λ) =

1. . .

λ. . .

1

λ an der Stelle (j, j)

Eij(λ) =

1. . .

λ 1

λ an der Stelle (i, j), i 6= j

Die n× n Einheitsmatrix bezeichnen wir einfach nur mit E. Es gilt

α : Mn,n(K)→ K ist

homogen ⇐⇒ α(Ej(λ) · A) = λ · α(A) ∀A, j, λscherungsinvariant ⇐⇒ α(Eij(λ) · A) = α(A) ∀A, λ, i 6= j

Korollar 5.24. Es gilt det(Ej(λ)) = λ, det(Eij(λ)) = 1.

Beweis. det(Ej(λ)) = det(Ej(λ) ·E) = λ · det(E) = λdet(Eij(λ)) = det(Eij(λ)E) = det(E) = 1.

Satz 5.25. Sind A,B ∈Mn,n(K), so gilt |A · B| = |A| · |B|.

Beweis. Für festes B betrachten wir die Abbildung

α : Mn,n(K) −→ K, A 7−→ |A ·B|

Es gilt

α(Ej(λ) · A) = |Ej(λ) · A · B|= λ|A ·B| = λα(A),

also ist α homogen. Desweiteren gilt

α(Eij(λ) · A) = |Eij(λ) ·A · B| = |A · B| = α(A),

weshalb α auch scherungsinvariant ist. Nach 5.23 gilt α(A) = c · |A| für alle Aund ein festes c ∈ K. Setzt man A = E, erhält man c = |B|.

Satz 5.26. Es gilt |A| = |At|

Beweis. Betrachte

α : Mn,n(K) −→ K, A 7−→ det(At).

Page 85: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

5.3 Eigenschaften der Determinante 85

Dann gilt

α(Ej(λ) · A) = |Ej(λ) · A)t|

= |At · Ej(λ)t|

= |At| · |Ej(λ)|

= λ · α(A)

α(Eij(λ) · A) = |(Eij(λ) · A)t|

= |At · Eij(λ)t|

= |At| · |Eji(λ)|

= |At| = α(A).

α(E) = |Et| = |E| = 1. Also gilt α = det.

Korollar 5.27. (Entwicklung nach der i-ten Zeile)

|A| =n∑

j=1

(−1)i+jaij|Aij |

Beweis. Man entwickle |At| nach der i-ten Spalte und verwende 5.26.

Definition 5.28. Die Matrix A = (aij) mit aij = (−1)i+j |Aji| heißt die Ad-junkte zu A.

Beispiel. A =

(

3 51 3

)

⇒ A =

(

3 −5−1 3

)

.

Es gilt A · A =

(

4 00 4

)

= A · A =

(

|A| 00 |A|

)

.

Das ist kein Zufall:

Satz 5.29 (Erste Cramersche Regel).

A · A = A · A = |A| · E.

Beweis. Sei (B)ij der Koeffizient der Matrix B an der Stelle (i, j). Dann gilt

(A · A)ii =∑

jaij aji =

jaij(−1)i+j |Aij|

= |A|

Für i 6= j ist(A · A)ij =

k

(−1)j+kaik|Ajk|

Rechts steht die Entwicklung nach der j-ten Zeile der Matrix, die man erhält,wenn man in A die j-te durch die i-te Zeile ersetzt, also die Determinante einerMatrix mit zwei gleichen Zeilen, d.h. 0.Der Beweis von A · A = |A| · E geht analog mit Spaltenentwicklung.

Page 86: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

86 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Korollar 5.30. A ∈Mn,n(K) ist genau dann invertierbar wenn |A| 6= 0.

Beweis. Ist A invertierbar, so gilt 1 = |E| = |A ·A−1| = |A| · |A−1|, also |A| 6= 0.Ist |A| 6= 0, so gilt |A|−1 · A · A = E, also ist A invertierbar.

Korollar 5.31. Die Determinante induziert einen surjektiven Gruppenhomo-morphismus

det : Gln(K) −→ K×.

Beweis. A ∈ Gln(K) ⇒ |A| ∈ K× nach 5.30. Die Homomorphismuseigenschaftfolgt aus 5.25. Surjektivität folgt aus |Ej(λ)| = λ.

Definition 5.32. Die Gruppe

Sln(K) : = ker(det) ⊂ Gln(K)

heißt die Spezielle Lineare Gruppe.

Satz 5.33. Es sei R ⊂ K ein unitärer Unterring und A eine n × n-Matrix mitKoeffizienten in R. Die Matrix A−1 hat genau dann wieder Koeffizienten in Rwenn |A| ∈ R× gilt.

Beweis. Die Entwicklung über Spalten zeigt induktiv, daß |A| ∈ R gilt. Hat A−1

Koeffizienten in R, so gilt |A−1| · |A| = 1 und daher |A| ∈ R×. Die Koeffizientender Adjunkten A sind Wechselsummen von Determinanten von Untermatrizenund daher in R. Gilt |A| ∈ R×, so hat auch A−1 = |A|−1 · A Koeffizienten inR.

Korollar 5.34. Sei A eine n×n-Matrix mit Koeffizienten in Z. Es existiert genaudann A−1 mit Koeffizienten in Z wenn |A| = ±1 gilt.

Beweis. Es gilt Z× = {±1}.

Satz 5.35 (Zweite Cramersche Regel). Das lineare Gleichungssystem

A · x = b , A ∈ Gln(K), b ∈ Kn

hat die Lösungx = |A|−1A · b.

Für die i-te Komponente xi von x gilt daher

xi = |A|−1∑

j

(−1)i+j |Aji|bj .

Das heißt: xi ist die Determinante der Matrix, die aus A entsteht, wenn man diei-te Spalte durch b ersetzt.

Beweis. A−1 = |A|−1A.

Bemerkung. Diese Formel ist zur praktischen Berechnung ungeeignet, ist abermanchmal zu theoretischen Zwecken nützlich.

Page 87: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

5.3 Eigenschaften der Determinante 87

Praktische Berechnungsregeln für det:• Ist B ∈Ms,s(K) und k ∈ N∣∣∣∣∣Ek 0A B

∣∣∣∣∣ = |B|

(Entwicklung nach der ersten Zeile und Induktion nach k).

• Analog für A ∈Ms,s(K).∣∣∣∣∣A 0B Ek

∣∣∣∣∣ = |A| =

∣∣∣∣∣Ek B

0 A

∣∣∣∣∣∣∣∣∣∣

0 A

Ek B

∣∣∣∣∣ = (−1)s|A| =

∣∣∣∣∣B A

Ek 0

∣∣∣∣∣

• Sind A und C quadratisch erhalten wir∣∣∣∣∣A 0B C

∣∣∣∣∣ =

∣∣∣∣∣A 0B E

∣∣∣∣∣ ·

∣∣∣∣∣E 00 C

∣∣∣∣∣ = |A| · |C|

und durch transponieren∣∣∣∣∣A B

0 C

∣∣∣∣∣ = |A| · |C|.

• Induktiv erhält man so∣∣∣∣∣∣∣∣

λ1 0. . .

∗ λn

∣∣∣∣∣∣∣∣= λ1 · · ·λn =

∣∣∣∣∣∣∣∣

λ1 ∗. . .

0 λn

∣∣∣∣∣∣∣∣

Also muß man zur praktischen Berechnung von det die Matrix in Dreiecksgestaltbringen.

Beispiel.

∣∣∣∣∣∣∣

1 2 34 5 67 8 9

∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣

1 2 30 −3 −60 −6 −12

∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣

1 2 30 −3 −60 0 0

∣∣∣∣∣∣∣= 0

∣∣∣∣∣∣∣

1 2 34 8 61 3 3

∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣

1 2 30 0 −60 1 0

∣∣∣∣∣∣∣= −

∣∣∣∣∣∣∣

1 2 30 1 00 0 −6

∣∣∣∣∣∣∣= 6

Definition 5.36. Die Elemente der Gruppe

Gl+n (R) = {A ∈ Gln(R), |A| > 0}

heißen orientierungserhaltend.

Page 88: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

88 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Lemma 5.37. Sei V ein n-dimensionaler R-Vektorraum und B die Menge derBasen von V . Die Relation

(v1, . . . , vn) ∼ (w1, . . . , wn)⇐⇒Mv1,...,vnw1,...,wn

(idV ) ∈ Gl+n (R)

ist eine Äquivalenzrelation auf B. Es gibt genau zwei Äquivalenzklassen.

Beweis. Da sich Transformationsmatrizen (und damit deren Determinanten) mul-tiplizieren, ist ∼ eine Äquivalenzrelation. Sei (v1, . . . , vn) eine fixierte Basis. Danngilt

(w1, . . . , wn) 6∼ (v1, . . . , vn) und (w′1, . . . , w′n) 6∼ (v1, . . . , vn)

=⇒ (w1, . . . , wn) ∼ (w′1, . . . , w′n).

Also gibt es höchstens zwei Äquivalenzklassen. Da det surjektiv ist, gilt Gl+n (R) $Gln(R) und daher existierten genau zwei Klassen.

Definition 5.38. Die Auswahl einer Äquivalenzklasse bzgl. ∼ heißt Orientie-

rung des n-dimensionalen reellen Vektorraums V . Jedes Element in dieserÄquivalenzklasse heißt dann orientierte Basis.

Bemerkung. Der Rn wird durch die Äquivalenzklasse der Standardbasis (e1, . . . , en)orientiert (kanonische Orientierung des Rn). Eine Basis (v1, . . . , vn) des Rn

ist somit orientiert, wenn det(v1, . . . , vn) > 0 gilt.

Beispiel. Seien (x, y) linear unabhängig im R3. Dann ist z : = x× y 6= 0 und esgilt

det(x, y, z)Kap. 0

= 〈x× y, z〉 = 〈z, z〉 = |z|2 > 0.

Also ist (x, y, x× y) eine orientierte Basis des R3.

5.4 Die Leibniz-Formel

Erinnern wir uns an die Gruppe

Sn = Aut({1, . . . , n})

deren Elemente (Permutationen) wir in der Form π =

(1 2 · · · n

π(1) π(2) · · · π(n)

)

schreiben.

Definition 5.39. Ein Element σ ∈ Sn heißt Transposition, wenn es zwei Zah-len zwischen 1 und n vertauscht und alle anderen festhält. Schreibweise: σ = (ij)vertauscht i und j (i 6= j) und hält alle anderen fest.

Lemma 5.40. Die Transpositionen erzeugen Sn, d.h. jedes Element in Sn kann(auf nicht notwendig eindeutige Weise) als Produkt von Transpositionen geschrie-ben werden.

Page 89: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

5.4 Die Leibniz-Formel 89

Beweis. n = 1: die Aussage ist formal.n = 2: die Aussage ist trivial.Sei n > 2. Induktion über n. Wir erinnern uns an die Einbettung Sn−1 → Sn

durch π 7→

(1 2 . . . n− 1 n

π(1) π(2) . . . π(n− 1) n

)

, bezüglich derer wir Sn−1 als Un-

tergruppe in Sn auffassen.Sei nun σ ∈ Sn beliebig. Gilt σ(n) = n, so ist σ ∈ Sn−1 und nach Induktions-voraussetzung ist σ Produkt von Transpositionen.Ist σ(n) = m, 1 ≤ m ≤ n− 1, so ist (mn) · σ ∈ Sn−1, also Produkt von Transpo-sitionen (mn)σ = t1 . . . tr, also σ = (mn) · t1 . . . tr.

Wie eindeutig ist die Darstellung als Produkt von Transpositionen? Wir werdensehen, daß die Anzahl der Transpositionen modulo 2 wohlbestimmt ist.

Lemma 5.41. Die Abbildung

sgn : Sn −→ {±1}, σ 7−→∏

1≤i<j≤n

i− j

σ(i)− σ(j)

ist ein Gruppenhomomorphismus.

Beweis. Zunächst bemerken wir, dass in∏

1≤i<j≤ni−j

σ(i)−σ(j)im Zähler wie Nenner

die gleichen Faktoren vorkommen, aber eventuell mit verschiedenem Vorzeichen.Also sgn(σ) ∈ {±1}. Für σ, τ ∈ Sn und 1 ≤ i < j ≤ n mit τ(i) > τ(j) gilt

τ(i)− τ(j)

στ(i)− στ(j)=τ(j)− τ(i)

στ(j)− στ(i),

also gilt∏

1≤i<j≤n

τ(i)− τ(j)

στ(i)− στ(j)=

1≤i<j≤n

i− j

σ(i)− σ(j).

Wir erhalten

sgn(στ) =∏

1≤i<j≤n

i− j

στ(i)− στ(j)

=∏

1≤i<j≤n

τ(i)− τ(j)

στ(i)− στ(j)·

1≤i<j≤n

i− j

τ(i)− τ(j)

=∏

1≤i<j≤n

i− j

σ(i)− σ(j)·

1≤i<j≤n

i− j

τ(i)− τ(j)

= sgn(σ) · sgn(τ).

Page 90: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

90 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Definition 5.42. Die Zahl sgn(σ) ∈ {±1} heißt das Vorzeichen oder Signum

der Permutation σ.

Lemma 5.43. Für eine Transposition t = (ij) ∈ Sn gilt sgn(t) = −1.

Beweis. Sei t = (ij) ∈ Sn und ohne Einschränkung i < j. Wir betrachten für1 ≤ α < β ≤ n das Vorzeichen von

α− β

t(α)− t(β).

Der Zähler ist stets negativ und wir erhalten die folgende Fallunterscheidung

{α, β} ∩ {i, j} = ∅ +α = i < β ≤ j − (j − i) mal.α = i < j < β +α < i < j = β +i < α < j = β − (j − i− 1) mali < j = α < β +α < β = i < j +

Also folgtsgn(t) = (−1)2j−2i−1 = −1.

Satz 5.44. Istσ = t1 · · · tr

eine Darstellung von σ als Produkt von Transpositionen, so gilt sgn(σ) = (−1)r.Insbesondere ist die Restklasse von r modulo 2 von der Wahl der Darstellungunabhängig.

Beweis. Es ist sgn ein Homomorphismus, also

sgn(σ) = sgn(t1) · · · sgn(tr) = (−1)r.

Anwendung: Schiebespiel „Ohne-Fleiß-kein-Preis-Spiel“, „15er Puzzle“ (GegenEnde Januar 1880 setzte der Zahnarzt Charles Pevey ein Preisgeld für die Lö-sung des 15er-Puzzles aus. Das Spiel wurde in den USA im Februar, in Kanadaim März und in Europa im April 1880 sehr populär. )

Ausgangsstelllung:

1 2 3 45 6 7 89 10 11 1213 14 15

Page 91: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

5.4 Die Leibniz-Formel 91

Frage: Kommt man auf

2 1 3 45 6 7 89 10 11 1213 14 15

?

Antwort: nein.Begründung: Wir bezeichnen das leere Feld mit 16. Jeder Zustand des Spiels =einem Element in S16.Man startet mit dem neutralen Element e ∈ S16. Ein Zug entspricht der Multi-plikation mit einer Transposition. Das Schema

+ - + -- + - ++ - + -- + - +

zeigt, daß ein Zustand σ mit Loch rechts unten nur nach einer geraden Anzahlvon Transpositionen erreicht wird, d.h. sgn(σ) = +1 für solche σ. Daher kannder Zustand (12), dessen Signum −1 ist, nicht erreicht werden!

Page 92: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6.6 Hauptachsentransformation 117

Zwei Interpretationen. B ist Drehung um LA (um Winkel ϕ) gefolgt von Punkt-spiegelung an 0 oder B = Drehung um LA (um Winkel ϕ + π) gefolgt um Spie-gelung an der Ebene UA.

6.6 Hauptachsentransformation

Sei (V, γ) ein euklidischer Raum und f ∈ End(V ).

Definition/Lemma 6.43. Es existiert genau eine lineare Abbildung f ∗ ∈ End(V )mit

γ(v, f(w)) = γ(f ∗(v), w) für alle v, w ∈ V.

Diese heißt die Adjungierte zu f . Der Endomorphismus f heißt selbstadjun-giert (s.a.), wenn f = f ∗ gilt. Wird f bzgl. einer ONB (v1, . . . , vn) durch dieMatrix G dargestellt, so wird f ∗ bzgl. dieser Basis durch Gt dargestellt. Es ist fgenau dann selbstadjungiert, wenn G symmetrisch ist.

Beweis. Sind g1, g2 ∈ End(V ) Abbildungen mit der obigen Eigenschaft, so giltfür alle v ∈ V

γ(

g1(v)− g2(v), g1(v)− g2(v))

=

γ(

g1(v), g1(v)− g2(v))

− γ(

g2(v), g1(v)− g2(v))

= γ(

v, f(g1(v)− g2(v))

− γ(

v, f(g1(v)− g2(v))

= 0,

also g1(v) = g2(v). Dies zeigt die Eindeutigkeit.

Sei nun (v1, . . . , vn) eine ONB, G die Darstellungsmatrix von f und f ∗ die durchGt dargestellte Matrix. Dann gilt für v = λ1v1 + · · ·+λnvn, w = µ1v1 + · · ·+µnwnfolgendes:

γ(v, f(w)) = (λ1, . . . , λn)G

µ1

...

µn

=

(µ1, . . . , µn)Gt

λ1

...

λn

= γ(w, f ∗(v)) = γ(f ∗(v), w).

Dies zeigt die Existenz und alle anderen Aussagen.

Page 93: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

118 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Lemma 6.44. Sei (V, γ) ein euklidischer Raum und f ∈ End(V ) selbstadjun-giert. Dann ist die Form

γ′ : V × V → R, γ′(x, y) = γ(f(x), y)

eine symmetrische Bilinearform. Umgekehrt entsteht jede symmetrische Biline-arform γ′ : V × V → R in der oben beschriebenen Weise aus einem selbstad-jungierten Endomorphismus f : V → V . Bzgl. einer (jeder) ONB von V ist dieDarstellungsmatrix von f gleich der Fundamentalmatrix von γ′.

Beweis. f s.a. ⇒ γ′(x, y) = γ(f(x), y) = γ(x, f(y)) = γ(f(y), x) = γ′(x, y), alsoist γ′ symmetrisch.

Nun sei umgekehrt eine symmetrische Bilinearform γ′ : V × V → R gegebenund x ∈ V fest. Dann ist

ψx : y 7→ γ′(x, y)

ein Element von V ∗. Sei Γ : V ∼−→ V ∗ der zu γ assoziierte Isomorphismus (also

Γ (x)(y) = γ(x, y)). Dann es gibt ein eindeutig bestimmtes Element f(x) ∈ V mitΓ (f(x)) = ψx, d.h. es gilt

γ′(x, y) = γ(f(x), y)

für alle x ∈ V . Wir erhalten eine Abbildung f : V → V mit der Eigenschaft

γ′(x, y) = γ(f(x), y) für alle x, y ∈ V.

Wir zeigen, dass f linear ist, d.h. f(ax1 + bx2) = af(x1) + bf(x2). Dies folgt aus

Γ(

f(ax1 + bx2)− af(x1)− bf(x2))

(y)

= γ(

f(ax1 + bx2)− af(x1)− bf(x2), y)

= γ(

f(ax1 + bx2, y))

− aγ(

f(x1), y)

− bγ(

f(x2), y)

= γ′(

ax1 + bx2, y)

− aγ′(x1, y)− bγ′(x2, y) = 0

für alle y ∈ V , und weil Γ ein Isomorphismus ist.

Als nächstes zeigen wir, dass f selbstadjungiert ist. Es ist also zu zeigen:γ(f(x), y) = γ(x, f(y)) für alle x, y ∈ V . Dies folgt aus der Symmetrie von γ undγ′:

γ(f(x), y) = γ′(x, y) = γ′(y, x) = γ(f(y), x) = γ(x, f(y)).

Ist G die Darstellungsmatrix von f bzgl. einer ONB (für γ) (v1, . . . , vn) so giltfür w = λ1v1 + · · ·+ λnvn, w

′ = λ′1v1 + · · ·+ λ′nvn:

γ′(w,w′) = γ(f(w), w′) = (λ1, . . . , λn)Gt

λ′1

...

λ′n

.

Page 94: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6.6 Hauptachsentransformation 119

Daher ist Gt die Fundamentalmatrix von γ′. Schließlich gilt G = Gt weil f selbst-adjungiert ist.

Theorem 6.45 (Spektralsatz für selbstadjungierte Operatoren). Sei (V, γ) eineuklidischer Raum und f ∈ End(V ) ein selbstadjungierter Endomorphismus.Dann gibt es eine ONB von V aus Eigenvektoren von f .

Wir starten mit zwei Lemmata:

Lemma 6.46. Ist f s.a., so zerfällt χA über R in Linearfaktoren.

Beweis. o.B.d.A. sei V = Rn und γ = 〈 , 〉Standard. Dann wird f : Rn → Rn

durch eine Matrix A ∈Mn,n(R) gegeben. Wir können auch die durch A gegebeneC-lineare Abbildung A : Cn → Cn, z 7→ Az, betrachten, ohne χA zu verändern.Über C zerfällt χA in Linearfaktoren, d.h.

χA(t) = (x− λ1) . . . (x− λn), λi ∈ C.

Sei λ eines der λi. Z.z. λ ∈ R. Zunächst bemerken wir daß für z ∈ Cn \ {0}

ztz =n∑

i=1

zizi =n∑

i=1

|zi|2

reell und größer 0 ist. Hier ist z die Komplexkonjugierte zu z.

Ist nun z ∈ Cn \ {0} ein Eigenvektor von λ so gilt

λ · ztz = (λz)tz = (Az)tz = ztAtzA symm.

= ztA · z

A reell= ztAz = zt ·Az = zt · λz = λ · ztz.

Wegen ztz 6= 0 folgt λ = λ, also λ ∈ R.

Lemma 6.47. Sei f s.a. Ist U ein Untervektorraum mit f(U) ⊂ U , so giltf(U⊥) ⊂ U⊥.

Beweis. Sei v ∈ U⊥. Dann gilt für alle u ∈ U : 〈u, f(v)〉 = 〈f(u), v〉 = 0. Alsof(v) ∈ U⊥.

Beweis von Theorem 6.45. Per Induktion über dimV :Anfang: dim V = 1 trivial.Schritt: Sei n = dim V ≥ 2. Sei λ ∈ R ein EW von f (Existenz siehe 6.46) undv1 6= 0 ein Eigenvektor, d.h. f(v1) = λv1. Ersetzt man v1 durch v1

‖v1‖, so hat man

‖v1‖ = 1. Sei U = Rv1. Dann gilt f(U) ⊂ U und f(U⊥) ⊂ U⊥ (6.47). Nun giltV = U ⊕ U⊥ (6.27) und dimU⊥ = n − 1. Ist v2, . . . , vn ein ONB von U⊥ ausEigenvektoren zu f , so ist v1, . . . , vn die gesuchte ONB.

Page 95: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

120 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Korollar 6.48. Sei (V, γ) ein euklidischer Raum und γ′ : V × V → R eine sym-metrische Bilinearform. Dann gibt es eine ONB von (V, γ) die OB für (V, γ′) ist,d.h. bezüglich derer die Fundamentalmatrix von γ′ Diagonalgestalt hat.

Beweis. Sei f : V → V der nach 6.44 eindeutig bestimmte s.a. Endomorphismusmit γ′(x, y) = γ(f(x), y). Und sei (v1, . . . , vn) eine ONB von V aus Eigenwertenvon f . Gilt f(vi) = λivi, so gilt γ′(vi, vj) = γ(λivi, vj) = λiγ(vi, vj) = λiδij

In Matrizen lesen sich diese Ergebnisse so

Satz 6.49 (Hauptachsentransformation). Ist G eine symmetrische reelle n×n-Matrix, so existiert ein T ∈ SO(n), so daß TGT−1 eine Diagonalmatrix ist.

Beweis. Wir betrachten den Rn mit dem Standardskalarprodukt. Die symmetri-sche Matrix G definiert einen s.a. Endomorphismus f : R

n → Rn. Ist (v1, . . . , vn)

eine ONB des Rn aus Eigenvektoren von f wie in 6.45 und T die Transformati-onsmatrix von (e1, . . . , en) nach (v1, . . . , vn), so gilt T ∈ O(n). Ersetzt man, fallsnötig, v1 durch −v1, gilt sogar T ∈ SO(n). Bzgl. (v1, . . . , vn) hat f Diagonalge-stalt, d.h. TGT−1 hat Diagonalgestalt.

Korollar 6.50 (Simultane Diagonalisierung). Sei P eine symmetrische, positiv-definite und G eine beliebige symmetrische reelle n × n-Matrix. Dann existiertein T ∈ Gln(R) so daß gilt:

T tPT = E,

T tGT ist eine Diagonalmatrix.

Beweis. Nach 6.30 existiert ein T1 ∈ Gln(R) mit P = T t1T1, d.h. (T−1

1 )tPT−1

1 =E. Mit G ist auch die Matrix (T−1

1 )tGT−1

1 symmetrisch. Nach 6.49 existiert einT2 ∈ O(n), so daß

T2(T−1

1)tGT−1

1T−1

2

Diagonalgestalt hat. Schließlich setze T = T−1

1 T t2. Dann gilt

T tPT = T2(T−1

1 )tP (T−1

1 )T t2

= T2ET−1

2 = E

und

T tGT = T2(T−1

1 )tG(−T1)−1T t2

= T2(T−1

1 )tG(T1)−1T−1

2

ist von Diagonalgestalt.

Page 96: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6.7 Unitäre Räume 121

6.7 Unitäre Räume

Definition 6.51. Sei V ein endlich-dimensionaler C-Vektorraum. Eine Abbil-dung h : V × V → C heißt Sesquilinearform, wenn sie linear im ersten undsemi-linear im zweiten Argument ist, d.h. es gilt

h(λv1 + µv2, w) = λh(v1, w) + µh(v2, w)

undh(v, λw1 + µw2) = λh(v, w1) + µh(v, w2).

Hier bezeichnet λ die konjugiert komplexe Zahl zu λ. Eine Sesquilinearform h

heißt hermitesch, wennh(v, w) = h(w, v)

für alle v, w ∈ V gilt.

Bemerkung. Ist h hermitesch, so gilt h(v, v) = h(v, v), also h(v, v) ∈ R.

Sei nun h : V × V → C eine hermitesche Form und sei (v1, . . . , vn) eine Basisvon V . Dann heißt

H = (h(vi, vj))

die Fundamentalmatrix von h bzgl. (v1, . . . , vn). Sie hat die Eigenschaft

H∗ = H

wobei wir H∗ = H t setzen. Umgekehrt definiert jede Matrix H mit H∗ = H einehermitesche Form durch

h(∑

xivi,∑

yi, vi) = xtHy,

denn h(∑

yivi,∑

xivi) = ytHx = ytHx = xtHty.

Ist (w1, . . . , wn) eine weitere Basis, und S = Mw1,...,wnv1,...,vn

(idV ), so wird h bzgl.(w1, . . . , wn) durch S∗HS dargestellt. Dies beweist man analog wie 6.3.

Definition 6.52. Eine hermitesche Form h heißt positiv definit, wenn gilt:

h(v, v) > 0 für alle v ∈ V, v 6= 0.

Ein unitärer Raum (V, h) ist ein endlich-dimensionaler C-Vektorraum V miteiner positiv definiten hermiteschen Form h : V × V → C.

Beispiel. Der Cn mit dem Standardskalarprodukt h(x, y) = xty ist ein unitärerRaum.

Ist (v, h) ein unitärer Raum, so setzen wir ‖v‖ =√

h(v, v) und sagen v ⊥ w,wenn h(v, w) = 0.• eine OB (v1, . . . , vn) ist eine Basis mit h(vi, vj) = 0 für i 6= j

Page 97: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

122 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

• eine ONB (v1, . . . , vn) ist eine Basis mit h(vi, vj) = δij• das orthogonale Komplement eines Untervektorraums U ⊂ V ist definiert durchU⊥ = {v ∈ V | h(v, u) = 0 für alle u ∈ U}• Seien (V1, h1), (V2, h2) zwei unitäre Räume und f : V1 → V2 ein Isomorphismus.Man nennt f eine Isometrie, wenn h2(f(x), f(y)) = h1(x, y) für alle x, y ∈ V1 gilt.

Die Beweise aller folgenden Sätze sind genau die gleichen, wie bei euklidischenVektorräumen. Wir überlassen die Ausführung der Beweise dem Leser.

Satz 6.53. Jeder unitäre Raum hat eine ONB, d.h. er ist isometrisch zum Cn

mit dem Standardskalarprodukt.

Satz 6.54. Ist U ⊂ V ein Untervektorraum, so gilt V = U ⊕U⊥.

Definition 6.55. Eine Matrix U ∈ Gln(C) heißt unitär, wenn U∗U = E gilt.Die Gruppe der unitären Matrizen (vom Rang n) wird mit U(n) bezeichnet.

Lemma 6.56. Die unitären Matrizen sind gerade die, die eine Isometrie des Cn

(mit dem Standardskalarprodukt) induzieren.

Sei U ∈ U(n). Dann gilt

| det(U)|2 = det(U) det(U) = det(U∗) det(U) = det(U∗U) = det(E) = 1.

Daher folgt | det(U)| = 1.

Definition 6.57. Die Untergruppe SU(n) = {U ∈ U(n), det(U) = 1} heißt dieSpezielle Unitäre Gruppe.

Definition/Lemma 6.58. Sei (V, h) ein unitärer Raum und f ∈ End(V ). Dannexistiert genau f ∗ ∈ End(V ) mit

h(f(x), y) = h(x, f ∗(y))

für alle x, y ∈ V . Es heißt f selbstadjungiert, wenn f = f ∗ gilt. Wird f bzgl.einer ONB durch die Matrix A dargestellt, so wird f ∗ durch A∗ = A

tdargestellt.

Definition 6.59. f heißt normaler Endomorphisms, wenn f ∗ ◦ f = f ◦ f ∗ gilt.Eine Matrix A ∈ Mn,n(C) heißt normal, wenn A∗A = AA∗ und selbstadjun-giert, wenn A∗ = A.

Lemma 6.60. (i) unitäre Matrizen sind normal, (ii) s.a. Matrizen sind normal.

Beweis. (i) A∗A = E = AA∗, wegen A∗ = A−1. (ii) A∗ = A ⇒ AA∗ = A2 =A∗A.

Lemma 6.61. (i) f : V → V Isometrie ⇒ f normal.(ii) f selbstadjungiert ⇒ f normal.

Page 98: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6.7 Unitäre Räume 123

Beweis. Dies folgt aus 6.60 indem man f bzgl. einer ONB durch eine Matrixdarstellt.

Lemma 6.62. Sei (V, h) ein unitärer Raum und f ∈ End(V ).

(i) Ist U ⊂ V ein Untervektorraum und f(U) ⊂ U , so gilt f ∗(U⊥) ⊂ U⊥.

(ii) Ist f normal und v ∈ V ein Eigenvektor von f zum Eigenwert λ, so ist vein Eigenvektor zu f ∗ zum Eigenwert λ.

Beweis. (i) Sei v ∈ U⊥. Dann gilt h(f ∗(v), u) = h(v, f(u)) = 0 für alle u ∈ U ,also f ∗(v) ∈ U⊥.

(ii) Setze g = λidV − f . Dann gilt g∗ = λidV − f ∗ wegen

h(

(λidV − f)(x), y)

= λh(x, y)− h(f(x), y)

= h(x, λy)− h(x, f ∗(y))

= h(

x, (λidV − f ∗)(y))

.

Außerdem gilt

gg∗ = (λidV − f)(λidV − f∗)f∗f=ff∗

= (λidV − f∗) · (λidV − f) = g∗g,

also ist g normal. Nun gilt

v ist Eigenvektor zu λ von f ⇐⇒ g(v) = 0 ⇐⇒ h(g(v), g(v)) = 0

⇐⇒ h(v, g∗(g(v))) = 0g normal⇐⇒ h(v, g(g∗(v))) = 0 ⇐⇒ h(g∗(v), g∗(v)) = 0

⇐⇒ g∗(v) = 0 ⇐⇒ v ist Eigenvektor zu λ von f ∗.

Korollar 6.63. Ist f ∈ End(V ) selbstadjungiert, so sind alle Eigenwerte von f

reell.

Beweis. Sei λ ein Eigenwert von f und v ein zugehöriger Eigenvektor. Nach6.61(ii) ist f normal und nach 6.62 ist v auch Eigenvektor von f = f ∗ zu λ.Daher gilt λ = λ, also λ ∈ R.

Satz 6.64 (Spektralsatz für normale Operatoren). Sei (V, h) ein unitärer Raumund f ∈ End(V ) normal. Dann existiert eine ONB von (V, h) aus Eigenvektorenzu f .

Beweis. Per Induktion über die Dimension. Der Fall n = 1 ist trivial. Sei n > 1.Das charakteristische Polynom χf(t) zerfällt über C in Linearfaktoren, also hat fmindestens einen Eigenwert. Sei λ ein Eigenwert und v ein Eigenvektor zu λ mit

Page 99: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

124 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

‖v‖ = 1. Sei L = C · v. Dann gilt f(L) ⊂ L und wegen 6.62 (ii) auch f ∗(L) ⊂ L.Wegen 6.62 (i) erhalten wir

f(L⊥) ⊂ L⊥ , f ∗(L⊥) ⊂ L⊥.

Daher induziert f einen normalen Endomorphismus des unitären Raums (L⊥, h|L⊥),sowie von (L, h|L). Ist nun v2, . . . , vn eine ONB von L⊥ aus Eigenvektoren zuf (existiert nach Induktionsvoraussetzung), so ist (v, v2, . . . , vn) eine ONB vonV = L ⊕L⊥ aus Eigenvektoren zu f .

In Matrizen formuliert sich der Spektralsatz folgendermaßen:

Korollar 6.65. Ist A ∈ Mn,n(C) normal, so existiert eine unitäre Matrix U ∈U(n) so daß

U∗AU

Diagonalgestalt hat.

Schließlich halten wir fest:

Satz 6.66. Ist (V,H) ein unitärer Vektorraum, so gilt

(i) ‖x+ y‖ ≤ ‖x‖+ ‖y‖ (Dreiecksungleichung)(ii) ‖h(x, y)‖ ≤ ‖x‖ · ‖y‖ (Cauchy-Schwarzsche Ungleichung).

Beweis. (“wie im Reellen”). Wir schreiben h(x, y) = 〈x, y〉. Seien x, y ∈ V , x 6= 0.Dann gilt mit α = 〈y,x〉

‖x‖2und w = y − αx daß

〈w, x〉 = 〈y − 〈y,x〉‖x‖2

x, x〉 = 〈y, x〉 − 〈y, x〉

= 0.

Daher

‖y‖2 = ‖w + αx‖2 = 〈w + αx, w + αx〉

= ‖w‖2 + αα‖x‖2

also ‖y‖ ≥ |α| · ‖x‖ = |〈y,x〉|‖x‖2‖x‖ = |〈y,x〉|

‖x‖.

Dies zeigt (ii) und (i) folgt wegen

‖x+ y‖2 = ‖x‖2 + ‖y‖2 + 2Re 〈x, y〉

≤ ‖x‖2 + ‖y‖2 + 2|〈x, y〉|

C.-S.

≤ ‖x‖2 + ‖y‖2 + 2‖x‖ · ‖y‖ = (‖x‖+ ‖y‖)2.

Page 100: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6.8 Der unterliegende euklidische Raum 125

6.8 Der unterliegende euklidische Raum

(in der letzten Vorlesung nicht mehr gemacht)

Sei (V, h) ein n-dimensionaler unitärer Raum, und für v ∈ V sei ‖v‖h =√

h(v, v).

Definition/Lemma 6.67. Betrachtet man V als reellen Vektorraum, so hat Vdie Dimension 2n. Zur Unterscheidung bezeichnen wir diesen Vektorraum mit VR.Die Abbildung

γ : VR × VR → R, γ(v, w) = Re (h(v, w))

ist eine positiv definite Bilinearform auf VR, und wir nennen (VR, γ) den unter-

liegenden euklidischen Raum und bezeichnen dessen Norm mit ‖v‖γ =√

γ(v, v).Es gilt ‖v‖h = ‖v‖γ für alle v ∈ V .

Beweis. γ(w, v) = Reh(w, v) = Reh(v, w) = γ(v, w), und da h(v, v) ∈ R fürjedes v ∈ V gilt, folgt h(v, v) = γ(v, v) ∀ v ∈ R.

Bemerkung. Ist (V, h) ein unitärer Raum und (v1, . . . , vn) eine ONB, so ist(v1, iv1, . . . , vn, ivn) eine ONB für (VR, γ).

Page 101: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

92 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Definition 5.45. Die Untergruppe

An : = {σ ∈ Sn | sgn(σ) = 1}

heißt die alternierende Gruppe (über n Elementen)

Bemerkung. Es gilt An = ker(sgn: Sn → {±1}) und für n ≥ 2 ist sgn surjektiv.Also folgt für n ≥ 2

#An =#Sn

2=n!

2.

Nun sei K ein Körper. Wir betrachten die Abbildung

ϕ : Sn −→ Gln(K), ϕ(σ)(ei) 7−→ eσ(i),

d.h. ϕ(σ)

x1...xn

=

xσ−1(1)...

xσ−1(n)

.

Seien σ, τ ∈ Sn und x ∈ Kn. Setzt man y = φ(τ)(x), so gilt yi = xτ−1(i), i =1, . . . , n, und damit

φ(σ) ◦ φ(τ)(x)i = (φ(σ)(y))i = yσ−1(i) = xτ−1σ−1(i) = x(στ)−1(i) = φ(στ)(x)i.

Dies zeigt φ(σ) ◦ φ(τ)(x) = φ(στ)(x) für alle x ∈ Kn, also φ(σ) ◦ φ(τ) = φ(στ).Daher ist φ : Sn → Gln(K) ein (injektiver) Gruppenhomomorphismus.

Definition 5.46. Matrizen der Form ϕ(σ), σ ∈ Sn, heißen Permutationsma-trizen.

Ist t = (ij) eine Transposition, so gilt ϕ(t) = Pij (die Matrix, die aus derEinheitsmatrix durch Vertauschen der i-ten und j-ten Zeile entsteht) und daher

det(ϕ(t)) = detPij = −1K .

Nach 5.44 gilt daher:

Korollar 5.47. Ist σ ∈ Sn Produkt von r Permutationen, so gilt

det(ϕ(σ)) = (−1K)r = sgn(σ).

Hier fassen wir sgn(σ) ∈ {±1} als Element von K auf.

Page 102: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

5.4 Die Leibniz-Formel 93

Satz 5.48 (Leibniz-Formel). Für A = (aij) ∈Mn,n(K) gilt

|A| =∑

σ∈Snsgn(σ)a1σ(1)a2σ(2) . . . anσ(n)

Beweis.

|A| = det(∑

j

a1jej , . . . ,∑

j

anjej),

wobei ej den j-ten Einheitsvektor in Kn bezeichnet. Dies rechnen wir multilinearaus und erhalten

|A| =∑

J=(j1,...,jn)

a1j1a2j2 . . . anjn · det(ej1, . . . , ejn)

Ist

(

1, . . . , nj1, . . . , jn

)

keine Permutation, so ist det(ej1, . . . , ejn) = 0 (ein Vektor

kommt doppelt vor).

Ist σ =

(

1, . . . , nj1, . . . , jn

)

eine Permutation, so gilt det(ej1 , . . . , ejn) = sgn(σ) nach

5.47.

Bemerkung. Die Leibniz-Formel ist für die praktische Berechnung ungeeignet(zu viele Summanden).

Eine Anwendung ist

Korollar 5.49. Für K = R ist die Abbildung det : Rn2

= Mn,n(R)→ R beliebigoft stetig differenzierbar.

Ist R ein kommutativer, unitärer Ring, der Teilring eines Körpers K ist, sokann man die Determinante einer quadratischen Matrix mit Werten in R definie-ren, indem man die Einträge als Elemente von K auffasst. Wegen der Leibniz-Formel ist die Determinante wieder Element von R und auch nicht von der Aus-wahl von K abhängig (R könnte Teilring in verschiedenen Körpern sein!).

Wir wollen dies am Beispiel des Polynomrings K[t] demonstrieren. Ist K einKörper, so ist der Polynomring K[t] Unterring eines Körpers, nämlich des KörpersK(t) der rationalen Funktionen. Der Übergang ist der gleiche wie der von Z

zu Q:

Wir betrachten die Äquivalenzrelation auf K[t] × (K[t] \ {0}), die gegeben istdurch

(f1, g1) ∼ (f2, g2)⇔ f1g2 = f2g1.

(Übungsaufgabe: man verifiziere (Ä1)–(Ä3)). Die Äquivalenzklasse eines Paares(f, g), g 6= 0, wird mit

f

g

Page 103: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

94 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

bezeichnet. Die Äquivalenzklassen heißen rationale Funktionen. Rechnen tutman, wie man es mit Brüchen gewöhnt ist:

f1

g1

· f2

g2

=f1f2

g1g2

f1

g1

+f2

g2

=f1g2 + f2g1

g1g2

.

(Übungsaufgabe: man verifiziere die Wohldefiniertheit). Die Menge der rationalenFunktionen wird mit K(t) bezeichnet. Sie ist ein kommutativer Ring mit Null-element 0/1 und Einselement 1/1. Es gilt f/g = 0/1 genau dann wenn f = 0gilt. Daher hat f/g 6= 0/1 das Inverse g/f , weshalb K(t) ein Körper ist. DieZuordnung

K[t] −→ K(t), f 7−→ f

1

ist ein injektiver Ringhomomorphismus („bettet K[t] in K(t) ein“).

Schlußfolgerung: Wir können sagen, was die Determinante einer quadratischenMatrix mit Einträgen in K[t] ist. Die Determinante liegt wieder in K[t].

Das alles kann man auch auf (kommutative, unitäre) Ringe ausdehnen, die sichnicht in einen Körper einbetten lassen: die Leibnizformel enthält nur Additionenund Multiplikationen, weshalb man definieren kann:

Definition 5.50. Ist R ein kommutativer unitärer Ring und A ∈ Mn,n(R) einen× n-Matrix mit Einträgen in R, so definiert man det(A) ∈ R über die Leibniz-formel.

Man kann dann zeigen

1.) det kann über Zeilen- oder Spaltenentwicklung berechnet werden2.) det(A ·B) = det(A) ·det(B), A · A = A ·A = det(A) ·E, wobei A die Adjunkte

ist.3.) A ist dann und nur dann invertierbar, wenn det(A) ∈ R× ist und dann gilt

A−1 = det(A)−1 · A.4.) Ist f : R→ S ein Ringhomomorphismus, so gilt für f(A) ∈Mn,n(S)

die Formel det(f(A)) = f(det(A)).

Die Aussage 4.) folgt direkt aus der definierenden Leibniz-Formel.Wenn R Unterring eines Körpers K ist, so folgen Aussagen 1.), 2.) und 3.)

aus den schon bewiesenen Aussagen. Mit Hilfe von 4.) (und weiteren Algebra-Kenntnissen, die uns noch nicht zur Verfügung stehen) kann man dann 1.)-3.)für beliebige (kommutative, unitäre) Ringe folgern.

Page 104: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

5.5 Das charakteristische Polynom 95

5.5 Das charakteristische Polynom

Sei A ∈Mn,n(K).

Definition 5.51. Die Spur von A = (aij) definiert durch sp(A) :=n∑

i=1aii.

Lemma 5.52. sp(A · B) = sp(B · A).

Beweis. Es gilt

(A · B)ii =∑

jaijbji und

(B ·A)jj =∑

ibjiaij. Also

sp(A ·B) =∑

i,jaijbji = sp(B · A)

Korollar 5.53. Für T ∈ Gln(K) gilt

det(TAT−1) = det(A)sp(TAT−1) = sp(A)

Beweis. Es gilt det(AB) = det(BA) nach 5.25, sowie sp(AB) = sp(BA) nach5.52. Wir erhalten

det(TAT−1) = det(T−1TA) = det(EA) = det(A).

Das Argument für die Spur ist das gleiche.

Wir verallgemeinern dies und arbeiten im Polynomring K[t] über K. Durchdie Einbettung K[t] → K(t) steht uns die Determinante mit allen ihren Eigen-schaften zur Verfügung.

Definition 5.54. Sei A ∈ Mn,n(K). Das Polynom

χA(t) : = det(tE − A) ∈ K[t]

heißt das charakteristische Polynom der Matrix A.

Lemma 5.55. χA ist ein normiertes Polynom vom Grad n

χA(t) = tn + cn−1tn−1 + · · ·+ c0

und es gilt c0 = χA(0) = (−1)n|A| und cn−1 = −sp(A).

Page 105: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

96 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Beweis. Die Leibnizformel zeigt, daß χA die Form

χA(t) = (t− a11) · · · (t− ann) + (Polynom vom Grad ≤ n− 2)

hat. Daher ist χA normiert vom Grad n und cn−1 = −a11−a22 · · ·−ann. Schließlichgilt

c0 = χA(0) = |0 · E −A| = | − A| = (−1)n|A|.

Lemma 5.56. Ist T ∈ Gln(K), so gilt

χTAT−1 = χA.

Beweis.

χTAT−1 = |tE − TAT−1|= |T (tE − A)T−1|= |T | · |tE − A| · |T−1|= χA.

Unsere Regeln zur Determinantenberechnung wenden sich nun hier an und wirerhalten:

• A =

λ1 ∗. . .

0 λn

⇒ tE −A =

t− λ1 ∗. . .

0 t− λn

=⇒ χA(t) = (t− λ1) · · · (t− λn).

• A =

(

B ∗0 C

)

oder A =

(

B 0∗ C

)

=⇒ χA(t) = χB(t) · χC(t).

Sei nun f = c0 + c1t + · · · + crtr ∈ K[t] ein Polynom. Wir können Matrizen

A ∈Mm,m(K) in f einsetzen durch die Regel

f(A) = c0E + c1A + c2A2 + · · ·+ crA

r ∈Mn,n(K).

Bemerkung. Man sieht leicht für f, g ∈ K[t] und A ∈Mm,m(K) :

f(A) · g(A) = (f · g)(A) = (g · f)(A) = g(A) · f(A),

d.h. die Matrizen f(A) und g(A) kommutieren.

Satz 5.57 (Cayley-Hamilton). Es gilt χA(A) = 0.

Page 106: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

5.5 Das charakteristische Polynom 97

Beweis. Sei D die Adjunkte zu (tE − A) also

D · (tE − A) = det(tE −A) ·E = χA(t) · E. (∗)

In der Definition der Adjunkten treten Determinanten von (n − 1) × (n − 1)-Untermatrizen auf, also sind die Einträge von D Polynome in K[t] vom Grad≤ n− 1. Wir schreiben

D =n−1∑

i=0

Diti, Di ∈Mn,n(K).

Desweiteren sei χA(t) =n∑

i=0aiti, mit ai ∈ K. Ein Koeffizientenvergleich in (∗)

liefertaiE = Di−1 −DiA

wobei wir D−1 = 0 und Dn = 0 ergänzen. Es folgt:

χA(A) =n∑

i=0

aiAi =

n∑

i=0

(Di−1 −DiA)Ai

= −D0A+D0A−D1A2 + · · ·+Dn−1A

n −DnAn+1 = 0.

Page 107: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

98 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

5.6 Endomorphismen

Sei f : V → W eine lineare Abbildung. Wir haben gelernt, siehe 3.21, daß sichf bei Wahl geeigneter Basen (v1, . . . , vn), (w1, . . . , wm) von V und W durch dieMatrix

1. . .

10

. . .0

darstellen läßt. Ist nun V = W , will man (v1, . . . , vn) = (w1, . . . , wn) und dieSache wird komplizierter.Sei nun V ein n-dimensionaler K-Vektorraum und α : V → V ein Endomor-phismus, α ∈ End(V ). Sei A die Darstellungsmatrix von α bzgl. einer Basis(v1, . . . , vn). Bzgl. einer anderen Basis (v′1, . . . , v

′n) wird α durch TAT−1 darge-

stellt, wobei T ∈ Gln(K) die Transformationsmatrix ist. Nach 5.56 hängt dascharakteristische Polynom nicht von der Wahl der Basis ab und wir erhalten, daßdie folgenden Objekte wohldefiniert sind:

Definition 5.58. sp(α)df= sp(A), det(α)

df= det(A), χα(t)

df= χA(t),

wobei A die α bzgl. irgendeiner Basis darstellende Matrix ist.

Definition 5.59. Sei α ∈ End(V ). Ein λ ∈ K heißt Eigenwert von α, wenn eseinen Vektor v ∈ V , v 6= 0, mit α(v) = λ · v gibt. Ist λ ein Eigenwert von α, soheißt der Untervektorraum

Vλ = ker(λ · idV − α)

der Eigenraum zu λ und seine Elemente 6= 0, d.h. solche v 6= 0 mit α(v) = λ · vheißen Eigenvektoren zum Eigenwert λ.

Bemerkung. Ideal wäre es, wenn man V in die direkte Summe von Eigenräumenzerlegen könnte. Dann hätte α bezüglich einer Basis von V Diagonalgestalt. Leidergeht das nicht immer.

Beispiel. α =

(

0 −11 0

)

∈ Gl2(R) entspricht der Drehung um π2

in der Ebene

und hat keinen Eigenwert.

Satz 5.60. Die Eigenwerte von α sind genau die Nullstellen von χα(t).

Beweis. Es sei α bezüglich irgendeiner Basis durch die Matrix A dargestellt:

λ EW von α ⇔ ∃ v 6= 0: α(v) = λ(v)⇔ ∃ v 6= 0 (λidV − α)v = 0⇔ker(λidV − α) 6= 0⇔ det(λidV − α) = 0 ⇔ det(λE −A) = 0⇔ χA(λ) = 0.

Page 108: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

5.7 Zerlegung in Eigenräume 99

Bemerkung. Damit sehen wir auch algebraisch, daß die reelle Matrix

A =

(

0 −11 0

)

keinen Eigenwert hat, weil χA(t) = t2+1 keine reellen Nullstellen

hat. Aber ±i sind komplexe Nullstellen, d.h. als komplexe 2×2-Matrix aufgefasst,besitzt A zwei Eigenwerte.

Sei nun f = c0 + c1t + · · · + crtr ∈ K[t], V ein n-dimensionaler K-Vektorraum

und α ∈ End(V ). Da End(V ) ein unitärer Ring ist, der K als Unterring enthält,kann man Endomorphismen in f einsetzen und erhält Endomorphismen. Explizitbedeutet dies

f(α) = c0 · idV + c1α + c2α ◦ α + · · ·+ cr α ◦ α · · · ◦ α︸ ︷︷ ︸

r−mal

∈ End(V ).

Bemerkung. Man sieht leicht für f, g ∈ K[t] und α ∈ End(V ):

f(α) ◦ g(α) = (f · g)(α) = (g · f)(α) = g(α) ◦ f(α),

d.h. die Endomorphismen f(α) und g(α) kommutieren.

Satz 5.61 (Cayley-Hamilton für Endomorphismen).

χα(α) = 0.

Beweis. Sei α bzgl. einer Basis durch die Matrix A dargestellt. Dann wird fürf ∈ K[t], f(α) durch f(A) dargestellt. Insbesondere wird χα(α) durch χA(A) = 0(Cayley-Hamilton) dargestellt.

5.7 Zerlegung in Eigenräume

Sei V ein n-dimensionaler K-Vektorraum und α ∈ End(V ).

Definition 5.62. Man sagt, eine Matrix A = (aij) habe Diagonalgestalt, wennaij = 0 für i 6= j gilt. Man schreibt dann

A = diag(a11, . . . , ann).

Der Endomorphismus α von V heißt diagonalisierbar, wenn die Darstellungs-matrix von α bezüglich einer Basis (v1, . . . , vn) von Diagonalgestalt ist.

Lemma 5.63. Der Endomorphismus α ist genau dann diagonalisierbar, wenn eseine Basis (v1, . . . , vn) von V bestehend aus Eigenvektoren zu α gibt.

Beweis. Es ist diag(λ1, . . . , λn) genau dann die Darstellungsmatrix von α bezüg-lich der Basis (v1, . . . , vn), wenn α(vi) = λivi gilt.

Page 109: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

100 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Bemerkung. Ist α diagonalisierbar, also die Darstellungsmatrix von α bezüglicheiner Basis (v1, . . . , vn) von Diagonalgestalt diag(λ1, . . . , λn), so gilt

χα(t) = det(

t− λ1 0. . .

0 t− λn

) = (t− λ1) · · · (t− λn),

d.h. χα zerfällt in das Produkt von Linearfaktoren.

Satz 5.64. Es seien λ1, . . . , λm paarweise verschiedene Eigenwerte von α undv1, . . . , vn ∈ V Eigenvektoren zu λ1, . . . , λn. Dann ist das System

(v1, . . . , vm)

linear unabhängig.

Beweis. Nach Voraussetzung gilt (α− λiidV )(vj) = (λj − λi)vj. Setzt man

βi = (α− λ1idV ) ◦ · · · ◦ (α− λi−1idV ) ◦ (α− λi+1idV ) ◦ · · · ◦ (α− λmidV ),

so folgt

βi(vj) =(∏

k 6=i(λj − λk)

)

· vj =

{

0 i 6= j(Skalar 6= 0) · vj i = j.

Gilt nuna1v1 + · · ·+ amvm = 0, a1, . . . , am ∈ K,

so erhält man für jedes i = 1, . . . , m durch Anwendung von βi die Gleichungai = 0. Daher ist das System (v1, . . . , vm) linear unabhängig.

Satz 5.65. Sei V ein n-dimensionaler K-Vektorraum und α ∈ End(V ). Zerfälltdas charakteristische Polynom von α in paarweise verschiedene Linearfaktoren,d.h.

χα(t) = (t− λ1) . . . (t− λn)mit λi 6= λj für i 6= j, so gibt es eine Basis von V aus Eigenvektoren von α.Insbesondere wird α bezüglich einer Basis von V durch eine Diagonalmatrix dar-gestellt.

Beweis. In diesem Fall sind λ1, . . . , λn paarweise verschiedene Eigenwerte. Sindv1, . . . , vn assoziierte Eigenvektoren, so ist (v1, . . . , vn) nach 5.64 ein linear unab-hängiges System und wegen n = dim V eine Basis.

Wie macht man das explizit?Betrachte den Endomorphismus α des R2 der bzgl. der kanonischen Basis durch

die Matrix A =

(

1 −21 4

)

gegeben ist.

Page 110: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

5.7 Zerlegung in Eigenräume 101

χα(t) = det

(

t− 1, 2−1, t− 4

)

= (t− 1)(t− 4) + 2

= t2 − 5t+ 6= (t− 2)(t− 3)

Suche Eigenvektoren. Betrachte das homogene lineare Gleichungssystem

(2E − A)x = 0‖

(

1 2−1 −2

)(

x1

x2

)

= 0

Nichttriviale Lösung: (2,−1)t ist Eigenvektor zum Eigenwert λ = 2.

Probe:

(

1 −21 4

)(

2−1

)

=

(

4−2

)

(3E − A)x = 0‖

(

2 2−1 −1

)(

x1

x2

)

Lösung: (−1, 1)t

Probe:

(

1 −21 4

)(

−11

)

=

(

−33

)

.

Also hat α bzgl. der Basis ((2,−1)t, (−1, 1)t) die Darstellungsmatrix

(

2 00 3

)

Testrechnung: Der Basiswechsel von((1, 0)t, (0, 1)t) zu ((2,−1)t, (−1, 1)t) ist durch

die Transformationsmatrix T =

(

2 −1−1 1

)−1

gegeben.

berechnen:(

2 −1 1 0−1 1 0 1

)

(

1 0 1 1−1 1 0 1

)

(

1 0 1 10 1 1 2

)

T =

(

1 11 2

)

Wenden wir den Basiswechselsatz an, so müßten wir erhalten: TAT−1 =

(

2 00 3

)

.

Probe:(

1 11 2

)(

1 −21 4

)(

2 −1−1 1

)

=

(

2 23 6

)(

2 −1−1 1

)

=

(

2 00 3

)

o.k.

Page 111: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

102 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

5.8 Triagonalisierbarkeit

Definition 5.66. Sei V ein n-dimensionaler K-Vektorraum und α ∈ End(V ).Der Endomorphismus α heißt triagonalisierbar, wenn es eine Basis gibt bzgl.derer α durch eine obere Dreiecksmatrix, d.h. durch eine Matrix der Form

∗ ∗. . .

0 ∗

dargestellt wird.

Satz 5.67. α ist genau dann triagonalisierbar, wenn χα(t) vollständig in Linear-faktoren zerfällt.

Beweis. Ist α bzgl. einer Basis durch

λ1 ∗. . .

0 λn

gegeben, so gilt

χα(t) = det(

t− λ1 ∗. . .

0 t− λn

) = (t− λ1) · · · (t− λn),

Die andere Richtung beweisen wir per Induktion nach n. Der Fall n = 1 ist klar,Sei χα = (t − λ1) . . . (t − λn) und sei v1 ein Eigenvektor zu λ1. Wir ergänzenv1 zu einer Basis (v1, . . . , vn) von V . Bzgl. dieser Basis hat α die Gestalt A =(

λ1 ∗0 A′

)

mit einer (n− 1)× (n− 1) Matrix A′. Sei V ′ = Lin(v2, . . . , vn). Dann

giltV = K · v1 ⊕ V ′.

Außerdem gilt χA(t) = (t − λ1) · χA′(t). Wegen der Eindeutigkeit der Primpoly-nomzerlegung gilt

χA′(t) = (t− λ2) · · · (t− λn),also zerfällt auch χA′(t) in Linearfaktoren. Sei α′ der auf V ′ bzgl. der Basis(v2, . . . , vn) durch A′ dargestellte Endomorphismus. Nach Induktionsvorausset-zung gibt es eine Basis (v′2, . . . , v

′n) von V ′ bzgl. derer α′ durch eine obere Drei-

ecksmatrix B′ dargestellt wird. Dann wird α bzgl. der Basis (v1, v′2, . . . , v

′n) von

V durch die Matrix

(

λ1 ∗0 B′

)

dargestellt, ist also triagonalisierbar.

Page 112: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

5.8 Triagonalisierbarkeit 103

Korollar 5.68. ÜberK = C ist jeder Endomorphismus eines endlich-dimensionalenVektorraums triagonalisierbar.

Beweis. Über C zerfällt jedes Polynom in Linearfaktoren (Hauptsatz der Alge-bra).

Sei nun K wieder allgemein und λ ein Eigenwert von α ∈ End(V ).

Definition 5.69. (i) Die algebraische Vielfachheit µalg(λ) ist die Vielfachheitvon λ als NS von χα(t), d.h. die Potenz von (t − λ) in der Primzerlegung vonχα(t).(ii) Die geometrische Vielfachheit µgeo(λ) ist gleich dim Vλ.

Satz 5.70. Es giltµgeo(λ) ≤ µalg(λ).

Beweis. Sei r = µgeo(λ) und v1, . . . , vr eine Basis von Vλ. Ergänzen wir zu ei-ner Basis (v1, . . . , vr, vr+1, . . . , vn), so wird α durch eine Matrix der Form A =(

λEr ∗0 A′

)

dargestellt. Also gilt χα(t) = χA(t) = (t−λ)r ·χA′(t). Dies impliziert

µalg(λ) ≥ r.

Satz 5.71. Für einen Endomorphismus α auf dem n-dimensionalen K-VektorraumV gilt

α diagonalisierbar ⇐⇒∑

λ EW von α

µgeo(λ) = n

α triagonalisierbar ⇐⇒∑

λ EW von α

µalg(λ) = n.

Beweis. Es seien λ1, . . . , λr die (verschiedenen) Eigenwerte von α. Gilt

r∑

i=1

µalg(λ) = n = dimχα(t),

so folgtχα(t) = (t− λ1)

µalg(λ1) · · · (t− λr)µalg(λr),

und nach 5.67 ist α triagonalisierbar. Ist umgekehrt α triagonalisierbar, so zerfälltχα nach 5.67 in Linearfaktoren und es folgt

λ EW µalg(λ).Ist α diagonalisierbar, so zerfällt V in die direkte Summe der Eigenraume,

daher giltn = dim V =

λ EW

dimVλ =∑

λ EW

µgeo(λ).

Gelte umgekehrt diese Formel. Es seien λ1, . . . , λr die (verschiedenen) Eigenwertevon α. Wir betrachten den natürlichen Homomorphismus

φ :r⊕

i=1

Vλr −→ V, (v1, . . . , vr) 7−→ v1 + . . .+ vr

Page 113: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

104 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Wir zeigen, daß φ ein Isomorphismus ist. Nach Voraussetzung haben Quelle undZiel die gleiche Dimension, also gzz., daß φ injektiv ist. Dies folgt aus 5.63. MitHilfe des Isomorphismus φ erhalten wir eine Basis von V aus Eigenvektoren vonα, also ist α diagonalisierbar.

6 Bilinearformen

Wir betrachten 2-Formen auf einem Vektorraum V

γ : V × V −→ K

d.h. γ ist in jedem Argument linear:

γ(αv1 + βv2, w) = αγ(v1, w) + βγ(v2, w)

γ(v, αw1 + βw2) = αγ(v, w1) + β(v, w2).

6.1 Bilinearformen

Definition 6.1. Sei V ein endlich-dimensionaler Vektorraum mit Basis (v1, . . . , vn)und

γ : V × V −→ K

eine Bilinearform. Die Matrix

G = (gij) = (γ(vi, vj))

heißt die Fundamentalmatrix von γ bzgl. dieser Basis.

Da γ bilinear ist, gilt für Vektoren v =∑aivi und w =

∑bivi

(∗) γ(v, w) = γ(∑

aivi,∑

bivi) = (a1, . . . , an)G

b1...bn

= atGb ∈ K,

weshalb die Bilinearform γ durch ihre Fundamentalmatrix G schon eindeutig be-stimmt ist. Umgekehrt definiert jede Matrix G ∈Mn,n(K) mit Hilfe der Gleichung(∗) eine Bilinearform γ : V × V → K mit Fundamentalmatrix G.

Die Menge aller Bilinearformen auf V wird zum Vektorraum Bil(V ) durch

(αγ1 + βγ2)(v, w) := αγ1(v, w) + βγ2(v, w), α, β ∈ K.

Sind G1 und G2 die Fundamentalmatrizen zu γ1 und γ2, so ist αG1 + βG2 dieFundamentalmatrix zu αγ1 + βγ2. Wir erhalten daher

Page 114: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6.1 Bilinearformen 105

Lemma 6.2. Sei V ein n-dimensionaler K-Vektorraum und sei (v1, . . . , vn) eineBasis von V . Dann gibt es einen Isomorphismus von Vektorräumen

ϕv1,...,vn : Bil(V ) −→ Mn,n(K)γ 7−→ G .

Wie ändert sich die Fundamentalmatrix G bei Basiswechsel?Sei w1, . . . , wn eine weitere Basis und S = Mw1,...,wn

v1,...,vn (idV ) die Transformations-matrix. Dann ist die Fundamentalmatrix von γ bzgl. (w1, . . . , wn) gegeben durch

G′ = (g′ij) = (γ(wi, wj))

=(

γ(n∑

k=1skivk,

n∑

ℓ=1sℓjvℓ

))

ij

=(n∑

k=1

n∑

ℓ=1skigkℓsℓj

)

ij

= StGS.

Daher wird das Basiswechselverhalten wie folgt beschrieben:

Lemma 6.3. Sei V ein n-dimensionaler K-Vektorraum und seien (v1, . . . , vn)und (w1, . . . , wn) Basen von V . Ist S = Mw1,...,wn

v1,...,vn(idV ), so gilt

ϕw1,...,wn(γ) = Stϕv1,...,vn(γ)S,

d.h. es kommutiert das Diagramm

Mn,n(K)

Bil(V )

Mn,n(K)

ϕv1,...,vn

ϕw1,...,wn

A 7−→StAS

Bemerkung. Bei Basiswechsel G → StGS gilt det(StGS) = det(S)2 · det(G).D.h. die Determinante der Fundamentalmatrix ist nicht basisunabhängig. Immer-hin kann man ablesen, ob det(G) 6= 0 gilt.

Page 115: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

106 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Sei γ : V × V → K eine Bilinearform. Die assoziierte Abbildung

Γ : V −→ V ∗, Γ (v)(w) := γ(v, w)

ist linear (elementare Rechnung). Umgekehrt definiert jede lineare AbbildungΓ : V → V ∗ eine Bilinearform γ : V × V → K durch γ(v, w) = Γ (v)(w).

Definition 6.4. Eine Bilinearform γ : V×V → K heißt nicht ausgeartet, wenndie zugehörige Abbildung Γ : V → V ∗ ein Isomorphismus ist (und anderenfallsausgeartet).

Wegen dim V ∗ = dim V (siehe 2.39) ist der Homomorphismus Γ : V → V ∗

genau dann ein Isomorphismus, wenn er injektiv ist (siehe 2.29). Daher ist γ :V × V → K genau dann nicht ausgeartet, wenn die folgende Implikation gilt:

γ(v, w) = 0 für alle w ∈ V =⇒ v = 0.

Lemma 6.5. Sei γ eine Bilinearform γ : V × V → K auf dem n-dimensionalenK-Vektorraum V . Es sei v1, . . . , vn eine Basis von V und G = ϕv1,...,vn(γ) ∈Mn,n(K) die Fundamentalmatrix von γ bzgl. (v1, . . . , vn). Dann sind die folgendenAussagen äquivalent

(i) γ ist nicht-ausgeartet.

(ii) G ist invertierbar.

Beweis. Sei v∗1, . . . , v∗n die zu v1, . . . , vn duale Basis von V ∗, d.h. v∗i (vj) = δij . Wir

betrachten die zu γ assoziierte Abbildung Γ : V → V ∗.Behauptung: Es gilt

Γ (vi) = γ(vi, v1)v∗1 + · · ·+ γ(vi, vi)v

∗n.

Grund: per definitionem gilt Γ (vi)(vj) = γ(vi, vj). Außerdem gilt

(

γ(vi, v1)v∗1 + · · ·+ γ(vi, vn)v∗n

)

(vj) = γ(vi, vj).

Daher stimmen die beiden Linearformen auf einer Basis überein und sind alsogleich, was die Behauptung zeigt.

Also gilt Mv1,...,vnv∗1 ,...,v∗

n(Γ ) = (γ(vj , vi))ij = Gt. Dies impliziert:

Γ nicht ausgeartetdef⇔ Γ ist Isomorphismus ⇔ Gt ist invertierbar ⇔ G ist

invertierbar.

Page 116: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6.1 Bilinearformen 107

Korollar 6.6. Ist γ : V ×V → K eine nicht ausgeartete Bilinearform, so gilt dieImplikation

γ(v, w) = 0 für alle v ∈ V =⇒ w = 0.

Beweis. Sei G die Fundamentalmatrix von γ zu einer fixierten Basis (v1, . . . , vn)von V . Wir betrachten die Bilinearform γ′ : V × V → K, die gegeben ist durchγ′(v, w) := γ(w, v). Dann hat γ′ die Fundamentalmatrix Gt. Nach Voraussetzungist γ nicht ausgeartet. Daher ist G invertierbar, also auch Gt, d.h. γ′ ist nichtausgeartet. Dies impliziert

γ(v, w) = 0 für alle v ∈ V ⇒ γ′(w, v) = 0 für alle v ∈ V ⇒ w = 0.

Definition 6.7. Eine Bilinearform γ : V × V −→ K heißt

symmetrisch ⇐⇒ γ(v2, v1) = γ(v1, v2) ∀ v1, v2 ∈ V,

antisymmetrisch ⇐⇒ γ(v2, v1) = −γ(v1, v2) ∀ v1, v2 ∈ V.

Bemerkung. Aus der Bemerkung nach 5.17 erhalten wir:

γ alternierend ⇒ γ antisymmetrisch.

Im Fall char(K) 6= 2 gilt auch die Umkehrung, wegen

γ(v, v) = −γ(v, v) =⇒ 2γ(v, v) = 01/2∈K=⇒ γ(v, v) = 0 ∀ v ∈ V.

Im Fall char(K) = 2 gilt −1K = 1K , also gilt in diesem Fall ‘symmetrisch’=‘antisymmetrisch’. Die Form γ : K3 ×K3 −→ K

γ(x, y) = xty = x1y1 + x2y2 + x3y3

ist im Fall char(K) = 2 antisymmetrisch, aber nicht alternierend.

Lemma 6.8. Sei γ : V × V → K eine Bilinearform und (v1, . . . , vn) eine Basisvon V . Sei G = (gij) = ϕv1,...,vn(γ) die Fundamentalmatrix. Dann gilt

(i) γ symmetrisch ⇐⇒ G ist symmetrische Matrix (d.h. Gt = G).(ii) γ antisymmetrisch ⇐⇒ G ist antisymmetrische Matrix (d.h. Gt = −G).

Beweis. (i) =⇒ gij = γ(vi, vj) = γ(vj, vi) = gji.⇐= Sei v = λ1v1 + · · · + λnvn, w = µ1v1 + · · · + µnvn und sei G symmetrisch.Dann gilt

γ(v, w) = (λ1, . . . , λn)G

µ1

...

µn

= (µ1, . . . , µn)Gt

λ1

...

λn

= γ(w, v)

Page 117: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

108 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

(ii) analog.

6.2 Quadratische Räume

Sei K ein Körper, charK 6= 2.

Definition 6.9. Ein n-dimensionaler K-Vektorraum V zusammen mit einer sym-metrischen Bilinearform γ : V × V → K heißt quadratischer Raum der Di-mension n über K. Eine Basis (v1, . . . , vn) von V heißt Orthogonalbasis, wennγ(vi, vj) = 0 für i 6= j gilt.

Bemerkung. 1) (v1, . . . , vn) ist genau dann eine Orthogonalbasis, wenn die Fun-damentalmatrix G = (γ(vi, vj)) eine Diagonalmatrix ist.2) der Kürze halber schreiben wir von jetzt an auch γ(v, w) = 〈v, w〉.

Bemerkung. In manchen Büchern (und auch in der Wikipedia) wird von ei-nem quadratischen Raum verlangt, dass die symmetrische Bilinearform γ nichtausgeartet ist. Wir machen diese Voraussetzung hier nicht.

Theorem 6.10. Sei (V, γ) ein quadratischer Raum. Dann gibt es eine Orthogo-nalbasis (v1, . . . , vn).

Beweis. Induktion über die Dimension. Der Fall n = 1 ist trivial.Sei n ≥ 2. Gilt 〈v, v〉 = 0 für alle v ∈ V , so gilt auch 〈v+w, v+w〉 = 2〈v, w〉 = 0für alle v, w ∈ V und wegen char K 6= 2 ist γ identisch 0. In diesem Fall ist jedeBasis orthogonal. Ansonsten existiert ein v1 ∈ V mit 〈v1, v1〉 =: a1 6= 0. Sei

H = {w ∈ V | 〈v1, w〉 = 0}.

Dann gilt H = ker(Γ (v1) : V → K), also dimH ∈ {n, n − 1} nach der Dimensi-onsformel. Wegen v1 6∈ H gilt dimH = n− 1 und V ∼= Kv1 ⊕H .Nun ist (H, γ|H×H) ein quadratischer Raum der Dimension n − 1. Nach In-duktionsvoraussetzung existiert eine Orthogonalbasis v2, . . . , vn von H . Dannist v1, . . . , vn eine Basis von V , und die Fundamentalmatrix ist diagonal wegen〈vi, vj〉 = 0 für i 6= j.

Korollar 6.11. Sei K ein Körper der Charakteristik 6= 2 und A ∈ Mn,n(K)eine symmetrische Matrix. Dann gibt es eine Matrix S ∈ Gln(K), so daß StASDiagonalform hat.

Beweis. Bezüglich der Standardbasis definiert die Matrix A eine symmetrischeBilinearform auf dem Kn. Bzgl. einer Orthogonalbasis des Kn hat diese Dia-gonalform. Der Basiswechsel von der Standandbasis zu dieses Orthogonalbasisüberführt A in StAS für ein S ∈ Gln(K) und StAS hat Diagonalgestalt.

Page 118: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6.2 Quadratische Räume 109

Definition 6.12. Es seien (H1, γ1) und (H2, γ2) zwei quadratische Räume. EinHomomorphismus quadratischer Räume

f : (H1, γ1) −→ (H2, γ2)

ist ein Vektorraumhomomorphismus f : H1 → H2, so daß gilt:

γ2(f(v, w)) = γ1(v, w)

für alle v, w ∈ H1.

Definition 6.13. Sind (V1, γ1) und (V2, γ2) zwei quadratische Räume, so heißt(V, γ) mit

V = V1 ⊕ V2, γ(

(v1, v2), (w1, w2))

= γ1(v1, w1) + γ2(v2, w2)

die orthogonale direkte Summe von (V1, γ1) und (V2, γ2).Bezeichnung: (V, γ) = (V1, γ1) ⊕ (V2, γ2), oder einfach V = V1 ⊕ V2.

Definition/Lemma 6.14. Seien U1, U2 zwei Untervektorräume eines quadrati-schen Raumes (V, γ). Dann ist der induzierte Homomorphismus

f : (U1, γ|U1) ⊕ (U2, γ|U2

) −→ (V, γ), f(u1, u2) = u1 + u2

genau dann ein Homomorphismus quadratischer Räume, wenn γ(u1, u2) = 0 füralle u1 ∈ U1, u2 ∈ U2 gilt. Ist dies der Fall und ist überdies f ein Isomorphismus(dies ist äquivalent zu U1 ∩ U2 = {0} und U1 + U2 = V , vgl. 2.7), so sagt man,daß V die orthogonale direkte Summe seiner Unterräume U1 und U2 ist, undschreibt V = U1 ⊕ U2.

Beweis. Sei h die Bilinearform auf (U1, γ|U1) ⊕ (U2, γ|U2

), siehe Definition 6.13.Für u1, u

′1 ∈ U1, u2, u

′2 ∈ U2 gilt

h((u1, u2), (u′1, u′2)) = γ(u1, u

′1) + γ(u2, u

′2).

Es ist f genau dann ein Homomorphismus, wenn für beliebige u1, u′1 ∈ U1, u2, u

′2 ∈

U2 gilt

h((u1, u2), (u′1, u′2)) = γ(f(u1, u2), f(u′1, u

′2)) = γ(u1 + u2, u

′1 + u′2),

also

γ(u1, u′1) + γ(u2, u

′2) = γ(u1, u

′1) + γ(u1, u

′2) + γ(u2, u

′1) + γ(u2, u

′2),

d.h.0 = γ(u1, u

′2) + γ(u′1, u2).

Dies ist äquivalent dazu, dass γ(u1, u2) = 0 für alle u1 ∈ U1, u2 ∈ U2 gilt.

Page 119: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

110 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Über C ist alles etwas einfacher:

Satz 6.15. Sei (V, γ) ein quadratischer Raum über C. Dann existiert eine Ortho-gonalbasis (v1, . . . , vn) von V , so daß λi = γ(vi, vi) ∈ {0, 1} für alle i. Die Zahlenr0 = Anzahl der λi’s = 0 und r = Anzahl der λi’s = 1 sind unabhängig von derWahl der Basis.

Beweis. Sei (v1, . . . , vn) eine Orthogonalbasis. Setze

vi =

vi falls λi = γ(vi, vi) = 0

1√λivi falls λi = γ(vi, vi) 6= 0

Hier ist√

λi eine beliebig gewählte komplexe Zahl α mit α2 = λi.Dann ist v1, . . . vn eine OB mit λi = 〈vi, vi〉 ∈ {0, 1}. Für die FundamentalmatrixG = diag(λi) gilt nun r = Rg(G), r0 = n − r. Bzgl. einer anderen OB hat γ dieDarstellungsmatrix T tGT für ein T ∈ Gln(C), und es gilt Rg(T tGT ) = Rg(G).Daher sind r und r0 unabhängig von der Auswahl der OB.

Korollar 6.16. Sei G eine symmetrische komplexe n×n-Matrix. Dann existiertein T ∈ Gln(C), so daß

T tGT =

Er 0

0 0

.

Die Zahl r = Rg(G) ist unabhängig von der Wahl von T .

Page 120: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6.2 Quadratische Räume 111

Über R.

Satz 6.17. Sei (V, γ) ein quadratischer Raum über R. Dann existiert eine OB(v1, . . . , vn) von V , so daß λi = γ(vi, vi) ∈ {0,±1} für alle i. Die Zahlen

r0 = Anz. der λi = 0

r+ = Anz. der λi = 1

r− = Anz. der λi = −1

sind unabhängig von der Wahl der Basis.

Beweis. Sei (v1, . . . , vn) eine OB. Setze

vi =

vi falls λi = γ(vi, vi) = 0

1√|λi|vi falls λi = γ(vi, vi) 6= 0.

Wir erhalten die gewünschte OB mit A = diag(λ1, . . . , λn) und λi ∈ {0 ± 1}.Wie im Komplexen erhalten wir, daß r+ + r− = Rg(A) und v0 = n− Rg(A) vonder Basis unabhängig sind. Daher genügt es zu zeigen, daß r+ unabhängig vonder Auswahl der OB ist. Sei V+ der Untervektorraum, der von den vi mit λi = 1erzeugt ist. Analog V−, V0. Dann gilt V = V+ ⊕ V− ⊕ V0. Setze

a = max(dim(W ) |W ⊂ V mit γ(w,w) > 0 für alle 0 6= w ∈W ).

Zunächst hat V+ diese Eigenschaft, also a ≥ r+. Wäre a > r+, so existiert einUVR W ⊂ V mit der obigen Eigenschaft und dimW > r+. Hieraus folgt dimW+dim V−+dimV0 > n. Die Dimensionsformel liefert W ∩(V−⊕V0) > 0, es gibt alsoein w ∈ W mit γ(w,w) > 0 und γ(w,w) ≤ 0. Dieser Widerspruch zeigt r+ = aund a ist unabhängig von der Auswahl der OB, also auch r+.

In Matrizen bedeutet dies

Korollar 6.18. (Sylvesterscher Trägheitssatz). Sei G ∈Mn,n(R) eine symmetri-sche reelle n× n Matrix. Dann existiert ein T ∈ Gln(R), so daß

T tGT =

Er+

−Er−

0r0

Die Zahlen r+, r− und r0 sind unabhängig von der Auswahl von T .

Page 121: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

112 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

6.3 Euklidische Räume

Definition 6.19. Eine symmetrische Bilinearform γ : V × V → R auf einemendlich-dimensionalen R-Vektorraum V heißt positiv definit (bzw. positiv se-midefinit), wenn γ(v, v) > 0 (bzw. γ(v, v) ≥ 0) für alle v ∈ V \ {0} gilt. Analogdefiniert sich negativ (semi-)definit.

Beispiel. Rn mit dem Standardskalarprodukt

〈x, y〉 = xty =∑

i

xiyi

ist positiv definit, wegen

〈x, x〉 = x21 + · · ·+ x2

n.

Definition 6.20. Ein euklidischer Vektorraum ist ein endlich-dimensionalerreeller Vektorraum mit einer positiv definiten symmetrischen Bilinearform. Für

ein v ∈ V nennt man ‖v‖ =√

〈v, v〉 die Norm von v. Zwei euklidische Vektor-räume V und W heißen isometrisch, wenn es einen Vektorraumisomorphismusϕ : V ∼−→ W gibt mit

〈ϕ(v1), ϕ(v2)〉W = 〈v,v2〉Vfür alle v1, v2 ∈ V . Eine Basis e1, . . . , en eines euklidischen Vektorraums heißtOrthonormalbasis, wenn 〈ei, ej〉 = δij gilt.

Theorem 6.21. Jeder euklidische Vektorraum (V, γ) besitzt eine Orthonormal-basis.

Beweis. Sei (v1, . . . , vn) eine Orthogonalbasis von V und G die Fundamentalma-trix von γ bzgl. (v1, . . . , vn). Auf der Diagonale stehen die Werte 〈vi, vi〉 > 0.Setze nun ei = 1√

〈vi,vi〉vi. Dann gilt 〈ei, ej〉 = δij.

Korollar 6.22. Eine positiv definite symmetrische Bilinearform ist nicht aus-geartet. Es gibt eine Basis bzgl. derer sie durch die Einheitsmatrix dargestelltwird.

Korollar 6.23. Ein euklidischer Vektorraum (V, γ) mit dimR V = n ist isome-trisch zum Rn mit dem Standardskalarprodukt.

Beweis. Sei (v1, . . . , vn) eine ONB von V . Dann ist ϕ : (Rn, 〈 , 〉Standard)→ (V, γ),ei 7→ vi, eine Isometrie.

Korollar 6.24. Sei (V, γ) ein euklidischer Vektorraum. Dann gelten(i) Dreiecksungleichung ‖x+ x‖ ≤ ‖x‖ + ‖y‖.(ii) Schwarzsche Ungleichung |〈x, y〉| ≤ ‖x‖ · ‖y‖.

Page 122: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6.4 Gram-Schmidt-Orthonormalisierung 113

Beweis. Dies wurde am Anfang für den Rn mit Standardskalarprodukt bewiesen.Nach 6.23 gelten die Ungleichungen für jeden euklidischen Vektorraum.

Ganz analog haben wir jetzt alle Begriffe und Sätze, die wir für den Rn habenfür beliebige euklidische Vektorräume. Z.B.

Korollar 6.25 (Satz des Pythagoras). Sind x und y orthogonal, d.h. 〈x, y〉 = 0,so gilt ‖x+ y‖2 = ‖x‖2 + ‖y‖2.

Die Orthogonalprojektion auf einen Vektor können wir jetzt auf Untervektor-räume verallgemeinern.

Definition 6.26. Sei V ein euklidischer Vektorraum und U ⊂ V ein Untervek-torraum. Der Untervektorraum

U⊥ = {v ∈ V | 〈v, u〉 = 0 für alle u ∈ U}

heißt das orthogonale Komplement zu U .

Satz 6.27. Es gilt V = U ⊕ U⊥.

Beweis. Ist u ∈ U ∩ U⊥ so gilt 〈u, u〉 = 0, also u = 0 ⇒ U ∩ U⊥ = 0. Esbleibt zu zeigen: U + U⊥ = V . Sei (u1, . . . , um) eine ONB von U . Für v ∈ V sei

v′ = v −m∑

i=1〈v, ui〉ui.

Dann gilt 〈v′, ui〉 = 〈v, ui〉 − 〈v, ui〉 = 0 für i = 1, . . . , m, also v′ ∈ U⊥ und

natürlichm∑

i=1〈v, ui〉ui ∈ U . Daher gilt V = U ⊕ U⊥. Schließlich gilt 〈u, v〉 =

〈v, u〉 = 0 für alle u ∈ U, v ∈ U⊥, weshalb die Summe orthogonal ist, siehe6.14.

Definition 6.28. Die Projektion V∼−→ U ⊕ U⊥ p1−→ U heißt die Orthogonal-

projektion von V auf U .

6.4 Gram-Schmidt-Orthonormalisierung

Explizites Verfahren zur Bestimmung einer ONB (Schmidtsches oder Gram-Schmidt-Verfahren).Sei (V, γ) ein euklidischer Vektorraum und (v1, . . . , vn) eine Basis. Wir veränderndie Basis (v1, . . . , vn) in n Schritten zu einer ONB (w1, . . . , wn).

Im 1. Schritt w1 : = 1‖v1‖ · v1,

Sei k ≥ 2 und sei eine ONB w1, . . . , wk−1 von Lin(v1, . . . , vk−1) bereits konstruiert.

Page 123: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

114 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Dann im k-ten Schritt: Zunächst setze

w′k = vk −k−1∑

i=1

γ(vk, wi)wi)

Dann gilt für i = 1, . . . , k − 1

γ(w′k, wi) = γ(

vk −k−1∑

j=1γ(vk, wj)wi, wi

)

=(

γ(vk, wi)− γ(vk, wi) · γ(wi, wi))

= 0.

Außerdem gilt vk /∈ Lin(v1, . . . , vk−1) = Lin(w1, . . . , wk−1), also folgt auch w′k /∈Lin(w1, . . . , wk−1). Hieraus folgt, daß (w1, . . . , wk−1, w

′k) eine OB von Lin(v1, . . . , vk)

ist. Schließlich setzen wir

wk =w′k‖w′k‖

.

Wir lassen diesen Prozess durchlaufen und erhalten eine ONB von (V ) Daher ist(w1, . . . , wn) eine ONB.

Beispiel. Im R2 mit dem Standardskalarprodukt sei die folgende Basis gegeben:v1 = (3, 1)t, v2 = (2, 2)t.Wir berechnen: |v1| =

√32 + 12 =

√10. Also w1 = (3/

√10, 1/

√10)t.

Zweiter Schritt: v2−〈v2, w1〉w1 = (2, 2)t−〈(2, 2)t, (3/√

10, 1/√

10)t〉(3/√

10, 1/√

10)t

= (2, 2)t−8/√

10·(3/√

10, 1/√

10)t = (2, 2)t−(24/10, 8/10)t = (−4/10, 12/10)t =(−2/5, 6/5)t.

Also gilt λ2 =√

40/25 = 2√

10/5 und somit

w2 = 5/(2√

10) · (−2/5, 6/5)t = 1/√

10(−1, 3)t.

Daher ist (3/√

10, 1/√

10)t, (−1/√

10, 3/√

10)t) eine ONB. Die Standardbasis istnatürlich auch eine ONB, aber wir erhalten sie hier nicht aus dem Gram-Schmidt-Verfahren.

Bemerkung. Im k-ten Schritt des Gram-Schmidt-Verfahrens entsteht wk als Li-nearkombination von v1, . . . , vk. Daher ist die Transformationmatrix von (v1, . . . , vn)zu (w1, . . . , wn) eine obere Dreiecksmatrix.

Definition 6.29. Eine symmetrische reelle Matrix G heißt positiv definit (Be-zeichnung: G > 0), wenn die zugehörige Bilinearform

(x, y) 7−→ xtGy

positiv definit ist.

Page 124: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6.4 Gram-Schmidt-Orthonormalisierung 115

Satz 6.30. Für eine reelle symmetrische Matrix G sind die folgenden Aussagenäquivalent:

(i) G ist positiv definit.

(ii) es existiert eine invertierbare obere Dreiecksmatrix T mit G = T tT .

(iii) es existiert eine invertierbare Matrix T mit G = T tT .

Beweis. (i)⇒(ii): Wir betrachten den euklidischen Raum (Rn, γ) mit γ(x, y) =xtGy. Ist T die Transformationsmatrix von der Standardbasis des Rn zu einerONB bzgl. γ, so gilt

E = (T−1)tG(T−1)

also T tT = G. Konstruieren wir die ONB mit Hilfe des Gram-Schmidt-Verfahrens,so ist T eine (invertierbare) obere Dreiecksmatrix.(ii)⇒ (iii) ist trivial(iii)⇒(i) Sei G = T tT . Dann gilt für x ∈ Rn \ {0} beliebigγ(x, x) = xtGx = xtT tTx = 〈Tx, Tx〉Standard > 0. Daher ist G positiv definit.

Definition 6.31. Es sei A = (aij)i=1,...,nj=1,...,n

eine n× n-Matrix. Für k = 1, . . . , n sei

Ak die k × k MatrixAk = (aij)i=1,...,k

j=1,...,k.

Die Determinante det(Ak) heißt der k-te Hauptminor von A.

Satz 6.32 (Hauptminorenkriterium). Eine symmetrische reelle n× n-Matrix Gist genau dann positiv definit, wenn die k-ten Hauptminoren k = 1, . . . , n sämtlichgrößer als Null sind.

Beweis. Sei G positiv definit, dann gilt G = T tT für eine invertierbare MatrixT und also det(G) = det(T t) det(T ) = det(T )2 > 0. Schränkt man die positivdefinite Bilinearform γ(x, y) = xtGy auf dem Kn auf den von e1, . . . , ek aufge-spannten Unterraum ein, erhält man die Bilinearform auf dem Kk, die durchdie Matrix Gk gegeben ist. Daher ist Gk positiv definit und es gilt daher auchdet(Gk) > 0 für jedes k = 1, . . . , n.

Sei umgekehrt detGk > 0 für k = 1, . . . , n. Wir schauen uns das Gram-Schmidt-Verfahren an, ohne zu wissen, dass die Form γ(x, y) = xtGy positivdefinit ist. Wenn das Verfahren durchläuft, erhalten wir eine Orthonormalba-sis, und G ist positiv definit. Wir starten mit der kanonischen Basis e1, . . . , en.Hinreichend für das Durchlaufen des Algorithmus: für jedes k gilt für den Vektor

w′k := ek −k−1∑

i=1

γ(ek, wi)wi

Page 125: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

116 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

dass γ(w′k, w′k) > 0. Das sieht man so: Die Form γ|Kk auf dem Kk wird bzgl.

der kanonischen Basis durch die Matrix Gk dargestellt. Es ist w1, . . . , wk−1, w′k

eine Orthogonalbasis von (Kk, γ|Kk). Die darstellende k × k Matrix A hat dieForm diag(1, . . . , 1, γ(w′k, w

′k)), hat also insbesondere die Determinante γ(w′k, w

′k).

Andererseits gilt A = T tGkT für eine invertierbare Matrix T , also gilt

γ(w′k, w′k) = det(T tGkt) = det(T )2 det(Gk) > 0.

Daher läuft der Algorithmus durch und wir erhalten eine ONB. Also ist G positivdefinit.

Wie findet man zu einer positiv definiten symmetrischen Matrix G ein T mitT tT = G? Äquivalente Fragestellung: wie findet man eine ONB des Rn bzgl. derBilinearform γ(x, y) = xtGy? (die Matrix T ist dann die Transformationsmatrixvon der Standardbasis zu dieser ONB). An der Matrix stellt sich das Gram-Schmidt-Verfahrens wie folgt dar:

1. Schritt: Setze a =√g11 und D1 = diag(a, 1, . . . , 1). Dann bilde D1GD1.

2. Schritt: Bilde Matrix von der Form

S1 =

1 a2 a3 . . . an

0 1 0 . . . 0

0 0. . .

0 0 . . . 1

so daß St1D1GD1S1 die Blockform

1 0

0 B

bekommt und gehe dann mit B weiter vor. Dann gilt

T−1 = D1S1D2S2 · · ·Dnund die Spalten von T−1 sind eine ONB. Die Matrix T invertiert man am schnell-sten, indem man berechnet

T = D−1n · · ·S−1

2 D−12 S−1

1 D−11 ,

weil man die Inversen von Matrizen der Form Di und Si sofort sieht. Es ist

diag(a1, . . . , an)−1 = diag(a−1

1 , . . . , a−1n )

Page 126: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6.4 Gram-Schmidt-Orthonormalisierung 117

und z.B.

1 a2 a3 . . . an

0 1 0 . . . 0

0 0. . .

0 0 . . . 1

−1

=

1 −a2 −a3 . . . −an

0 1 0 . . . 0

0 0. . .

0 0 . . . 1

Beispiel. G =

10 14

14 20

Sukzessive:

1√10

0

0 1

10 14

14 20

1√10

0

0 1

1 0

− 14√10

1

1 14√10

14√10

20

1 − 14√10

0 1

1 0

0 1√25

1 0

0 20− 19610

1 0

0 1√25

1 0

0 1

Also E = (T−1)tG(T−1).

Page 127: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

118 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

T−1 =

1√10

0

0 1

1 − 14√10

0 1

1 0

0 1√25

=

1√10− 7√

10

0√

52

T =

1 0

0√

25

1 14√10

0 1

√10 0

0 1

=

√10 14√

10

0√

25

Wir erhalten daher die ONB(

( 1√10, 0)t, (− 7√

10,√

52

)t)

.

Probe für G = T tT :

√10 0

14√10

√25

√10 14√

10

0√

25

=

10 14

14 19610

+ 25

=

10 14

14 20

Bemerkung. Da es viele ONB gibt, ist auch T alles andere als eindeutig. Z.B.

gilt auch

1 3

2 4

·

1 2

3 4

=

10 14

14 20

.

6.5 Orthogonale Matrizen

Wie sehen Koordinatenwechselmatrizen von einer ONB zur anderen aus?

Definition 6.33. Eine Matrix A ∈ Mn,n(R) heißt orthogonal, wenn AtA = Egilt.

Lemma 6.34. (i) Eine orthogonale Matrix A ist invertierbar und A−1 = At.(ii) Ist A orthogonal, so gilt |A| = ±1.(iii) Ist A orthogonal, so gilt A · At = E.

Page 128: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6.5 Orthogonale Matrizen 119

Beweis. (i) folgt aus AtA = E.(ii) aus |A| = |At| und |At| · |A| = |E| = 1.(iii) folgt aus At = A−1.

Satz 6.35. Eine Matrix A ist genau dann orthogonal, wenn die assoziierte Ab-bildung

A : (Rn, 〈 , 〉) −→ (Rn, 〈 , 〉)eine Isometrie ist.

Beweis. Für x, y ∈ Rn gilt 〈Ax,Ay〉 = xtAtAy. Daher ist A genau dann eineIsometrie, wenn die durch AtA gegebene Bilinearform das Standardskalarproduktist, d.h. wenn AtA = E gilt

Definition 6.36. Die Menge der orthogonalen n × n-Matrizen wird mit O(n)bezeichnet. O(n) heißt die Orthogonale Gruppe vom Rang n.

Verifikation der Gruppeneigenschaften: E ∈ O(n) o.k.A,B ∈ O(n) ⇒ (A · B)t · (A ·B) = BtAtAB = BtB = E, also A · B ∈ O(n).A ∈ O(n) ⇒ AtA = E ⇒ AAt = E ⇒ A−1 = At ∈ O(n).

Definition 6.37. Die Untergruppe

SO(n) = ker(det : O(n) −→ R×)

heißt die Spezielle Orthogonale Gruppe vom Rang n.

Bemerkung. Für A ∈ O(n) giltA ∈ SO(n)⇐⇒ A erhält die Orientierung des Rn.

Aus 6.35 folgt mit der Definition des Winkels zwischen zwei Vektoren wie inKapitel 0, d.h. ∢(x, y) = cos−1

(〈x,y〉‖x‖·‖y‖

)

∈ [0, π]:

Korollar 6.38. Orthogonale Matrizen induzieren abstands- und winkeltreue li-neare Abbildungen Rn −→ Rn.

Umgekehrt gilt:

Satz 6.39. Sei ϕ : Rn → Rn eine (nicht notwendig lineare) Abbildung. Ist ϕabstandstreu (d.h. ‖ϕ(x)−ϕ(y)‖ = ‖x−y‖ für alle x, y), so gibt es ein A ∈ O(n)und ein b ∈ Rn so daß

ϕ(x) = Ax+ b

für alle x ∈ Rn gilt (d.h. ϕ ist eine “affine Isometrie”).

Wir beginnen mit einem Lemma.

Lemma 6.40. Sei (V, γ) ein euklidischer Vektorraum und v1, . . . , vk paarweiseorthogonal (d.h. γ(vi, vj) = 0 für i 6= j) und alle von 0 verschieden. Dann ist(v1, . . . , vk) linear unabhängig.

Page 129: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

120 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Beweis. Ist λ1v1 + · · ·+ λkvk = 0, so folgt für i = 1, . . . , k

0 = γ(λ1v1 + · · ·+ λkvk, vi) = λiγ(vi, vi)

also λi = 0 für i = 1, . . . , k.

Beweis von 6.39. Setze b = ϕ(0) und ψ = ϕ− b. Es ist zu zeigen, daß ψ ist eineorthogonale lineare Abbildung ist, d.h. ψ(x) = Ax für ein A ∈ O(n).

1. Schritt. 〈ψ(x), ψ(y)〉 = 〈x, y〉 für alle x, y ∈ Rn

Grund:

−2〈ψ(x), ψ(y)〉 = ‖ψ(x)− ψ(y)‖2 − ‖ψ(x)‖2 − ‖ψ(y)‖2

= ‖x− y‖2 − ‖x‖2 − ‖y‖2

= −2〈x, y〉 für alle x, y ∈ Rn.

2. Schritt. (ψ(e1), . . . , ψ(en)) ist ein ONB des Rn.Grund: Nach 1. gilt 〈ψ(ei), ψ(ej)〉 = 〈ei, ej〉 = δij . Es bleibt zu zeigen, daß(ψ(e1), . . . , ψ(en)) eine Basis ist. Das folgt aus Lemma 6.40.

3. Schritt. ψ ist linear.zz: ψ(ax+ by) = aψ(x) + bψ(y) für alle a, b ∈ R, x, y ∈ Rn.Es g.z.z. 〈ψ(ax + by) − aψ(x) − bψ(y), z〉 = 0 für alle z ∈ Rn. Wegen Schritt 2genügt es, dies für z = ψ(e1), . . . , ψ(en) nachzuweisen. Nun gilt〈ψ(ax+ by)− aψ(x)− bψ(y), ψ(ei)〉= 〈ψ(ax+ by), ψ(ei)〉 − a〈ψ(x), ψ(ei)〉 − b〈ψ(y), ψ(ei)〉Schritt 1

= 〈ax+ by, ei〉 − a〈xiei〉 − b〈y, ei〉= 0.

Beispiele für kleines n:n = 1. O(1) = {±1}

SO(1) = {1}n = 2. Sei A ∈ O(2).Sei Ae1 =

(ab

)

. Wegen

|Ae1| =√

〈Ae1, Ae1〉 =√

〈e1, e1〉 = 1

gilt a2 + b2 = 1.Nun ist Ae2 ⊥ Ae1, also Ae2 = λ

(−ba

)

mit λ ∈ R; wegen |Ae2| = 1 folgt λ = ±1.

Außerdem gilt |A| =

∣∣∣∣∣∣∣∣∣

a −λb

b λa

∣∣∣∣∣∣∣∣∣

= λ.

Page 130: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6.5 Orthogonale Matrizen 121

Ist nun A ∈ SO(2), d.h. es gilt λ = 1, so hat A die Form A =

a −b

b a

mit

a2 + b2 = 1. Nun gibt es ein wohlbestimmtes ϕ ∈ [0, 2π) mit a = cosϕ, b = sinϕ,d.h. A entspricht der Drehung (um 0) um den Winkel ϕ.Es gilt χA(t) = (t−cosϕ)2 +(sinϕ)2. Diese Polynom hat nur dann reelle NS fallssinϕ = 0 gilt und dann sind dies die Nullstellen ϕ = 0, π. D.h.: nur für A = ±Ehat A reelle Eigenwerte.

Ist nun A ∈ O(2) − SO(2), d.h. det(A) = −1, so ist A von der Form A =

a b

b −a

bzw. A =

cosϕ sinϕ

sinϕ − cosϕ

. Was bedeutet das geometrisch?

Es gilt χA(t) = (t − cosϕ)(t + cosϕ) − (sinϕ)2 = t2 − 1 = (t + 1)(t − 1). Alsohat A zwei verschiedene reelle Eigenwerte und es existieren Vektoren v1, v2 ∈ R2

mit Av1 = v1, Av2 = −v2. Außerdem gilt 〈v1, v2〉 = 〈Av1, Av2〉 = 〈v1,−v2〉 =−〈v1, v2〉, also v1 ⊥ v2.Geometrisch: A ist die Spiegelung an der Geraden Rv1.

v2

Av2

v1

Wir erhalten so:

Korollar 6.41. Die Hintereinanderausführung zweier Spiegelungen (an Geradendurch 0) im R2 ist eine Drehung um 0.

Beweis. Eine Spiegelung wird bzgl. einer geeigneten ONB des R2 durch die Ma-

trix

1 0

0 −1

gegeben. Die Transformationsmatrix zur Standardmatrix liegt

in O(2), d.h. die Spiegelung wird bzgl. (e1, e2) durch eine Matrix der Form

A = T t

1 0

0 −1

T mit T ∈ O(2) gegeben. Es gilt |A| = |T t| · (−1)|T | = −1.

Page 131: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

122 Prof. Dr. Alexander Schmidt: Lineare Algebra I, WS 2008/09

Also A ∈ O(2), |A| = −1. Ist B eine weitere Spiegelung, so gilt B ∈ O(2),|B| = −1, und daher ist A · B ∈ SO(2) eine Drehung.

Analog erhält man:

Korollar 6.42. Die Hintereinanderausführung einer Drehung und eine Spiege-lung ist eine Spiegelung.

n = 3:

Sei A ∈ SO(3).Dann gilt χA(t) hat Grad 3 und mind. eine reelle NS λ, also existiert ein x ∈R3 \ {0} mit Ax = λx. Wegen ‖x‖ = ‖Ax‖ = ‖λx‖ = |λ| |x| folgt λ = ±1.

1. Fall. χA hat drei reelle NS. λ1, λ2, λ3 ∈ {±1} wegen 1 = |A| = λ1 · λ2 · λ3 istmindestens eines der λ’s = 1.2. Fall. χA hat eine reelle NS und zwei konjugiert komplexe NS. Wegen µµ > 0folgt λ > 0, also λ = 1.Also: λ = 1 ist stets Eigenwert von A, d.h. es gibt eine Gerade

LA = Rx,

die durch A festgehalten wird. Sei nun

UA = L⊥A.

Nach unserer Diskussion des Falles n = 2 induziert A eine Drehung der EbeneUA, d.h. A ist die Drehung des R3 um die Drehachse LA = Rx, x 6= 0.

Sei B ∈ O(3) \ SO(3), also det(B) = −1.

Dann ist

−1 0

−1

0 −1

· B = A ∈ SO(3).

Daher ist A bzgl. einer geeigneten Basis des R3 von der Form

TAT−1 =

1 0 0

0 cosϕ − sinϕ

0 sinϕ cosϕ

also TBT−1 = −

1 0 0

0 cosϕ − sinϕ

0 sinϕ cosϕ

=

−1 0 0

0 cos(ϕ+ π) − sin(ϕ+ π)

0 sin(ϕ+ π) cos(ϕ+ π)

Page 132: Lineare Algebra I - Unix-Homepageservergor56648/la/LineareAlgebraI... · Lineare Algebra I Prof. Dr. Alexander Schmidt Wintersemester 2008/09 0 Einführung Lineare Algebra: Lehre

6.5 Orthogonale Matrizen 123

Zwei Interpretationen. B ist Drehung um LA (um Winkel ϕ) gefolgt von Punkt-spiegelung an 0 oder B = Drehung um LA (um Winkel ϕ + π) gefolgt um Spie-gelung an der Ebene UA.