LINEARE ALGEBRA II: LEHRPLAN VICTORIA HOSKINS Webseite: http://userpage.fu-berlin.de/hoskins/LAII.html Inhaltsverzeichnis 1. Jordan-Normalform 1 2. Bilinearformen und quadratische Formen 11 3. Euklidische und unit¨ are Vektorr¨ aume 19 4. Ringe und Moduln 32 Literatur 37 1. Jordan-Normalform Mit der Jordan-Normalform werden wir alle komplexen Matrizen bis auf ¨ Ahnlichkeit klas- sifizieren. Wir werden eine Normalform, die Jordan-Normalform finden, so dass es in jeder ¨ Ahnlichkeitsklasse genau eine 1 komplexe Matrix in Normalform gibt. Wir werden Invarianten f¨ ur die ¨ Ahnlichkeitsklassen (d.h. etwas, dass das Gleiche f¨ ur zwei ¨ ahnliche Matrizen ist) ent- decken: alte Invarianten (das charakteristische Polynom, Eigenwerte) und neue Invariante (das Minimalpolynom, geometrische und algebraische Vielfachheit der Eigenwerte). [16.04.18] 1.1. Erinnerung an Eigenwerte und Diagonalisierung. Sei K ein K¨ orper. Definition. (1) F¨ ur einen linearen Endomorphismus f ∈ End K (V ) eines K-Vektorraumes V sagen wir, dass v ∈ V mit v 6=0 V ein Eigenvektor zum Eigenwert λ ∈ K ist, falls f (v)= λ · v. F¨ ur λ ∈ K definieren wir den λ-Eigenraum von f Eig(f,λ) := {v ∈ V : f (v)= λ · v}. Die geometrische Vielfachheit von λ ist μ g (f,λ) := dim K (Eig(f,λ)). (2) F¨ ur eine Matrix A ∈ Mat n×n (K) sagen wir, dass x ∈ K n mit x 6= 0 ein Eigenvektor zum Eigenwert λ ∈ K ist, falls Ax = λx. Der λ-Eigenraum von A ist Eig(A, λ)= {x ∈ K n : Ax = λx} und die geometrische Vielfachheit von λ ist μ g (A, λ) := dim K (Eig(A, λ)). Bemerkung. Nach [LAI, Satz 5.10] gelten: (1) Wenn V endlichdimensional ist (so dass det(f ) f¨ ur f ∈ End K (V ) definiert ist), gilt: λ ist ein Eigenwert von f ⇐⇒ det(λ · Id V - f ) = 0. (2) λ ist genau dann ein Eigenwert von A ∈ Mat n×n (K), wenn det(λI n - A) = 0. Definition. 1 (bis auf die Reihenfolge der Jordanbl¨ocke ) 1
37
Embed
Inhaltsverzeichnis Jordan-Normalform · 1. Jordan-Normalform 1 2. Bilinearformen und quadratische Formen 11 3. Euklidische und unit are Vektorr aume 19 4. Ringe und Moduln 32 Literatur
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
1. Jordan-Normalform 12. Bilinearformen und quadratische Formen 113. Euklidische und unitare Vektorraume 194. Ringe und Moduln 32Literatur 37
1. Jordan-Normalform
Mit der Jordan-Normalform werden wir alle komplexen Matrizen bis auf Ahnlichkeit klas-sifizieren. Wir werden eine Normalform, die Jordan-Normalform finden, so dass es in jederAhnlichkeitsklasse genau eine1 komplexe Matrix in Normalform gibt. Wir werden Invariantenfur die Ahnlichkeitsklassen (d.h. etwas, dass das Gleiche fur zwei ahnliche Matrizen ist) ent-decken: alte Invarianten (das charakteristische Polynom, Eigenwerte) und neue Invariante (dasMinimalpolynom, geometrische und algebraische Vielfachheit der Eigenwerte).
[16.04.18]1.1. Erinnerung an Eigenwerte und Diagonalisierung. Sei K ein Korper.
Definition.
(1) Fur einen linearen Endomorphismus f ∈ EndK(V ) eines K-Vektorraumes V sagen wir,dass v ∈ V mit v 6= 0V ein Eigenvektor zum Eigenwert λ ∈ K ist, falls
f(v) = λ · v.
Fur λ ∈ K definieren wir den λ-Eigenraum von f
Eig(f, λ) := {v ∈ V : f(v) = λ · v}.
Die geometrische Vielfachheit von λ ist µg(f, λ) := dimK(Eig(f, λ)).(2) Fur eine Matrix A ∈ Matn×n(K) sagen wir, dass x ∈ Kn mit x 6= 0 ein Eigenvektor
zum Eigenwert λ ∈ K ist, falls
Ax = λx.
Der λ-Eigenraum von A ist Eig(A, λ) = {x ∈ Kn : Ax = λx} und die geometrischeVielfachheit von λ ist µg(A, λ) := dimK(Eig(A, λ)).
Bemerkung. Nach [LAI, Satz 5.10] gelten:
(1) Wenn V endlichdimensional ist (so dass det(f) fur f ∈ EndK(V ) definiert ist), gilt: λist ein Eigenwert von f ⇐⇒ det(λ · IdV − f) = 0.
(2) λ ist genau dann ein Eigenwert von A ∈ Matn×n(K), wenn det(λIn −A) = 0.
Definition.
1(bis auf die Reihenfolge der Jordanblocke)
1
2 VICTORIA HOSKINS
(1) Fur A ∈ Matn×n(K) ist das charakteristische Polynom von A
χA(t) = det(tIn −A) ∈ K[t].
Die algebraische Vielfachheit von λ ist µa(f, λ) := µ(χf , λ) := max{n : (t− λ)n|χf (t)}.(2) Fur einen linearen Endomorphismus f : V → V eines endlichdimensionalenK-Vektorraumes
V ist das charakteristische Polynom von f
χf (t) = det(tIdV − f) ∈ K[t].
Die algebraische Vielfachheit von λ ist µa(A, λ) := µ(χA, λ).
Bemerkung. Wenn dimK(V ) = n (bzw. A ∈ Matn×n(K)), ist χf (t) (bzw. χA(t)) ein nor-
miertes2 Polynom vom Grad n und die Nullstellen des charakteristischen Polynoms sind dieEigenwerte von f (bzw. A) [LAI, Satz 5.13].
Lemma.[LAI] Die algebraische Vielfachheit ist großer oder gleich die geometrische Vielfach-heit fur jeden Eigenvektor eines linearen Endomorphismus von einem endlichdimensionalenK-Vektorraum.
Definition.
(1) Ein linearer Endomorphismus f : V → V eines endlichdimensionalen K-VektorraumesV heißt diagonalisierbar, wenn es eine geordnete Basis B von V gibt, so dass MBB (f)eine Diagonalmatrix ist.
(2) Eine Matrix A ∈ Matn×n(K) heißt diagonalisierbar, wenn der Endomorphismus FA ∈EndK(Kn) mit FA(x) = Ax diagonaliserbar ist.
(3) Zwei Matrizen A,B ∈ Matn×n(K) heißen ahnlich (schreibweise: A ∼ B), wenn esS ∈ GLn(K) gibt mit A = SBS−1.
Ubung.
(1) Ahnlichkeit auf Matn×n(K) ist eine Aquivalenzrelation.(2) Eine Matrix A ∈ Matn×n(K) ist genau dann diagonalisierbar, wenn A ahnlich zu einer
Diagonalmatrix ist.(3) Wenn f : V → V ein linearer Endomorphismus eines K-Vektorraumes der Dimension
n ist, sind alle zugehorigen Matrizen von f ahnlich (d.h. fur geordnete Basen A und Bvon V gilt MAA (f) ∼MBB (f)).
(4) Fur zwei ahlinche Matrizen A ∼ B gilt χA(f) = χB(f).
Bermerkung. Sei V ein endlichdimensionaler K-Vektorraum und f ∈ EndK(V ).
(1) Nach [LAI, Satz 5.11] ist f genau dann diagonalisierbar, wenn V eine Basis aus Eigen-vektoren von f besitzt.
(2) Nach [LAI, Satz 5.12] ist f diagonalisierbar, wenn f genau n = dim(V ) paarweiseverschiedene Eigenwerte λ1, . . . , λn hat.
(3) Nach [LAI, Satz 5,14] ist aquivalent:(a) f ist diagonalisierbar.(b) Das charakteristische Polynom χf (t) zerfallt in Linearfaktoren und die geometrische
und algebraische Vielfachheiten aller Eigenwerte λ ∈ K ubereinstimmen:
µg(f, λ) = µa(f, λ).
(c) Wenn λ1, · · · , λk die paarweise verschiedene Eigenwerte von f sind, dann gilt
V =
k⊕i=1
Eig(f, λi) := Eig(f, λ1)⊕ · · · ⊕ Eig(f, λk).
2P (t) = antn + · · · a0 ist normiert, falls an = 1
LINEARE ALGEBRA II: LEHRPLAN 3
1.2. Nullstellen von Polynomen. Fur einen Korper K kann man fragen, wann zerfallt jedesPolynom P (t) ∈ K[t] in Linearfaktoren? Oder wann hat jedes nicht-konstante Polynom mitKoeffizienten in K eine Nullstelle?
Definition. Ein Korper K heißt algebraisch abgeschlossen, wenn jedes nicht-konstante Polynommit Koeffizienten in K eine Nullstelle in K hat.
Beispiel. Fur K = R hat das Polynom P (t) = t2 + 1 keine Nullstelle in R und deshalb ist Rnicht algebraisch abgeschlossen.
Lemma. Wenn K algebraisch abgeschlossen ist, zerfallt jedes Polynom P (t) ∈ K[t] in Linear-faktoren.
Satz 1.1 (Fundamentalsatz der Algebra). Die komplexen Zahlen sind algebraisch abgeschlossen,d.h. jedes nicht-konstante Polynom mit C-Koeffizienten besitzt mindestens eine Nullstelle in C.3
Bemerkung. Es gibt einen Korper-Homomorphismus R→ C mit x 7→ x+ i0 . Deshalb gibt eseinen Ring-Homomorphismus R[t]→ C[t], der auch injektiv ist. Da C algebraisch abgeschlossenist, hat jedes nicht-konstante Polynom P (t) ∈ R[t] mindestens eine Nullstelle in C. Ferner giltfur P (t) ∈ R[t] und eine Nullstelle α ∈ C von P (t)
(1) Die konjugiert komplexe Zahl α ist auch eine Nullstelle von P . Ferner haben α und αdie gleiche Vielfachheit: µ(P, α) = µ(P, α).
(2) Q(t) := (t− α)(t− α) ∈ R[t] und es gibt eine Zerlegung P (t) = Q(t)R(t) in R[t].(3) Wenn Grad(P ) ungerade ist, hat P mindestens eine Nullstelle in R.
Lemma. Fur P (t) ∈ K[t] gibt es einen injektiven Korper-Homomorphismus K → L (was wireine Korpererweiterung nennen), so dass P (t) in Linearfaktoren aus L[t] zerfallt.4
Beispiel. Fur K = R oder K = C konner wir L = C wahlen, weil C algebraisch abgeschlossenist. Dann zerfallt jedes Polynom P (t) ∈ K[t] in Linearfaktoren in L[t].
1.3. Trigonalisierung. Sei V ein endlichdimensionaler K-Vektorraum und f ∈ EndK(V ). Waskonnen wir uber f und die zugehorige MatrizenMAA (f) folgern, wenn nur χf (t) in Linearfaktorenzerfallt (aber die geometrische und algebraische Vielfachheiten der Eigenwerte nicht uberein-stimmen)?
Definition. Sei f : V → V ein linearer Endomorphismus.
(1) Ein Untervektorraum U ⊂ V heißt f -invariant, falls f(U) ⊂ U .(2) Eine Fahne in einem n-dimensionalen K-Vektorraum V ist eine Kette von Untervek-
torraume
{0V } = V0 ( V1 ( · · · ( Vn−1 ( Vn = V
mit dimK(Vr) = r. Diese Fahne heißt f -invariant, wenn jeder Unterraum Vr in der Fahnef -invariant ist.
Beispiel.
(1) Fur alle f ∈ EndK(V ) sind {0V } und V offensichtlich f -invariant.(2) Die Eigenraume Eig(f, λ) sind f -invariant.(3) Fur V = Kn gibt es die Standard-Fahne mit Vr := Span(e1, . . . , er).(4) Jede Fahne von V ist IdV -invariant.
3Fur den Beweis, siehe den faszinierenden Kurs ‘Funktionentheorie’.4Diese Lemma wird in der Algebra und Zahlentheorie bewiesen.
4 VICTORIA HOSKINS
(5) Sei A ∈ Matn×n(K) eine obere Dreiecksmatrix, d.h. aij = 0 fur i > j. Fur die zugehorigelineare Abbildung FA : Kn → Kn ist die Standard-Fahne FA-invariant.
Lemma. Fur einen linearen Endomorphismus f : V → V eines n-dimensionalenK-Vektorraumes[18.04.18]ist aquivalent:
(1) Es gibt eine f -invariante Fahne von V ,(2) Es gibt eine geordnete Basis A von V , so dass MAA (f) eine obere Dreiecksmatrix ist.
Definition.
(1) Ein linearer Endomorphismus f : V → V eines n-dimensionalen K-Vektorraumes heißttrigonalisierbar, wenn es eine f -invariante Fahne von V gibt.
(2) Eine Matrix A ∈ Matn×n(K) heißt trigonalisierbar, wenn A ahnlich zu einer oberenDreiecksmatrix ist.
Bemerkung.
(1) A ∈ Matn×n(K) ist genau dann trigonalisierbar, wenn es FA : Kn → Kn ist.(2) f ∈ EndK(V ) ist genau dann triangonalisierbar, wenn es MAA (f) (fur eine geordnete
Basis A von V ) ist.(3) Jeder diagonalisierbare Endomorphismus ist auch trigonalisierbar, aber die Umkehrung
ist falsch: zum Beispiel ist
A =
(1 10 1
)trigonalisierbar aber nicht diagonalisierbar, weil 1 = µg(A, 1) < 2 = µa(A, 1) [LAII, Satz5.14].
Satz 1.2. Fur einen linearen Endomorphismus f : V → V eines n-dimensionalen K-Vektorraumesist aquivalent:
(1) f ist trigonalisierbar,(2) χf (t) zerfallt in Linearfaktoren.
Korollar.
(1) Jede komplexe Matrix A ∈ Matn×n(C) ist trigonalisierbar.(2) Jeder Endomorphismus eines endlichdimensionalen C-Vektorraumes ist trigonalisierbar.
Beispiel. Sind die folgende reelle Matrizen diagonalisierbar (bzw. trigonalisierbar)?
A =
(2 −30 1
)B =
(3 −20 3
) (1 1−1 1
)Wir berechnen die charakteristische Polynome und Vielfachheiten jeder Matrix:
• A ist trigonaliserbar, weil χA(t) = (t− 2)(t− 1) in Linearfaktoren zerfallt. Ferner ist Adiagonalisierbar, weil
Eig(A, 1) = Span
(31
)Eig(A, 2) =
(10
),
so dass µg(A, λ) = 1 = µa(A, λ) fur λ = 1, 2.• B ist trigonalisierbar, weil χB(t) = (t− 3)2, aber B ist nicht diagonalisierbar, weil
µg(B, 3) = dimK Eig(B, 3) = dimK Span
(10
)= 1 < 2 = µa(B, 3).
• C ist nicht trigonalisierbar (und deshalb auch nicht diagonalisierbar), weil
χC(t) = (t− 1)(t− 1) + 1 = t2 − 2t+ 2
keine Nullstellen in R hat (die Diskriminante von χC ist negativ: (−2)2−4×2 = −4 < 0).
LINEARE ALGEBRA II: LEHRPLAN 5
1.4. Der Satz von Cayley-Hamilton. Fur einen K-Vektorraum V ist EndK(V ) ein K-Vektorraum und ein Ring: man kann Polynome miteinander punktweise addieren und die Kom-position von Abbildung liefert eine Multiplikation auf EndK(V ). Deshalb konnen wir die Po-tenzen eine Abbildung f ∈ EndK(V ) betrachten: f0 := IdV , f1 := f , f2 := f ◦ f , u.s.w. Fur einPolynom P (t) = ant
n + an−1tn−1 + · · ·+ a0 ∈ K[t] definieren wir
P (f) := anfn + an−1f
n−1 + · · ·+ a0IdV ∈ EndK(V )
und wir schreiben P (f) = 0, wenn dieser Endomorphismus die Nullabbildung ist.
Lemma. Sei V ein n-dimensionaler K-Vektorraum und f ∈ EndK(V ). Dann gibt es ein nicht- [23.04.18]Null Polynom P (t) ∈ K[t] mit P (f) = 0.
Definition. Sei V ein endlichdimensionaler K-Vektorraum und f ∈ EndK(V ). Ein normiertesnicht-Null Polynom mf (t) ∈ K[t] heißt Minimalpolynom von f wenn
i) mf (f) = 0.ii) Fur alle andere nicht-Null Polynome P (t) ∈ K[t] mit P (f) = 0 gilt Grad(mf ) ≤
Grad(P ).
Ebenso definieren wir das Minimialpolynom von A ∈ Matn×n(K), so dass mA(t) = mFA(t) fur
FA : Kn → Kn, x 7→ Ax.
Bemerkung.
(1) Sei V ein endlichdimensionaler K-Vektorraum und f ∈ EndK(V ) mit dem Minimal-polynom mf (t) ∈ K[t]. Fur alle P (t) ∈ K[t] mit P (f) = 0 gilt mf (t)|P (t): nach derDivision mit Rest fur Polynome gilt
P (t) = Q(t)mf (t) + r(t) und Grad(r) < Grad(mf )
und falls r 6= 0, gilt r(f) = 0, was ein Widerspruch zu der Minimalitat von mf gibt.(2) Das Minimalpolynom existiert nach dem Lemma oben und es ist eindeutig (weil es
normiert ist).(3) Zwei ahnlich Matrizen A ∼ B haben das gleiche Minimalpolnom: mA(t) = mB(t).
Satz 1.3 (Satz von Cayley-Hamilton). Sei V ein endlichdimensionaler K-Vektorraum und f ∈EndK(V ) mit dem charakteristischen Polynom χf (t) ∈ K[t]. Dann gilt χf (f) = 0. Insbesonderegilt mf (t)|χf (t).
Korollar. Sei V ein n-dimensionaler K-Vektorraum und f ∈ EndK(V ). Dann gilt χf |mnf .
Beispiel. Die Matrix
A =
(1 10 1
)hat das charakteristische Polynom χA(t) = (t − 1)2 = t2 − 2t + 1. Das Minimalpolynom vonA ist entweder t − 1 oder (t − 1)2, da mA(t)|χA(t) nach dem Satz von Cayley–Hamilton. DaA − I2 6= 0, ist t − 1 nicht das Minimalpolynom von A. Deshalb ist mA(t) = χA(t) = (t − 2)2.Nach dem Satz von Cayley–Hamilton gilt
A2 − 2A+ I2 = 0.
Es folgt, dass A(A− 2I2) = −I2, so dass A(2I2 −A) = I2. Insbesonder ist A−1 = 2I2 −A.
Bemerkung. Mit dem Satz von Cayley-Hamilton konnen wir fur jede invertierbare Matrix A ∈Matn×n(K) die inverse Matrix A−1 finden. Wir erinnern uns, dass A genau dann invertierbarist, wenn det(A) 6= 0. Fur das charakteristiche Polynom
gilt χA(0) = det(−A) = (−1)n det(A) = c0. Insbesondere c0 6= 0 ⇐⇒ det(A) 6= 0. Nach demSatz von Cayley-Hamilton gilt
An + cn−1An−1 + · · ·+ c1A+ c0In = 0.
Diese Gleichung ist aquivalent zu
A(An−1 + cn−1An−2 + · · · c1In) = −c0In
und wenn c0 6= 0 ist die inverse Matrix A−1 = −1c0
(An−1 + cn−1An−2 + · · · c1In).
1.5. Nilpotente Endomorphismen und Hauptraume. Hauptraume sind verallgemeinerteEigenraume5 und wir werden Hauptraume benutzen, um die Jordan-Zerlegung zu beschreiben.
Definition.[25.04.18]
(1) Ein linearer Endomorphismus f : V → V eines K-Vektorraumes heißt nilpotent, falls esgibt r ∈ N mit f r = 0 (die Nullabbildung).
(2) Eine Matrix A ∈ Matn×n(K) heißt nilpotent, falls es gibt r ∈ N mit Ar = 0 (die Null-matrix).
Lemma.Sei f : V → V ein linearer Endomorphismus eines n-dimensionalen K-Vektorraumes.Dann ist aquivalent:
(1) f ist nilpotent,(2) Es gibt 1 ≤ r ≤ n mit f r = 0,(3) χf (t) = tn,(4) Es gibt eine geordnete Basis A von V mit
MAA (f) =
0 ∗ ∗...
. . . ∗0 · · · 0
.
Bemerkung. Sei V ein endlichdimensionaler K-Vektorraum. Fur h ∈ EndK(V ) und die Po-tenzen von h gilt
{0V } = ker(h0) ⊂ ker(h) ⊂ ker(h2) ⊂ · · ·und
V = Bild(h0) ⊃ Bild(h) ⊃ Bild(h2) ⊃ · · ·und dimK(V ) = dimK(ker(hr)) + dimK(Bild(hr)) nach der Dimensionsformel fur hr, aber imallgemeinen ist diese Summe nicht direkt: ker(hr) ∩Bild(hr) 6= {0V }. Da V endlichdimensionalist, konnen beide Ketten nicht endlos aufsteigen (bzw. absteigen).
Lemma (von Fitting). Sei V ein endlichdimensionaler K-Vektorraum. Fur h ∈ EndK(V ) sei
d = min{r ∈ N : ker(hr) = ker(hr+1)}.
Dann gilt
(i) d = min{r ∈ N : Bild(hr) = Bild(hr+1)},(ii) U := ker(hd) und W := Bild(hd) sind h-invariante Untervektorraume von V ,(iii) h|W : W →W ist ein Isomorphismus,(iv) h|U : U → U ist nilpotent mit dem Minimalpolynom mh|U (t) = td,
(v) ker(hd) = ker(hd+i) und Bild(hd) = Bild(hd+i) fur alle i ∈ N,(vi) V = U ⊕W ,
(vii) d ≤ dimK(U) = µa(h, 0).
5Ein Hauptaum eines Eigenwertes λ (eines Endomorphismuses) ist großer als der λ-Eigenraum und die Di-mension eines Hauptraumes ist die algebraische Vielfachheit von λ. Wir erinnern uns, dass die Dimension einesEigenraumes (d.h. die geometrische Vielfachheit) ist kleiner oder gleich die algebraische Vielfachheit.
LINEARE ALGEBRA II: LEHRPLAN 7
(viii) Es gibt eine geordnete Basis A von V , so dass
MAA (h) =
(N 00 B
)mit Nd = 0 (nilpotent) und B invertierbar.
Bemerkung. Sei f : V → V ein linearer Endomorphismus eines endlichdimensionalen K-Vektorraumes. Wir erinnern uns, dass f genau dann diagonalisierbar ist, wenn V die direkteSumme der Eigenraume von f ist. In diesem fall zerfallt das charakteristische Polynom von fin Linearfaktoren und es gilt
µg(f, λ) := dimK Eig(f, λ) = µa(f, λ)
fur alle Eigenwerte λ von f . Wenn f nicht diagonalisierbar ist, dann ist die Summe aller Ei-genraume von f kleiner als V . In diesem Fall konnen wir das obige Lemma verwenden, umgroßere Raume (sogenannte Hauptraume) zu finden. Wir erinnern uns daran, dass jeder Eigen-raum der Kern eines Endomorphismus ist:
Eig(f, λ) = ker(f − λIdV ).
Nach dem Lemma von Fitting fur h := f − λIdV gibt es eine eindeutig bestimmte Zahl d mit
und daher folgt µa(f, λ) = µa(h, 0). Insbesondere gilt U = ker((f − λIdV )µa(f,λ)), da µa(f, λ) =µa(h, 0) ≥ d. Nach dem Lemma von Fitting haben wir
V = U ⊕Wwobei W := Bild((f − λIdV )d) und Eig(f, λ) ⊂ U . Insbesondere ist h|U : U → U nilpotent undh|W : W →W ist ein Isomorphismus.
Definition. Sei f : V → V ein linearer Endomorphismus eines endlichdimensionalen K- [30.04.18]Vektorraumes. Fur einen Eigenwert λ von f definieren wir den Hauptraum von f zum Eigenwertλ durch
Hau(f, λ) := ker((f − λIdV )µa(f,λ)).
Satz 1.4 (Jordan-Zerlegung). Sei f : V → V ein linearer Endomorphismus eines endlichdi-mensionalen K-Vektorraumes, so dass
χf (t) =k∏i=1
(t− λi)ri
in Linearfaktoren in K[t] zerfallt, wobei λ1, . . . , λk die paarweise verschiedene Eigenwerte sindund ri = µa(f, λi). Dann gelten:
(1) Jeder Hauptraum Hau(f, λi) ist f -invariant mit Dimension ri,(2) V ist die direkte Summe der Hauptraume von f :
V =k⊕i=1
Hau(f, λi),
(3) Es gibt eine Jordan-Zerlegung f = fN + fD mit fN nilpotent, fD diagonalisierbar undfN ◦ fD = fD ◦ fN .
Korollar. Jeder lineare Endomorphismus f eines endlichdimensionalen C-Vektorraumes V hateine Jordan-Zerlegung f = fD+fN (und die entsprechende Aussage fur komplexe Matrizen gilt).
Beispiel. Sei
A =
(2 −33 −4
)∈ Mat2×2(K).
8 VICTORIA HOSKINS
Dann χA(t) = (t+ 1)2, also λ := −1 ist ein Eigenwert von A mit µa(A,−1) = 2. Da das charak-teristische Polynom von A in Linearfaktoren zerfallt, hat A (und die entsprechende AbbildungFA : K2 → K2) eine Jordan-Zerlegung. Es gilt
Eig(A,−1) = Span
(11
)( Hau(A,−1) := ker((−I2 −A)2) = ker
(0 00 0
)= K2.
Deshalb haben wir die Jordan-Zerlegung K2 = Hau(A,−1). Ferner gibt es eine nilpotenteMatrix N und eine diagonale Matrix D mit ND = DN , so dass A ∼ D +N (nach Teil (3) desSatzes 1.4). Die Matrix
B := A− (−1I2) =
(3 −33 −3
)ist nilpotent (B ist analog zu der Abbildung gi = f − λiIdV in dem Beweis des Satzes 1.4) unddeshalb gibt es eine geordnete Basis
A =
((11
),
(1−1
))mit MAA (FB) =
(0 60 0
)=: N
Dann gilt
A ∼MAA (FA) = MAA (−1IdK2) +MAA (B) = D +N
mit D = −I2.
1.6. Jordan-Normalform. Fur d ∈ N definieren wir den (nilpotenten) Jordanblock
Jd :=
0 1 0
. . .. . .. . . 1
0 0
∈ Matd×d(K)
und fur λ ∈ K definieren wir den Jordan-Block Jd(λ) = λId + Jd ∈ Matd×d(K).
Definition. Wir sagen eine Matrix A in Jordan-Normalform (JNF) ist, falls A eine block-diagonale Form hat, die aus Jordan-Blocke entsteht, d.h.
A =
Jd1(µ1) 0. . .
0 Jds(µs)
,
wobei µi = µj und di = dj moglich ist. Wir sagen, dass A eine Jordan-Normalform hat,wenn A ahnlich zu einer Matrix in JNF ist. Fur einen Endomorphismus f ∈ EndK(V ) einesendlichdimensionalen K-Vektorraumes V sagen wir, dass f eine Jordan-Normalform hat, wennfur eine geordnete Basis A von V die Matrix MAA (f) eine JNF hat.
[02.05.18]Satz 1.5 (Jordan-Normalform fur nilpotente Endomorphismen). Sei g : V → V ein nilpotenterEndomorphismus eines n-dimensionalen K-Vektorraumes V und d := min{r ∈ N : gr = 0}.Dann gibt es eindeutig bestimmte Zahlen s1, . . . , sd ∈ N mit
d∑k=1
ksk = n
LINEARE ALGEBRA II: LEHRPLAN 9
und eine geordnete Basis A von V , so dass MAA (g) in JNF ist:
MAA (g) =
Jd. . .
Jd. . .
. . .
J1. . .
J1
mit sk Kopien von Jk.
Bemerkung. Nach dem Beweis des Satzes 1.5 folgt, dass sd > 0.
Beispiel. Fur die folgende nilpotente Matrix
A =
0 1 10 0 10 0 0
mit A2 =
0 0 10 0 00 0 0
A3 = 0
finden wir eine JNF von A wie folgt. Sei d := min{r ∈ N : Ar = 0} = 3 und fur 0 ≤ i ≤ 3 seiUi := ker(Ai) = {x ∈ K3 : Aix = 0}, dann
Wir finden eine Zerlegung K3 = U2 ⊕W3 mit W3 = Span(e3). Es gilt A(W3) = A(Span(e3)) =Span(Ae3) = Span(e1 + e2) ⊂ U2. Wir mussen eine Zerlegung K3 = U1 ⊕W2 ⊕W3 finden mitA(W3) ⊂W2. Aus dim(U1) = dim(W3) = 1 folgt dim(W2) = 1, also W2 = Span(e1 + e2). Dannist W1 = U1 = Span(e1) und
Es gilt s3 = dim(W3) = 1 und s2 = dim(W2)−dim(W3) = 0 und s1 = dim(W1)−dim(W2) = 0.
Wir wahlen eine Basis von K3 wie folgt: sei v(3)1 := e3 eine Basis von W3 und wir erweitern
A(v(3)1 ) = Ae3 = e1 + e2 zu einer Basis von W2 (da s2 = 0 haben wir die triviale Erweiterung
mit 0 zusatzlichen Vektoren) und wir erweitern A(e1 + e2) = A2(e3) = e1 zu einer Basis von W1
(wegen s1 = 0 ist diese Erweiterung trivial).
Basis von W3 : v(3)1 = e3
Basis von W2 : A(v(3)1 ) = e1 + e2
Basis von W3 : A2(v(3)1 ) = e1
Fur A = (A2(v(3)1 ), A(v
(3)1 ), v
(3)1 ) = (e1, e1 + e2, e3) ist
MAA (FA) =
0 1 00 0 10 0 0
in Jordan-Normalform. Fur die standard Basis B = (e1, e2, e3) ist MBB (FA) = A und nach demBasiswechselsformel gilt
MAA (FA) = SAS−1 mit S := MBA(IdK3) =
1 −1 00 1 00 0 1
.
10 VICTORIA HOSKINS
[07.05.18]Satz 1.6. Sei f : V → V ein linearer Endomorphismus eines endlichdimensionalen K-VektorraumesV , so dass das charakteristische Polynom von f
χf (t) =k∏i=1
(t− λi)ri
in Linearfaktoren zerfallt mit λ1, . . . , λk die paarweise verschiedenen Eigenwerte von f . Danngibt es eine Basis A von V , so dass
MAA (f) =
λ1Ir1 +N1 0 · · · 0
0 λ2Ir2 +N2. . .
......
. . . 00 . . . 0 λkIrk +Nk
mit Ni ∈ Matri×ri(K) nilpotente Matrizen in Jordan-Normalform. Insbesondere ist MAA (f) inJNF, also hat f eine JNF.
Lemma.
(1) Zwei Jordan-Blocke Jr(λ) und Js(µ) sind genau dann ahnlich, wenn r = s und λ = µ.(2) Zwei Matrizen in JNF A und B sind genau dann ahnlich, wenn sie die gleiche Anzahl
von jedem Jordan-Block Jr(λ) haben.
[09.05.18]Satz 1.7. Die Jordan-Normalform eines Endomorphismus f eines endlichdimensionalen K-Vektorraumes mit einem charakteristischen Polynom, das in Linearfaktoren zerfallt, ist bis aufdie Reihenfolge der Jordan-Blocke eindeutig durch f bestimmt, d.h. unabhangig von der Wahlder Basis.
Korollar. Jede komplexe Matrix hat eine JNF, d.h. in der Ahnlichkeitsklasse der komplexenMatrix gibt es eine Matrix in JNF. Ferner klassifiziert die Jordan-Normalform (bis auf dieReihenfolge der Jordan-Blocke) alle komplexen Matrizen bis auf Ahnlichkeit, d.h. in jeder Ahn-lichkeitsklasse einer komplexen Matrix gibt es genau eine Matrix in JNF (bis auf die Reihenfolgeder Jordan-Blocke).
Beispiel. Sei A eine Matrix mit dem charakteristischen Polynom χA(t) = (t − 5)(t − 3)2. Mitnur diesen Informationen konnen wir die mogliche JNF wie folgt bestimmen. Die Eigenwertesind λ1 = 5 und λ2 = 3 und es gilt fur jeder Eigenwert λi von A:
dimK(Hau(A, λi)) = µa(A, λi) ≥ µg(A, λi) ≥ 1.
Wegen µa(A, 5) = 1, folgt µg(A, 5) = 1 und wegen µa(A, 3) = 2, folgt µg(A, 3) = 1 oderµg(A, 3) = 2. Um die JNF zu berechnen, betrachen wir die nilpotente Abbildungen
gi := (FA − λiId)|Hau(A,λi) : Hau(A, λi)→ Hau(A, λi)
und wenn di := min{r ∈ N : gri ≡ 0}, gibt es Zahlen s(i)1 , . . . , s
(i)di∈ N, die eindeutig durch gi
definiert wird, mit
(1)
di∑j=1
js(i)j = µa(A, λi)
(Satz 1.5). Ferner gilt
(2) 0 < di ≤ dimK(Hau(A, λi)) = µa(A, λi).
Dann hat die JNF von A den Jordan-Block Jj(λi) mit der Vielfalt s(i)j .
Fur λ1 = 5 folgt es, dass d1 = 1 nach (2) und s(1)1 = 1 nach (1). Dann die JNF von g1 hat
1 = s(1)1 Jordan-Block J1 und die JNF von A hat 1 = s
(1)1 Jordan-Block J1(5).
LINEARE ALGEBRA II: LEHRPLAN 11
Fur λ2 = 3 folgt es, dass d2 = 1 oder d2 = 2 nach (2). Wenn d2 = 1, dann ist s(2)1 = 2 nach
(1) und g2 hat 2 = s(2)1 Jordan-Blocke J1 und A hat 2 = s
(2)1 Jordan-Blocke J1(3). Wenn d2 = 2
gibt es Zahlen s(2)1 , s
(2)2 ∈ N mit 1s
(2)1 + 2s
(2)2 = µa(A, λ2) = 2 und wegen s
(i)di
> 0 (siehe die
Bemerkung nach dem Satz 1.5) haben wir s(2)1 = 0 und s
(2)2 = 1. In diesem Fall hat g2 einen (da
s(2)2 = 1) Jordan-Block J2 und A hat 1 = s
(2)2 Jordan-Block J2(3).
Abschließend gibt es zwei Moglichkeiten:
a) Wenn (d1 = 1, s(1)1 = 1) und (d2 = 1, s
(2)1 = 2), ist die JNF von A 5 0 00 3 00 0 3
und das Minimalpolynom von A ist mA(t) = (t− 5)(t− 3).
b) Wenn (d1 = 1, s(1)1 = 1) und (d2 = 2, s
(2)1 = 0, s
(2)2 = 2), ist die JNF von A 5 0 0
0 3 10 0 3
und das Minimalpolynom von A ist mA(t) = (t− 5)(t− 3)2.
Definition. Eine Funktion j : Matn×n(K) → X (fur eine Menge X) heißt Invariant fur Ma- [14.05.18]trizen (bis auf Ahnlichkeit), falls j konstant auf jeder Ahnlichkeitsklasse ist, so dass, es eineinduziierte Abbildung gibt
j : Matn×n(K)/∼ → X.
Beispiel. Die folgenden Funktionen sind Invarianten fur Matrizen (bis auf Ahnlichkeit):
(1) das charakteristische Polynom χ : Matn×n(K)→ K[t],(2) das Minimalpolynom m : Matn×n(K)→ K[t],(3) die Determinante det : Matn×n(K)→ K,(4) die Spurabbildung Spur : Matn×n(K)→ K,(5) der Rang einer Matrix Rang : Matn×n(K)→ N,(6) die Menge der Eigenwerte Eig : Matn×n(K)→ {endliche Teilmenge von K},(7) die algebraische (bzw. geometrische) Vielfachheiten von λ ∈ K:
(8) (falls K algebraisch abgeschlossen ist, so dass jede Matrix eine JNF hat) die Anzahlsk(λ) : Matn×n(K)→ N von jedem Jordan-Block Jk(λ) in einer JNF einer Matrix.
2. Bilinearformen und quadratische Formen
2.1. Bilinearformen. Seien V , W und U Vektorraume uber einen Korper K. Zur Erinnerung:eine Abbildung f : V →W heißt K-linear (oder linear), wenn fur alle v, v′ ∈ V und λ ∈ K gilt
f(v + v′) = f(v) + f(v′) und f(λ · v) = λ · f(v),
oder, aquivalent, fur alle v, v′ ∈ V und µ, λ ∈ K gilt
f(µv + λv′) = µf(v) + λf(v′).
Definition.
(1) Eine Abbildung f : V ×W → U heißt bilinear6, wenn fur alle Vektoren v, v′ ∈ V undw,w′ ∈W und Elemente µ, λ ∈ K gilt
6Man kann diese Definition erweitern: wenn V1, · · · , Vn und W K-Vektorraume sind, heißt eine Abbildungf : V1 × V2 × · · · × Vn → W multilinear, wenn f in jeder Komponente linear ist, d.h. fur alle 1 ≤ i ≤ n und furalle vj ∈ Vj fur j 6= i ist die Abbildung Vi →W , die durch vi 7→ f(v1, · · · , vn) definiert wird, linear.
12 VICTORIA HOSKINS
(2) Eine bilineare Paarung zwischen V und W ist eine bilineare Abbildung f : V ×W → K.(3) Eine Bilinearform (BLF) auf V ist eine bilinear Abbildung b : V × V → K. Wenn
dimK V = n ∈ N und A = (v1, · · · , vn) eine geordnete Basis von V ist, dann nennenwir die Matrix B := (b(vi, vj))1≤i,j≤n ∈ Matn×n(K) die Matrix zu der Bilinearform bbezuglich der Basis A und wir schreiben B = b(A,A). Die Menge der Bilinearformenauf V wird mit BilK(V ) bezeichnet.
Beispiel.
(1) Die Abbildung b : K2 ×K2 → K, die durch
b
((x1x2
),
(y1y2
)):= x1y2 − x2y1
definiert wird, ist bilinear. Fur die geordnete Basis (e1, e2) von K2 ist die zugehorigeMatrix
B =
(0 1−1 0
).
(2) Die kanonische Bilinearform auf Kn ist die Abbildung b : Kn ×Kn → K
b(x, y) =n∑i=1
xiyi
und die zugehorige Matrix fur die geordnete Standardbasis A = (e1, . . . , en) von Kn istdie Einheitsmatrix: In = b(A,A).
(3) Fur jeder K-Vektorraum V mit dem Dualraum V ∗ := HomK(V,K) ist die Abbildungb : V ∗ × V → K
b(ϕ, v) := ϕ(v)
eine bilineare Paarung zwischen V ∗ und V .
Bemerkung. Sei V ein K-Vektorraum der endlichen Dimension n und A = (v1, · · · , vn) einegeordnete Basis von V . Dann gibt es genau einen linearen Isomorphismus ΦA : V → Kn mitΦA(vi) = ei fur 1 ≤ i ≤ n [LAI, Satz 4.4].
(1) Wenn b : V × V → K eine Bilinearform ist und B die Matrix zu b bzgl. der Basis A ist,dann gilt fur alle v, v′ ∈ V
b(v, v′) = ΦA(v)t B ΦA(v′).
(2) Umgekehrt definiert B ∈ Matn×n(K) eine Bilinearform bAB auf V durch
bAB(v, v′) := ΦA(v)t B ΦA(v′)
und die zugehorige Matrix dieser Bilinearform bAB bzgl. der Basis A ist wieder B.
Bemerkung. Man kann Bilinearformen auf V punktweise addieren: fur Bilinearformen b1, b2 :V × V → K definieren wir b1 + b2 : V × V → K durch
(b1 + b2)(v, v′) := b1(v, v
′) + b2(v, v′),
und b1 + b2 ist auch bilinear. Man kann auch eine Bilinearform b : V ×V → K mit einem Skalarλ ∈ K multiplizieren, um eine neue Bilinearform λ · b : V × V → K zu definieren
(λ · b)(v, v′) := λ · b(v, v′).
Deshalb ist die Menge der Bilinearformen auf V ein Untervektorraum des K-VektorraumesAbb(V × V,K) der Abbildungen von V × V nach K.
LINEARE ALGEBRA II: LEHRPLAN 13
Satz 2.1. Sei V ein K-Vektorraum der endlichen Dimension n und A = (v1, · · · , vn) einegeordnete Basis von V . Die Abbildung
ΨA : BilK(V )→ Matn×n(K),
die zu jeder Bilinearform b die zugehorige Matrix B = b(A,A) bzgl. der Basis A zuordnet, istein linearer Isomorphismus.
[16.05.18]Satz 2.2 (Basiswechsel). Seien A,B geordnete Basen eines endlichdimensionalen K-VektorraumesV . Dann gilt fur eine Bilinearform b auf V
b(B,B) = MBA(IdV )t b(A,A)MBA(IdV )
wobei MBA(IdV ) die Basiswechselmatrix fur die Identitat auf V ist.
Definition. Zwei Matrizen A,B ∈ Matn×n(K) heißen kongruent, wenn es eine Matrix S ∈GLn(K) gibt mit A = StBS. Schreibweise: A ≈ B.
Ubung. Die Relation der Kongruenz auf Matn×n(K) ist eine Aquivalenzrelation. Fur eineBilinearform b auf einem K-Vektorraum der Dimension n sind alle die Matrizen b(A,A) furverschiedene geordnete Basen A von V kongruent (nach der Basiswechsel-Formel).
Bemerkung. Wenn b : V × V → K eine Bilinearform auf V ist, konnen wir eine Abbildungfb : V → V ∗ durch
fb(v) := b(−, v) : V → K
definieren. Wegen der Linearitat von b im ersten Argument ist fb wohldefiniert. Wegen derLinearitat von b im zweiten Argument ist fb linear.
Wenn dimK(V ) = n und A = (v1, . . . , vn) eine geordnete Basis von V ist, konnen wir diezugehorige Matrix C := MAA∗(fb) ∈ Matn×n(K) betrachten (wobei A∗ die duale Basis ist). Esgilt
fb(vj) =
n∑i=1
cijv∗i
und deshalb folgt es, dass
b(vk, vj) =: fb(vj)(vk) =
n∑i=1
cijv∗i (vk) = ckj
d.h. MAA∗(fb) ist die Matrix b(A,A) zu b bzgl. A.
Satz 2.3. Sei V ein endlichdimensionalen K-Vektorraum. Dann ist die Abbildung
BilK(V ) → HomK(V, V ∗)b 7→ fb : V → V ∗
ein linearer Isomorphismus.
2.2. Symmetrische Formen. Zur Erinnerung: eine Matrix A ∈ Matn×n(K) heißt symme-
trisch, wenn At = A. Sei MatSymn×n(K) die Teilmenge von Matn×n(K), die symmetrische Matrizenenthalt.
Definition. Eine Bilinearform b auf einem K-Vektorraum V heißt
(1) symmetrisch, wenn b(v, v′) = b(v′, v) fur alle v, v′ ∈ V . Die Menge aller symmetrischenBilinearformen auf V bildet ein Untervektorraum Bilsym(V ) von Bil(V ).
(2) antisymmetrisch, wenn b(v, v′) = −b(v′, v) fur alle v, v′ ∈ V .
Eine Matrix A ∈ Matn×n(K) heißt antisymmetrisch, wenn At = −A.
14 VICTORIA HOSKINS
Bemerkung.
(1) Die Menge Bilsym(V ) (bzw. Bila-sym(V )) aller symmetrischen (bzw. antisymmetrischen)Bilinearformen ist ein Untervektorraum von Bil(V ). Ebenso ist die Menge Matsymn×n(K)(bzw. Mata-symn×n (K)) aller symmetrischen (bzw. antisymmetrischen) ein Untervektorraumvon Matn×n(K).
(2) Wenn 2 := 1 + 1 = 0 in K stimmen die Begriffe symmetrische und antisymmetrischuberein.
(3) Wenn 2 6= 0 in K (so dass 2 ∈ K invertierbar ist), dann gilt
Matn×n(K) = Matsymn×n(K)⊕Mata-symn×n (K),
weil eine n× n-Matrix A die Form A = 12(A+At) + 1
2(A−At) hat.
Lemma. Sei b eine Bilinearform auf einem K-Vektorraum V der Dimension n. Die zugehorigeMatrix B = b(A,A) bzgl. einer geordneten Basis A von V ist genau dann symmetrisch (bzw.antisymmetrisch), wenn b symmetrisch (bzw. antisymmetrisch) ist. Ferner gibt es einen linearenIsomorphismus
Bilsym(V ) → Matsymn×n(K)b 7→ b(A,A)
.
Beispiel. Die kanonische Bilinearform b : Kn ×Kn → K
b(x, y) =
n∑i=1
xiyi
ist symmetrisch.
Definition. Eine Bilinearform b auf einem K-Vektorraum V heißt alternierend, wenn b(v, v) = 0fur alle v ∈ V .
Lemma. Sei b : V × V → K eine Bilinearform.
(1) Wenn b alternierend ist, dann ist b antisymmetrisch.(2) Wenn 2 6= 0 ∈ K und b antisymmetrisch ist, dann ist b alternierend.
[23.05.18]2.3. Orthogonalitat und nicht ausgeartete Formen.
Definition. Sei b : V × V → K eine Bilinearform auf einem K-Vektorraum V . Wir sagen, dassv ∈ V orthogonal zu w ∈ V ist (bzgl. b), wenn b(v, w) = 0 und wir schreiben v ⊥ w. Fur eineTeilmenge M ⊂ V definieren wir die Menge M⊥ aller Vektoren, die rechtsorthogonal auf Mbzgl. b sind
M⊥ := {v ∈ V : b(m, v) = 0 ∀m ∈M}und die Menge ⊥M aller Vektoren, die linksorthogonal auf M bzgl. b sind
⊥M := {v ∈ V : b(v,m) = 0 ∀m ∈M}.
Die Menge M⊥ (bzw. ⊥M) heißt Rechtsorthogonalraum (bzw. Linksorthogonalraum) von M inV .
Bemerkung. Wenn b symmetrisch oder alternierend ist, dann gilt v ⊥ w ⇐⇒ w ⊥ v. Insbe-sondere ist M⊥ = ⊥M fur alle M ⊂ V .
Beispiel. Fur die kanonische Bilinearform auf K3 und M = {e1, e2} gilt
M⊥ :=
x =
x1x2x3
: b(e1, x) = b(e2, x) = 0
= Span(e3) = ⊥M.
LINEARE ALGEBRA II: LEHRPLAN 15
Lemma. Sei b : V × V → K eine Bilinearform auf einem K-Vektorraum V und M ⊂ V eineTeilmenge. Dann sind M⊥ und ⊥M Untervektorraume von V .
Definition. Eine Bilinearform b auf einem K-Vektorraum V heißt nicht ausgeartet, wenn furalle v ∈ V gelten die folgende Aussagen:
(1) b(v′, v) = 0 fur alle v′ ∈ V =⇒ v = 0 (d.h. V ⊥ = {0V }),(2) b(v, v′) = 0 fur alle v′ ∈ V =⇒ v = 0 (d.h. ⊥V = {0V }).
Sonst sagen wir, dass b ausgeartet ist.
Beispiel.
(1) Die kanonische Bilinearform auf Kn
b(x, y) =n∑i=1
xiyi
ist nicht ausgeartet: aus b(x, y) = 0 fur alle y ∈ Kn folgt x = 0, da b(x, ei) = xi, undaus b(x, y) = 0 fur alle x ∈ Kn folgt y = 0.
(2) Sei b : K2 ×K2 → K die Bilinearform
b
((x1x2
),
(y1y2
)):= x1y1 + x2y1
mit zugehorigen Matrix
b(A,A) =
(1 01 0
)bzgl. der Standardbasis A = (e1, e2). Diese Bilinearform ist nicht symmetrisch und furM = {e2} gilt M⊥ 6= ⊥M :
b
((01
),
(y1y2
))= y1 so dass M⊥ =
{(y1y2
)∈ K2 : y1 = 0
}und
b
((x1x2
),
(01
))= 0 so dass ⊥M = K2.
Diese Bilinearform b ist ausgeartet, weil
(K2)⊥ =
{(y1y2
)∈ K2 : y1 = 0
}6= {0V }.
Zur Erinnerung: fur einen K-Vektorraum V und eine Bilinearform b : V × V → K gibt eseine lineare Abbildung fb : V → V ∗ mit
fb(v) := b(−, v) : V → K
und wenn A = (v1, . . . , vn) eine geordnete Basis von V ist, gilt MAA∗(fb) = b(A,A).
Satz 2.4. Sei b : V ×V → K eine Bilinearform auf einem endlichdimensionalen K-VektorraumV mit einer geordneten Basis A. Dann sind die folgenden Bedingungen aquivalent:
(1) b ist nicht ausgeartet,(2) V ⊥ = {0V },(3) ⊥V = {0V },(4) die zugehorige Matrix B = b(A,A) ist invertierbar,(5) die lineare Abbildung fb : V → V ∗, die durch v 7→ b(−, v) definiert wird, ist ein Isomor-
phismus.
16 VICTORIA HOSKINS
Beispiel. Die Einschrankung einer nicht ausgearteten Bilinearform kann ausgeartet sein: furV = K2 und die Bilinearform
b(x, y) := x1y2 + x2y1,
ist b|U×U ≡ 0 fur U := Span(e1) ⊂ V . Insbesondere ist b nicht ausgeartet, aber b|U×U ist aus-geartet.
Definition. Sei U ein Untervektorraum eines K-Vektorraumes V . Dann definieren wir denAnnullator von U
Ann(U, V ∗) := {ϕ ∈ V ∗ : ϕ(u) = 0V ∀ u ∈ U} ⊂ V ∗.
Fur W ⊂ V ∗, definieren wir Ann(W, (V ∗)∗) ⊂ (V ∗)∗ wie oben und
Ann(W,V ) := {v ∈ V : ϕ(v) = 0V ∀ ϕ ∈W} ⊂ V.
Bemerkung. Sei V ein K-Vektorraum und U ⊂ V und W ⊂ V ∗ Untervektorraume.
(1) Der Annullator Ann(U, V ∗) ist ein Untervektorraum von V ∗.(2) Wenn V endlichdimensional ist, wir behaupten dass
dimK(Ann(U, V ∗)) = dimK(V )− dimK(U).
Seien {u1, · · · , ur} eine Basis von U und B = {u1, · · · , ur, v1, · · · , vs} eine Basis von V ,dann sind die Linearformen v∗i ∈ Ann(U, V ∗) ⊂ V ∗ fur 1 ≤ i ≤ s linear unabhangig. Esgilt
Span(v∗1, . . . , v∗s) = Ann(U, V ∗),
da ‘⊂’ klar ist, und jede Abbildung ϕ ∈ Ann(U, V ∗) ⊂ V ∗ als eine Linearkombinationder Basisvektoren B∗ geschrieben werden kann:
ϕ = λ1u∗1 + · · ·+ λru
∗r + µ1v
∗1 + · · ·+ µsv
∗s
mit λi = ϕ(ui) = 0K fur 1 ≤ i ≤ r. Daher ist {v∗1, . . . , v∗s} eine Basis von Ann(U, V ∗).(3) Wenn V endlichdimensional ist, haben wir einen linearen Isomorphismus
Φ : V → (V ∗)∗
v 7→ Φv : V ∗ → K,
wobei Φv(ϕ) := ϕ(v). Dann gilt Φ(Ann(W,V )) = Ann(W, (V ∗)∗).
Satz 2.5. Sei b : V ×V → K eine Bilinearform auf einem endlichdimensionalen K-VektorraumV und U ein Untervektorraum von V . Dann gilt
dim(U) + dim(⊥U) = dim(V ) + dim(U ∩ V ⊥).
und
dim(U) + dim(U⊥) = dim(V ) + dim(U ∩ ⊥V ).
Korollar. Sei b : V × V → K eine nicht ausgeartete Bilinearform auf einem endlichdimensio-[28.05.18]nalen K-Vektorraum V . Fur einen Untervektorraum U ⊂ V gilt
dim(V ) = dim(U) + dim(⊥U) = dim(U) + dim(U⊥).
Ferner haben wir U = ⊥(U⊥) = (⊥U)⊥.
Korollar. Sei b : V ×V → K eine Bilinearform auf einem endlichdimensionalen K-VektorraumV . Fur einen Untervektorraum U ⊂ V ist aquivalent:
(1) b|U×U ist nicht ausgeartet,(2) V = U ⊕ U⊥.
LINEARE ALGEBRA II: LEHRPLAN 17
Ubung. Sei K ein Korper mit 1 + 1 6= 0 und V ein endlichdimensionaler K-Vektorraum. Furjede antisymmetrische Bilinearform b : V ×V → K beweisen Sie (durch Induktion nach dim(V )),dass es eine Basis A von V gibt mit
b(A,A) =
0 0 . . . 0
0. . .
. . .. . . 0
. . ....
.... . . S
. . .. . .
. . . 00 . . . 0 S
fur S =
(0 1−1 0
).
Was ist eine notwendige Bedingung fur V eine nicht ausgeartete antisymmetrische Bilinearformzu haben?
2.4. Quadratische Formen.
Definition. Ein Polynom in n Variablen t1, · · · , tn uber K ist ein formaler Ausdruck P derForm
P (t1, . . . , tn) =∑
I=(i1,...,in)∈Nn
aIti11 t
i22 · · · t
inn
mit Koeffizienten aI ∈ K, so dass nur endliche viele Koeffizienten aI ungleich Null sind. DerGrad eines nicht-Null Polynoms P ist
grad(P ) := max{i1 + · · ·+ in : aI 6= 0}.
Ein Polynom P heißt homogen vom Grad d, wenn fur alle I = (i1, . . . , in) ∈ Nn gilt
aI 6= 0 =⇒ i1 + · · ·+ in = d.
Insbesondere ist das Nullpolynom homogen von jedem Grad d. Die Menge aller Polynome in nVariablen t1, . . . , tn uber K wird mit K[t1, . . . , tn] bezeichnet; diese Menge ist eine Teilmenge derMenge Abb(Kn,K). Die Menge K[t1, . . . , tn] mit der Addition und Multiplikation von Polynomebildet einen Ring und ist auch ein K-Vektorraum. Die Teilmenge K[t1, . . . , tn]d ⊂ k[t1, . . . , tn]von allen homogenen Polynome des Grads d ist ein endlichdimensionalen Untervektorraum.
Ubung. Ein Polynom P (t1, · · · , tn) in n Variablen uber K ist homogen vom Grad d genaudann, wenn fur alle λ ∈ K gilt
Definition. Eine quadratische Form auf V ist eine Abbildung q : V → K mit den folgendenEigenschaften:
(1) q(λ · v) = λ2 · q(v) fur alle λ ∈ K und v ∈ V ,(2) Die Abbildung βq : V × V → K
βq(v, v′) := q(v + v′)− q(v)− q(v′)
ist eine Bilinearform auf V . (Wir nennen βq die zu q assoziierte Bilinearform).
Die quadratische Form q heißt nicht ausgeartet, falls βq nicht ausgeartet ist. Die Menge allerquadratischen Formen auf V wird mit QFK(V ) bezeichnet.
Bemerkung. Insbesondere, wenn q 6≡ 0 ist q nicht linear nach (1). Die assoziierte Bilinearformβq ist symmetrisch. Ferner ist die Teilmenge QFK(V ) ⊂ Abb(V,K) ein Untervektorraum.
Satz 2.6. Sei A = (v1, · · · , vn) eine geordnete Basis eines K-Vektorraumes V . Fur eine Abbil-dung q : V → K definieren wir eine Abbildung fAq : Kn → K durch
Die Abbildung q ist genau dann eine quadratische Form, wenn fAq ein homogenes Polynom vomGrad 2 ist.
Bemerkung. Sei V ein K-Vektorraum.
(1) Wenn b eine Bilinearform auf V ist, dann ist qb(v) := b(v, v) eine quadratische Form vonV mit βqb(v, v
′) = b(v, v′) + b(v′, v). Wenn A eine geordnete Basis von V ist, gilt
βqb(A,A) = b(A,A) + b(A,A)t.
(2) Wenn b ist eine symmetrische Bilinearform auf V , gilt
2b(v, v′) = b(v + v′, v + v′)− b(v, v)− b(v′, v′).Die folgende ‘Polarisierungs-Identitat’ folgt fur die quadratische Form qb(v) := b(v, v)
2b(v, v′) = qb(v + v′)− qb(v)− qb(v′)Insbesondere gilt fur die zugehorige Bilinearform βqb zu qb die Gleichung 2b = βqb .
(3) Falls 2 := 1 + 1 6= 0 ∈ K und b eine symmetrische Bilinearform auf V ist, dann konnenwir b aus der quadratischen Form qb(v) := b(v, v) zuruckgewinnen durch die Formelb = 1
2βqb .
Beispiel. Fur die kanonische symmetrische Bilinearform b auf Kn ist qb(x1, . . . , xn) =∑n
i=1 x2i .
Definition. Die Charakteristik eines Korpers K ist[30.05.18]
Char(K) :=
{0 falls n := 1 + · · ·+ 1 6= 0 ∈ K ∀n ∈ N∗,min{n ∈ N∗ : n = 0 ∈ K} sonst.
Ubung. Die Charakteristik eines Korpers ist entweder Null oder eine Primzahl.
Beispiel.
(1) Char(Q) = Char(R) = Char(C) = 0.(2) Char(Fp) = p fur eine Primzahl p.
Satz 2.7. Sei K ein Korper mit Char(K) 6= 2 und V ein K-Vektorraum. Dann gibt es einenlinearen Isomorphismus
BilsymK (V ) → QFK(V )b 7→ qb
mit qb(v) := b(v, v).
Bemerkung. Wenn dimK(V ) = n ∈ N und Char(K) 6= 2, dann gibt es Bijektionen
Matsymn×n(K) ∼= BilsymK (V ) ∼= QFK(V ).
Wenn q(x) =∑
1≤i≤j≤n aijxixj eine quadratische Form auf Kn ist, dann ist die zugehorige
symmetrische Matrix C = (cij) mit
cij =
aij/2 i < jaii i = jaji/2 i > j,
da 12βq(ei, ej) = cij , so dass 1
2βq(B,B) = C fur B = (e1, . . . , en).
Definition. Sei b eine symmetrische Bilinearform auf einem K-Vektorraum V . Eine Orthogo-nalbasis von V bzgl. b ist eine Basis A von V mit b(vi, vj) = 0 fur alle vi 6= vj ∈ A (d.h. vi ⊥ vj).
Bemerkung. Sei V ein endlichdimensionaler K-Vektorraum und A eine geordnete Basis vonV . Die Basis A ist genau dann orthogonal bzgl. einer Bilinearform b auf V , wenn die zugehorigeMatrix b(A,A) diagonal ist.
LINEARE ALGEBRA II: LEHRPLAN 19
Beispiel. Fur die kanonische Bilinearform auf Kn
b(x, y) :=
n∑i=1
xiyi
ist die Standardbasis eine Orthogonalbasis.
Satz 2.8. Sei K ein Korper mit Char(K) 6= 2 und b eine symmetrische Bilinearform auf einemendlichdimensionalen K-Vektorraum V . Dann gibt es eine Orthogonalbasis von V bzgl. b.
Korollar. Wenn Char(K) 6= 2, ist jede symmetrische Matrix A ∈ MatSymn×n(K) kongruent zueiner Diagonalmatrix, d.h. es gibt S ∈ GLn(K) mit SASt = D, eine Diagonalmatrix.
Korollar. Wenn K = C und b eine symmetrische Bilinearform auf einem C-Vektorraum V derDimension n ∈ N ist, dann gibt es 0 ≤ r ≤ n und eine geordnete Basis A von V so dass dieMatrix B = b(A,A) zu b die folgende Form hat
B =
(Ir 00 0
).
Korollar.(Tragheitssatz von Sylvester - Version I). Sei K = R und b eine symmetrische Biline-arform auf einem R-Vektorraum V der Dimension n. Dann gibt es r, s ∈ N mit r + s ≤ n undeine geordnete Basis A von V so, dass die zu b gehorige Matrix B = b(A,A) die folgende Formhat
B =
Ir 0 00 −Is 00 0 0
.
Korollar. SeiK ein Korper mit Char(K) 6= 2. Jedes homogene quadratische Polynom q(x1, . . . , xn) =∑1≤i≤j≤n aijxixj in n Variablen x1, . . . , xn lasst sich schreiben in der Form
q(x) =∑
1≤i,j≤ndi · (bi1x1 + · · ·+ binxn)2
mit bij und di ∈ K.
Bemerkung. Aus diesem Korollar folgt:
(1) Fur jede quadratische Form q auf einem C-Vektorraum der Dimension n gibt es 0 ≤r ≤ n und eine geeignete Basis A von V , so dass das zugehorige homogene quadratischePolynom fAq (siehe Satz 2.6) die folgende Form hat
fAq (t1, . . . , tn) = t21 + · · ·+ t2r .
(2) Fur jede quadratische Form q auf einem R-Vektorraum der Dimension n gibt es r, s ∈ Nmit r + s ≤ n und eine geeignete Basis A von V , so dass das zugehorige homogenequadratische Polynom fAq die folgende Form hat
3.1. Euklidische Vektorraume. In diesem Abschnitt sei K = R. Der Korper R ist angeord-net, d.h. es gibt eine Ordnung ≤ auf R. Ferner gibt es einen Betrag auf R, der eine Abbildung| − | : R→ R≥0 := {x ∈ R : x ≥ 0} ist.
Definition. Sei V ein R-Vektorraum.
(1) Eine symmetrische Bilinearform b : V × V → R heißt positiv semi-definit (bzw. positivdefinit), falls b(v, v) ≥ 0 (bzw. b(v, v) > 0) fur alle v ∈ V \{0V }.
20 VICTORIA HOSKINS
(2) Eine symmetrische Bilinearform b auf V heißt negativ (semi-)definit, wenn −b positiv(semi-)definit ist.
(3) Eine symmetrische Matrix A ∈ MatSymn×n(R) heißt positiv semi-definit, wenn xtAx ≥ 0 furalle x ∈ Rn\{0} ist. Ebenso kann man die Definitionen fur positiv semi-definit, negativdefinit, und negativ semi-definit formulieren.
(4) Ein Skalarprodukt auf V ist eine positiv definite symmetrische Bilinearform 〈−,−〉 :V × V → R auf V .
(5) Ein euklidischer Vektorraum (V, 〈−,−〉) ist ein endlichdimensionaler R-Vektorraum Vmit einem Skalarprodukt 〈−,−〉 : V × V → R.
Bemerkung.
(1) Wenn V ein endlichdimensionaler R-Vektorraum ist und A eine geordnete Basis von Vist, dann gilt fur eine symmetrische Bilinearform b auf V :
b ist positiv definit ⇐⇒ b(A,A) ist positiv definit.
(2) Nach dem Tragheitssatz von Sylvester (Version I) gibt es zu jeder symmetrische Biline-arform b auf einem R-Vektorraum V der Dimension n naturliche Zahlen r, s mit r+s ≤ nund eine geordnete Basis A von V so, dass
B = b(A,A) =
Ir 0 00 −Is 00 0 0
.
Die Bilinearform b ist genau dann positiv semi-definit, wenn s = 0. Die symmetrischeBilinearform b ist ein Skalarprodukt (d.h. positiv definit), wenn s = 0 und r = n. Ins-besondere ist ein Skalarprodukt 〈−,−〉 auf V nicht ausgeartet nach dem Satz 2.4. DieBilinearform ist negativ definit, wenn r = 0 und s = n.
Beispiel. Das Standardskalarprodukt auf Rn ist
〈−,−〉 : Rn × Rn → R(x, y) 7→ 〈x, y〉 :=
∑ni=1 xiyi.
Dann ist En := (Rn, 〈−,−〉) der standard euklidische Vektorraum (der Dimension n).
Lemma. Eine symmetrische Matrix A ∈ MatSymn×n(R) ist genau dann positiv definit, wenn Akongruent zu der Einheitsmatrix In ist.
Satz 3.1 (Tragheitssatz von Sylvester). Sei 〈−,−〉 eine symmetrische Bilinearform auf einemendlichdimensionalen R-Vektorraum V . Dann gibt es eine Zerlegung V = V+⊕V−⊕V0 mit denfolgenden Eigenschaften.
(1) V0, V+ und V− sind paarweise orthogonal bezuglich < −,− > ,(2) b|V0×V0 ≡ 0,(3) b|V+×V+ ist positiv definit,(4) b|V−×V− ist negativ definit.
Ferner sind V0, dimR(V+) und dimR(V−) eindeutig bestimmt.
Definition.
(1) Die Signatur einer symmetrische Bilinearform b auf einem endlichdimensionalen R-Vektorraum V ist
sign(b) := dim(V+)− dim(V−),
wobei V = V+ ⊕ V− ⊕ V0 eine Zerlegung wie in dem Tragheitssatz von Sylvester ist.(2) Die Signatur einer symmetrische Matrix A ∈ Matn×n(R) ist die Signatur der zugehori-
gen symmetrische Bilinearform bA.
LINEARE ALGEBRA II: LEHRPLAN 21
Bemerkung. Fur zwei symmetrische Matrizen A,B ∈ Matn×n(R) gilt
A und B sind kongruent ⇐⇒ Rang(A) = Rang(B) und sign(A) = sign(B).
Definition.Sei (V, 〈−,−〉) ein euklidischer Vektorraum.
(1) f ∈ EndR(V ) heißt orthogonal (bzgl. 〈−,−〉), wenn fur alle v, w ∈ V gilt
〈f(v), f(w)〉 = 〈v, w〉.Wir schreiben O(V ) := {f ∈ EndK(V ) : f ist orthogonal}.
(2) Eine Matrix A ∈ Matn×n(R) mit AtA = In heißt orthogonal7. Wir schreiben O(n) furdie Menge aller orthogonalen n× n-Matrizen.
Bemerkung.
(1) Jede Matrix A ∈ O(n) ist invertierbar mit A−1 = At, also gilt O(n) ⊂ GLn. Tatsachlichist diese Teilmenge eine Untergruppe: es gilt In ∈ O(n) und aus A ∈ O(n) folgt A−1 ∈O(n). Wir nennen O(n) die orthogonale Gruppe.
(2) Fur A ∈ Matn×n(R) definieren wir eine lineare Abbildung FA : Rn → Rn durch FA(x) =Ax fur einen Spaltenvektor x ∈ Rn. Dann gilt fur das Standardskalarprodukt 〈−,−〉 aufRn
〈FA(x), FA(y)〉 = 〈Ax,Ay〉 = (Ax)tAy = xtAtAy.
Insbesondere ist A genau dann orthogonal, wenn FA orthogonal bzgl. des Standardska-larprodukt 〈−,−〉 auf Rn ist.
Beispiel.
(1) Sei λ ∈ R und V ein euklidischer Vektorraum. Dann ist f = λ · IdV genau dann ortho-gonal, wenn λ = ±1.
(2) Eine Drehung Dθ : R2 → R2 um 0 ∈ R2 mit Winkel θ ist orthogonal bzgl. des Stan-dardskalarprodukt 〈−,−〉 auf Rn, weil
Aθ = MBB (Dθ) =
(cos θ sin θ− sin θ cos θ
)mit B = (e1, e2) orthogonal ist:
AtθAθ =
(cos θ − sin θsin θ cos θ
)(cos θ sin θ− sin θ cos θ
)=
(1 00 1
).
(3) Eine Spieglung Sx : R2 → R2 in der x-Achse ist orthogonal, weil
A = MBB (Sx) =
(1 00 −1
)orthogonal ist. Tatsachlich ist die Spieglung durch jede Gerade L durch 0 ∈ R2 ortho-gonal.
Bemerkung. Fur einen euklidischen Vektorraum V und orthogonale Endomorphismen f, g ∈EndR(V ) gilt
(1) f ◦ g ist orthogonal,(2) ker(f) = {0V }. Wegen dimR(V ) <∞, ist f bijektiv und ferner ist f−1 orthogonal.(3) Die Menge O(V ) ist eine Untergruppe von AutR(V ) ⊂ EndR(V ).(4) Fur einen Eigenwert λ ∈ R von f gilt λ = ±1.
Beispiel.
(1) O(1) = {±1}.7In diesem Fall ist A invertierbar mit A−1 = At
22 VICTORIA HOSKINS
(2) Fur n = 2: wenn eine Matrix
A =
(a bc d
)orthogonal ist, gilt a2 + c2 = b2 + d2 = 1 und ab + cd = 0. Seien α := a + ic undβ := b + id ∈ C, dann gilt |α| = |β| = 1 und Re(αβ) = 0. Es folgt, dass |αβ| = 1 und,wegen Re(αβ) = 0, dass αβ = ±i, d.h. β = ±iα. Jede komplexe Zahl α ∈ C mit |α| = 1hat die Form α = cos θ + i sin θ fur θ ∈ [0, 2π). Deshalb gibt es zwei Falle:
Fall 1 : β = iα. A =
(cos θ − sin θsin θ cos θ
)eine Drehung um 0 ∈ R2 mit Winkel θ, oder
Fall 2 : β = −iα. A =
(cos θ sin θsin θ − cos θ
)eine Spieglung an der Geraden durch den 0 und
√α.
(3) Fur A ∈ O(n) ist det(A) = ±1. Ferner ist der Homomorphismus det : O(n) → O(1) ={±1} surjektiv.
[06.06.18]3.2. Unitare Vektorraume. In diesem Abschnitt sei K = C := {x+ iy : (x, y) ∈ R2}, wobei i
eine Wurzel von −1 ist. Der Betrag ist eine Abbildung |− | : C→ R≥0 mit |x+ iy| =√x2 + y2.
Die Komplexe Konjugation ist ein Korperautomorphisms C→ C, der durch z := x+ iy 7→ z =x− iy definiert wird. Es gilt zz = |z|2.
Es gibt keine Ordnung auf C, deshalb hat der Begriff ‘positive Definitheit’ keinen Sinn. Fernerhaben wir fur die kanonische symmetrische Bilinearform b auf Cn
b(z, w) :=n∑k=1
zkwk
fur z = w = (i, . . . , i)t, dass b(z, z) < 0. Deshalb werden wir ein Skalarprodukt auf einem kom-plexen Vektorraum als eine ‘positiv definite hermitesche’ Form definieren.
Definition. Sei V ein C-Vektorraum.
(1) Eine Abbildung h : V × V → C heißt Sesquilinearform auf V , wenn(a) h ist C-linear im zweiten Argument, d.h. fur vi ∈ V und λ, µ ∈ C gilt
h(v1, µv2 + λv3) = µh(v1, v2) + λh(v1, v3).
(b) h ist C-antilinear im ersten Argument , d.h. fur vi ∈ V und λ, µ ∈ C gilt
h(µv1 + λv2, v3) = µh(v1, v3) + λh(v2, v3).
Die Menge aller Sesquilinearformen auf V wird mit SLF(V ) bezeichnet.(2) Eine Sesquilinearform h auf V heißt Hermitesch (bzw. schief-Hermitesch), wenn ∀vi ∈
(3) Wenn A = (v1, . . . , vn) eine Basis von V ist und h eine Sesquilinearform auf V ist, dannheißt h(A,A) := (h(vi, vj))ij ∈ Matn×n(C) die Matrix von h bezuglich A.
(4) Fur B = (bij) ∈ Matm×n(C), definieren wir B† := Bt = (bji) ∈ Matn×m(C).8
(5) Eine Matrix B ∈ Matn×n(C) heißt Hermitesch (bzw. schief-Hermitesch), wenn B = B†
(bzw. B = −B†).
8Es gilt B† := (Bt) = (B)t.
LINEARE ALGEBRA II: LEHRPLAN 23
Beispiel. Die kanonische Hermitesche Form auf Cn ist h : Cn × Cn → C mit
h(z, w) =n∑k=1
zkwk
und die Matrix von h bzgl. zu der geordneten Standardbasis (e1, . . . , en) ist die EinheitsmatrixIn.
Bemerkung. Sei V ein C-Vektorraum der Dimension n und A = (v1, . . . , vn) eine geordneteBasis von V . Dann gibt es genau einen linearen Isomorphismus ΦA : V → Cn mit ΦA(vk) = ekfur 1 ≤ k ≤ n [LAI, Satz 4.4].
(1) Wenn h : V × V → C eine Sesquilinearform ist und B die Matrix von h bzgl. der BasisA ist, dann gilt fur alle v, v′ ∈ V
h(v, v′) = ΦA(v)† B ΦA(v′).
Ferner ist h genau dann eine (schief-)Hermitesche Form, wennB eine (schief-)HermitescheMatrix ist.
(2) Umgekehrt definiert B ∈ Matn×n(C) eine Sesquilinearform auf V durch
hAB(v, v′) := ΦA(v)† B ΦA(v′)
und die zugehorige Matrix dieser Sesquilinearform h bzgl. der Basis A ist wieder B.(3) Die Abbildung
ΨA : SLF(V )→ Matn×n(C),
die zu jeder Sesquilinearform h die zugehorige Matrix B = h(A,A) von h bzgl. der BasisA zuordnet, ist ein linearer Isomorphismus.
(4) Es gibt eine Formel fur einen Basiswechsel: seien A,B geordneten Basen von V . Danngilt fur eine Sesquilinearform h auf V
h(B,B) = MBA(IdV )†h(A,A)MBA(IdV )
wobei MBA(IdV ) die Basiswechselmatrix fur die Identitat auf V ist.
Bemerkung. Sei V ein C-Vektorraum.
(1) Wenn h eine Hermitesche Form auf V ist, gilt h(v, v) ∈ R fur alle v ∈ V , weil h(v, v) =
h(v, v).(2) Wenn h eine schief-Hermitesche Form auf V ist, gilt h(v, v) ∈ iR fur alle v ∈ V .
Definition. Sei V ein C-Vektorraum.
(1) Eine Hermitesche Form h auf einem C-Vektorraum V heißt positiv definit, wenn fur allev ∈ V mit v 6= 0V gilt h(v, v) > 0. Die Definitionen fur positiv semi-definit, negativdefinit und negativ semi-definit sind analog.
(2) Ein Skalarprodukt auf V ist eine positiv definite Hermitesche Form auf V .(3) Ein unitarer Vektorraum (V, h) ist ein endlichdimensionaler C-Vektorraum V mit einer
Skalarprodukt h auf V .
Beispiel. Die kanonische Hermitesche Form auf Cn
〈z, w〉 :=n∑k=1
zkwk
ist positiv definit, weil 〈z, z〉 :=∑n
k=1 zkzk =∑n
k=1 |zk|2. Wir nennen 〈−,−〉 das Standardska-larprodukt auf Cn. Dann heißt (Cn, 〈−,−〉) der standard unitare Vektorraum
Definition. Sei (V, 〈−,−〉) ein unitarer Vektorraum.
24 VICTORIA HOSKINS
(1) f ∈ EndC(V ) heißt unitar (bzgl. 〈−,−〉), wenn fur alle v, w ∈ V gilt
〈f(v), f(w)〉 = 〈v, w〉.Wir schreiben U(V ) := {f ∈ EndC(V ) : f ist unitar}.
(2) Eine Matrix A ∈ Matn×n(C) mit A†A = In heißt unitar9. Wir schreiben U(n) fur dieMenge aller unitaren n× n-Matrizen.
Bemerkung. Fur A ∈ Matn×n(Cn) definieren wir eine lineare Abbildung FA : Cn → Cn durchFA(x) = Ax fur einen Spaltenvektor x ∈ Cn. Dann gilt fur das Standardskalarprodukt 〈−,−〉auf Cn
〈FA(x), FA(y)〉 = 〈Ax,Ay〉 = (Ax)†Ay = x†A†Ay.
Insbesondere ist A genau dann unitar, wenn FA unitar bzgl. zu dem Standardskalarprodukt〈−,−〉 auf Cn ist.
Beispiel. Sei λ ∈ C und V ein unitarer Vektorraum. Dann ist f = λ · IdV genau dann unitar,wenn |λ| = 1.
Bemerkung. Fur einen unitaren Vektorraum V und unitare Endomorphismen f, g ∈ U(V ) gilt
(1) f ◦ g ist unitar.(2) ker(f) = {0V } und wegen dimC(V ) <∞, ist f bijektiv und ferner ist f−1 unitar.(3) Die Menge U(V ) ist eine Untergruppe von AutC(V ) ⊂ EndC(V ).(4) Fur einen Eigenwert λ ∈ C von f gilt |λ| = 1.
Definition. Die Menge aller unitare n×n-Matrizen U(n) < GLn(C) heißt die unitare Gruppe.
Beispiel.
(1) U(1) = {z ∈ C : |z| = 1}.(2) Fur A ∈ U(n) ist |det(A)| = 1. Ferner ist der Homomorphismus det : U(n) → U(1)
surjektiv.[11.06.18]
3.3. Normen und Orthogonalitat. In dieser Sektion sei K = R oder K = C. Dann gibt eseinen Betrag | − | : K → R≥0.
Definition. Sei V ein K-Vektorraum. Eine Abbildung || − || : V → R≥0 heißt Norm, wenn diefolgenden Eigenschaften (N1-N3) gelten:
(N1). Fur v ∈ V gilt ||v|| = 0 =⇒ v = 0V ,(N2). Fur v ∈ V und λ ∈ K gilt ||λ · v|| = |λ| ||v||,(N3.) Fur v, v′ ∈ V gilt die Dreiecksungleichung: ||v + v′|| ≤ ||v||+ ||v′||.
Bemerkung. Fur eine Norm || − || : V → R gilt:
(1) ||0V || = 0 nach dem Axiom (N2).(2) || − v|| = ||v|| nach dem Axiom (N2).
Satz 3.2. Sei V ein K-Vektorraum und 〈−,−〉 : V × V → R ein Skalarprodukt (mit K = Roder C). Dann ist ||v|| :=
√〈v, v〉 eine Norm auf V . Ferner gelten fur v, w ∈ V und λ ∈ K
Definition. Sei V ein K-Vektorraum. Eine Abbildung d : V × V → R≥0 heißt Metrik (oderAbstand), wenn die folgenden Eigenschaften (M1-M3) gelten:
(M1). Fur v, w ∈ V gilt d(v, w) = 0 ⇐⇒ v = w.(M2). Symmetrie: Fur v, w ∈ V gilt d(v, w) = d(w, v).(M3.) Dreiecksungleichung: Fur u, v, w ∈ V gilt d(u, v) ≤ d(u,w) + d(w, v).
Lemma. Sei || − || eine Norm auf einem K-Vektorraum V . Dann ist d(v, w) := ||v − w|| eineMetrik auf V .
Definition. Sei 〈−,−〉 : V × V → K ein Skalarprodukt auf einem K-Vektorraum V .
(1) Zwei Vektoren v, w ∈ V heißt orthogonal, falls 〈v, w〉 = 0. In diesem fall schreiben wirv ⊥ w.
(2) Zwei Teilmengen A und B heißt orthogonal (schreibweise A ⊥ B), falls a ⊥ b fur allea ∈ A und b ∈ B.
(3) Eine direkte Summe ⊕nj=1Ui von Untervektorraume Uj von V ist orthogonal, falls Uj ⊥Uk fur alle j 6= k.
(4) Eine Familie (vj)j∈J von Vektoren heißt orthogonal, falls fur alle j 6= k gilt vj ⊥ vk.(5) Eine Familie (vj)j∈J von Vektoren heißt normiert, falls fur alle j ∈ J gilt ||vj || = 1.(6) Eine Familie (vj)j∈J von Vektoren heißt orthonormal, falls 〈vj , vk〉 = δjk fur alle j, k ∈ J .(7) Eine Orthonormal-Basis (ON-Basis) von V ist eine Basis von V , deren Vektoren ortho-
normal zueinander sind.
Bemerkung. Fur ein Skalarprodukt 〈−,−〉 : V × V → K auf einem K-Vektorraum V geltendie folgenden Aussagen.
(1) v ⊥ w ⇐⇒ w ⊥ v fur v, w ∈ V , weil 〈v, w〉 = 〈w, v〉.(2) Eine Familie ist genau dann orthonormal, wenn sie orthogonal und normiert ist.(3) Fur v 6= 0V ist v/||v|| normiert.(4) Jede orthogonale Familie (vj)j∈I mit vj 6= 0V fur alle j ∈ J ist linear unabhangig: aus
einer Gleichung 0V =∑n
k=1 λkvjk mit λk ∈ K folgt fur 1 ≤ l ≤ n
0 = 〈vil , 0V 〉 = 〈vil ,n∑k=1
λkvjk〉 =n∑k=1
λk〈vil , vjk〉 = λl||vjl ||2
und wegen vjl 6= 0V , folgt λl = 0.
26 VICTORIA HOSKINS
(5) Wenn (vj)j∈J eine orthogonale Familie mit vj 6= 0V fur alle j ∈ J ist, dann ist dieFamilie (wj)j∈J mit wj := vj/||vj || orthonormal.
Beispiel. Die Standardbasis e1, . . . , en von Kn ist eine ON-Basis (bzgl zum Standardskalarpro-dukt).
Satz 3.3. Sei 〈−,−〉 : V × V → K ein Skalarprodukt auf einem K-Vektorraum V (mit K = Roder C) und sei v1, . . . , vn eine ON-Basis von V .
(1) Fur alle v ∈ V gilt
v =n∑k=1
〈vk, v〉 · vk.
(2) Parseval-Gleichung: fur alle v, w ∈ V gilt
〈v, w〉 =n∑k=1
〈vk, v〉〈vk, w〉.
(3) Bessel-Gleichung: fur alle v ∈ V gilt
||v||2 =n∑k=1
|〈vk, v〉|2.
[13.06.18]Satz 3.4. Sei f : V →W eine lineare Abbildung zwischen endlichdimensionalen K-Vektorraum-en mit Skalarprodukten 〈−,−〉V : V × V → K und 〈−,−〉W : W × W → K. Wenn A =(v1, . . . , vn) und B = (w1, . . . , wn) geordnete ON-Basen von V und W sind und A = MAB (f),dann gilt
aij = 〈wi, f(vj)〉.3.4. Gram-Schmidtsche-Orthogonalisierungsverfahren (GSOV). Durch diese Verfah-ren werden wir zeigen, wie man aus einer gegebenen linear unabhangigen Familie v1, . . . , vn vonVektoren aus einem K-Vektorraum mit Skalarprodukt (V, 〈−,−〉) eine ON-Familie w1, . . . , wnerhalt mit Span(v1, . . . , vn) = Span(w1, . . . , wn). Das Verfahren an den Beweis von Satz 2.8anlehnt.
Satz 3.5 (Gram-Schmidt OV). Sei (V, 〈−,−〉) ein K-Vektorraum mit Skalarprodukt. Wennv1, . . . , vn eine lineare unabhangige Familie von Vektoren aus V ist, gibt es eine ON-Familiew1, . . . , wn von Vektoren mit
Span(v1, . . . , vr) = Span(w1, . . . , wr) fur 1 ≤ r ≤ nKorollar. Jeder endlichdimensionale K-Vektorraum V mit Skalarprodukt hat eine ON-Basis.
Bemerkung. Sei (V, 〈−,−〉) ein K-Vektorraum mit Skalarprodukt. Wenn (vj)j∈N eine lineareunabhangige Familie von Vektoren aus V ist, nach dem GSOV und Induktion gibt es eineON-Familie (wj)j∈N von Vektoren, so dass fur alle n ∈ N gilt
Span(v0, . . . , vn) = Span(w0, . . . , wn).
Korollar. Sei V ein unitarer Vektorraum und f ∈ EndC(V ). Dann gibt es eine ON Basis Avon V so dass MAA (f) eine obere Dreiecksmatrix ist.
Korollar.(Satz von Schur) Sei A ∈ Matn×n(C). Dann gibt es U ∈ U(n) so dass U †AU eineobere Dreiecksmatrix ist.
Ubung: QR-Zerlegung. Sei A ∈ GLn(R) mit Spaltenvektoren {a1, . . . , an}. Sei {q1, . . . , qn}die durch das Gram-Schmidt Verfahren aus {a1, . . . , an} konstruierte Orthonormalbasis. Warumist Q = (q1| · · · |qn) orthogonal? Zeigen Sie dass R := QtA eine obere Dreiecksmatrix ist. Danngilt A = QR, wobei Q eine orthogonale Matrix ist und R eine obere Dreiecksmatrix ist. Wiekann man die QR-Zerlegung benutzt, lineare Gelichungssysteme zu losen? (Hinweis: Fur b ∈ Rn,finden Sie b′ ∈ Rn mit L(A, b) = L(R, b′)).
LINEARE ALGEBRA II: LEHRPLAN 27
3.5. Spektralsatze.
Satz 3.6 (Spektralsatz fur Hermitesche Matrizen). Sei A ∈ Matn×n(C) eine Hermitesche Ma-trix. Dann gilt
(1) Alle Eigenwerte von A sind reelle.(2) Cn hat eine ON-Basis von Eigenvektoren von A.(3) Es gibt eine unitare Matrix U so dass U †AU ist diagonal mit reellen Eintrage.
Korollar. (Spektralsatz fur symmetrische Matrizen) Sei A ∈ Matn×n(R) eine symmetrischeMatrix. Dann gilt
(1) A hat n reelle Eigenwerte (wenn man mit Vielfach rechnen).(2) Rn hat eine ON-Basis von Eigenvektoren von A.(3) Es gibt eine orthogonale Matrix P so dass P tAP ist diagonal.
[18.06.18]Satz 3.7 (Spektralsatz fur unitare Matrizen). Sei A ∈ Matn×n(C) eine unitare Matrix. Danngilt
(1) Alle Eigenwerte von A haben Betrag 1.(2) Cn hat eine ON-Basis von Eigenvektoren von A.(3) Es gibt eine unitare Matrix U so dass U †AU ist diagonal mit Eintrage vom Betrag 1.
3.6. Orthogonale Projektion.
Satz 3.8. Sei (V, 〈−,−〉) ein K-Vektorraum mit Skalarprodukt, v ∈ V und U ⊂ V ein Unter-vektorraum (mit K = R oder K = C). Fur u ∈ U ist aquivalent:
(1) v − u ∈ U⊥(2) d(v, U) := min{d(v, u′) : u′ ∈ U} = d(v, u).
Ferner gibt es ein u ∈ U mit (1) und (2) genau dann, wenn v ∈ U + U⊥. In diesem Fall ist ueindeutig.
Definition. Sei (V, 〈−,−〉) ein K-Vektorraum mit Skalarprodukt, v ∈ V und U ⊂ V ein Unter-vektorraum. Die lineare Abbilung πU : U ⊕ U⊥ → U mit πU (u+ u′) := u heißt die orthogonaleProjektion.
Korollar. Sei (V, 〈−,−〉) ein K-Vektorraum mit Skalarprodukt und U ⊂ V ein Untervektor-raum. Die orthogonale Projektion πU : U ⊕ U⊥ → U erfullt fur alle v ∈ U ⊕ U⊥
(1) πU (v) ist gleich dem Element u ∈ U mit minimalem Abstand zu v, d.h.
d(v, u) ≤ d(v, u′) fur alle u′ ∈ U.
(2) ||πU (v)|| ≤ ||v|| mit Gleichheit genau dann, wenn v ∈ U (d.h. πU (v) = v).
Bemerkung. Sei (V, 〈−,−〉) ein endlichdimensionaler K-Vektorraum mit Skalarprodukt undU ⊂ V ein Untervektorraum.
(1) Es gilt V = U + U⊥ = U ⊕ U⊥. Daher ist die orthogonale Projektion auf U eineAbbildung πU : V → U .
(2) Es gilt U = (U⊥)⊥.(3) Wenn u1, . . . , un eine ON-Basis von U ist, gilt πU (v) =
∑nj=1〈uj , v〉 · uj fur alle v ∈ V .
[20.06.18]3.7. Adjungierte Abbildungen. In diesem Abschnitt sei K = R oder C und wir betrachenendlichdimensionale K-Vektorraume mit Skalarprodukten.
Lemma (von Riesz). Sei V ein endlichdimensionalerK-Vektorraum mit Skalarprodukt 〈−,−〉.Fur f ∈ V ∗ := HomK(V,K) gibt es einen eindeutig bestimmten Vektor v ∈ V mit f(−) = 〈−, v〉als Elemente von V ∗.
28 VICTORIA HOSKINS
Satz 3.9. Seien (V, 〈−,−〉V ) und (W, 〈−,−〉W ) endlichdimensionale K-Vektorraume mit Ska-larprodukten. Fur f ∈ HomK(V,W ) gibt es eine eindeutige lineare Abbildung fad ∈ HomK(W,V )mit
〈f(v), w〉W = 〈v, fad(w)〉V fur alle v ∈ V,w ∈W.Wir nennen fad die zu f adjungierte Abbildung. Wenn A = (v1, . . . , vn) eine ON-Basis von Vist, dann gilt fur alle w ∈W
(3) fad(w) =
n∑j=1
〈f(vj), w〉W · vj .
Wenn zusatzlich B = (w1, . . . , wm) eine ON-Basis von W ist, dann gilt
MBA(fad) = MAB (f)†.
Korollar. Fur f : V →W eine lineare Abbildung zwischen endlichdimensionalenK-Vektorraum-en und die adjungierte Abbildung fad : W → V gilt auch
〈w, f(v)〉W = 〈fad(w), v〉V fur alle v ∈ V,w ∈W
Korollar. Sei V ein endlichdimensionaler K-Vektorraum mit Skalarprodukt 〈−,−〉. Fur f ∈EndK(V ) ist aquivalent
(1) f ist orthogonal falls K = R (bzw. f ist unitar falls K = C),(2) f ist invertierbar mit f−1 = fad.
Bemerkung. Seien (U, 〈−,−〉U ), (V, 〈−,−〉V ) und (W, 〈−,−〉W ) drei endlichdimensionale K-Vektorraume mit Skalarprodukten. Fur f, fi ∈ HomK(U, V ) und g ∈ HomK(V,W ) und λi ∈ Kgelten:
Satz 3.10. Seien (V, 〈−,−〉V ) und (W, 〈−,−〉W ) endlichdimensionale K-Vektorraume mit Ska-larprodukten. Fur f ∈ HomK(V,W ) gilt
(1) ker(f) = Bild(fad)⊥
(2) ker(fad) = Bild(f)⊥
Korollar. Seien (V, 〈−,−〉V ) und (W, 〈−,−〉W ) endlichdimensionale K-Vektorraume mit Ska-larprodukten. Fur f ∈ HomK(V,W ) gilt
(1) f ist genau dann injektiv, wenn fad surjektiv ist.(2) f ist genau dann surjektiv, wenn fad injektiv ist.(3) f ist genau dann bijektiv, wenn fad bijektiv ist.
Definition. Sei V ein endlichdimensionalerK-Vektorraum mit Skalarprodukt und f ∈ EndK(V ).
(1) f heißt selbstadjungiert, falls f = fad.(2) f heißt antiselbstadjungiert, falls f = −fad.(3) f heißt normal, falls f ◦ fad = fad ◦ f .
Bemerkung. Wenn A eine ON-Basis von V ist und A = MAA (f) gilt
(1) f ist selbstadjungiert ⇐⇒ A† = A(2) f ist antiselbstadjungiert ⇐⇒ A† = −A.(3) f ist normal ⇐⇒ AA† = A†A.
LINEARE ALGEBRA II: LEHRPLAN 29
Beispiel. Fur einen Untervektorraum U eines endlichdimensionalen K-Vektorraumes V (mitSkalarprodukt) ist die orthogonale Projektion πU : V → U selbstadjungiert: Sei (v1, . . . , vr) eineON-Basis von U , dann konnen wir diese ON-Basis auf einer ON-Basis A = (v1, . . . , vn) von Verweitern, so dass
MAA (πU ) =
(Ir 00 0
).
Satz 3.11. Sei V ein endlichdimensionaler K-Vektorraum mit Skalarprodukt 〈−,−〉 und f ∈EndK(V ) normal. Dann gilt fur jede λ ∈ K
Eig(f, λ) = Eig(fad, λ))
und Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal aufeinander. Insbesondere gilt
Satz 3.12 (Spektralsatz fur normale Abbildungen). Sei V ein endlichdimensionaler K-Vektorraummit Skalarprodukt 〈−,−〉 und f ∈ EndK(V ). Dann ist aquivalent
(1) f ist normal und das charakteristische Polynom χf (t) zerfallt vollstandig in Linearfak-toren,
(2) V ist die orthogonale Summe der Eigenraume von f ,(3) Es existiert eine ON-Basis von V aus Eigenvektoren von f .
Korollar. Eine Matrix A ∈ Matn×n(C) ist genau dann normal (d.h. A†A = AA†), wenn es gibteine unitare Matrix U ∈ U(n) mit U †AU diagonal.
3.8. Anwendung in der Geometrie: Affine reelle Quadriken. Sei K ein Korper mitChar(K) 6= 2. Bald werden wir annehmen, dass K = R.
Definition. Ein quadratisches Polynom in n Unbestimmten x = (x1, · · · , xn) uber K ist einAusdruck der Form
Q(x1, . . . , xn) =∑j≤k
ajkxjxk +n∑j=1
bjxj + c
mit ajk, bj und c ∈ K. Die affine Quadrik Z(Q) ⊂ Kn, die durch Q definiert wird, ist die Menge
Z(Q) = {x ∈ Kn : Q(x) = 0} ⊂ Kn.
Im Fall n = 2 nennt man eine affine Quadrik Z(Q) ⊂ K2 auch einen Kegelschnitt.
Beispiel. Sei K = R und n = 2. Dann sind die folgende Beispiele Kugelschnitte (d.h. dieentsprechende affine Quadriken kann als Durchschnitt eines Kugels in R3 mit einer (affinen)Ebene E ∼= R2 beschreiben werden):
(1) Q(x, y) = x2 + y2 − 1 mit Z(Q) ⊂ R2 ein Kreis.(2) Q(x, y) = x2 + 2y2 − 1 mit Z(Q) ⊂ R2 eine Ellipse.(3) Q(x, y) = x2 − y mit Z(Q) ⊂ R2 eine Parabel.(4) Q(x, y) = xy − 1 mit Z(Q) ⊂ R2 eine Hyperbel.(5) Q(x, y) = x2 + y2 + 1 mit Z(Q) = ∅ ⊂ R2 die leere Menge.
Bemerkung. Wir konnen ein quadratisches Polynom
Q(x1, . . . , xn) =∑j≤k
ajkxjxk +n∑j=1
bjxj + c
schreiben als Q(x) = xtAx+ btx+ c mit
A :=
a11
a122 · · · a1n
2
a122 a22
. . ....
.... . .
. . ....
an12 · · · · · · ann
∈ MatSymn×n(K), b =
b1b2...bn
, x =
x1x2...xn
∈ Matn×1(K).
30 VICTORIA HOSKINS
Man kann Q durch eine einzige Matrix A drucken: Q(x1, . . . , xn) = xtAx mit
A :=
(c bt/2b/2 A
)∈ MatSym(n+1)×(n+1)(K) und x :=
1x1...xn
∈ Mat(n+1)×1(K).
Definition. Seien Q und Q′ zwei quadratische Polynome in n Unbestimmten x1, · · · , xn uberK = R. Dann heißen Q und Q′
(1) affin (algebraisch) aquivalent, wenn es S ∈ GLn(R) und v ∈ Rn gibt mit Q′(x) =Q(Sx+ v).
(2) kartesisch (algebraisch) aquivalent, wenn es S ∈ O(n) und v ∈ Rn gibt mit Q′(x) =Q(Sx+ v).
Beispiel. Fur n = 2 betrachten wir Q(x1, x2) = x21 + 4x22 + 2x1 − 8x2 + 1. Wir konnen diesePolynom schreiben als
Q(x1, x2) = (x1 + 1)2 + 4(x2 − 1)2 − 4.
Durch die Translation(x1x2
)7→(y1y2
):=
(x1 + 1x2 − 1
)= I2x+
(1−1
)wird Z(Q) zur Ellipse Z(Q′) = {y ∈ R2 : y21 + 4y22 = 4}. Deshalb sind Q(x) und Q′(x) :=x21 + 4x22 − 4 zueinander kartesisch aquivalent.
[27.06.18]Satz 3.13 (Normalformen fur reelle Quadriken). Sei Q(x) = xtAx+ btx+ c ein quadratisches
Polynom in x = (x1, . . . , xn)t mit A ∈ MatSymn×n(R), b ∈ Matn×1(R) und c ∈ R. Dann ist Q zueiner der folgenden Normalformen kartesisch aquivalent:
Typ 1. P (x) = d1x21 + · · · drx2r,
Typ 2. P (x) = d1x21 + · · · drx2r + e mit e 6= 0,
Typ 3. P (x) = d1x21 + · · · drx2r + exr+1 mit e > 0.
Jeweils mit 0 ≤ r ≤ n und di 6= 0. Dabei ist r = Rang(A) und d1, . . . , dr sind die nicht-NullEigenwerte von A (mit Vielfach). Ferner gilt
(1) Zwei Normalformen sind genau dann aquivalent, wenn sie zum selben Typ (d.h. Typ1,2,3) gehoren, die Zahlen d1, . . . , dr bis auf Permutation die-selben sind und die Zahlene ubereinstimmen.
(2) Wenn man Q als Q(x) = xtAx schreiben mit xt = (1, x1, . . . , xn), dann gilt
Q hat Typ j ⇐⇒ Rang(A)− Rang(A) = j − 1.
Bemerkung.
a) Eine orthogonale Matrix S ∈ O(n) definiert eine Abbildung FS : Rn → Rn mit FS(x) =Sx, so dass 〈FS(x), FS(y)〉 = 〈x, y〉 fur alle x, y ∈ Rn. Insbesdondere erhalt FS Distanzen:
Eine Translation T : Rn → Rn (d.h. eine Abbildung der Form x 7→ x + v fur einenfesten Vektor v ∈ Rn) erhalt Distanzen auch. Eine Koordinatentransformation der Formx 7→ Sx + v mit S ∈ O(n) und v ∈ Rn erhalt Distanzen. Wenn Q und Q′ kartesischeaquivalent quadratische Polynome sind, dann gibt es eine Koordinatentransformation derForm x 7→ Sx+ v mit S ∈ O(n) und v ∈ Rn, die die Quadrik Z(Q) zu der Quadrik Z(Q′)nimmt. Eine Abbildung Rn → Rn, die Distanzen erhalt, heißt Isometrie.10
10z.B. siehe den Kurs Elementare Geometrie.
LINEARE ALGEBRA II: LEHRPLAN 31
b) Es gibt 4 Schritte, um ein quadratisches Polynom in Normalform zu schreiben:Schritt 1: orthogonale Diagonalisierung.Schritt 2: quadratische Ergazung.Schritt 3: lineare Terme kombinieren.Schritt 4: Translation.
Die Koordinatentransformationen in den Schritte 1 und 3 sind orthogonale Transforma-tionen und die Koordinatentransformationen in den Schritte 2 und 4 sind Translationen.
Beispiel. Fur
Q(x1, x2) = 5x21 + 5x22 + 8x1x2 − 1.
wollen wir eine Normalform finden. Der erste Schritt ist die orthogonale Diagonalisierung dersymmetrischen Matrix
A :=
(5 44 5
),
d.h. wir mussen eine orthonormale Basis von R2 von Eigenvektoren von A finden (eine solcheBasis existiert nach dem Spektralsatz fur symmetrische Matrizen). Es gilt χA(t) = t2−10t+9 =(t− 1)(t− 9) und deshalb sind 1 und 9 die Eigenwerte von A mit Eigenraume
Eig(A, 1) = Span
(1−1
)und Eig(A, 9) = Span
(11
).
Deshalb ist
A :=
{v1 :=
(1√2−1√2
), v2 :=
(1√21√2
)}
eine ON-Basis von R2 von Eigenvektoren und T := (v1|v2) ∈ O(2) mit T tAT = D := diag(1, 9).Sei S = T t so dass A = StDS und
Q(x) = xtAx− 1 = xtStDSx− 1 = (Sx)tD(Sx)− 1.
Dann Q(x) ist kartesisch aquivalent zu Q′(x) := xtDx − 1, da Q′(Sx) = Q(x) (oder Q′(x) =Q(Tx)). Das quadrisches Polynom Q′ ist schon in Normalform, deshalb mussen wir keine Trans-lation machen. Die Quadrik Z(Q′) = {x : x21 + 9x22 = 1} ⊂ R2 ist eine Ellipse. Die orthogonaleMatrix T ist eine Drehung durch π/4 und deshalb ist Z(Q) die Drehung von Z(Q′) durch π/4.
Korollar. Jedes reelle quadratische Polynom Q in x1, . . . , xn ist genau zu einer der folgendenNormalformen affin (algebraisch) aquivalent:
Typ 1. P (x) = x21 + · · ·x2k − x2k+1 · · · − x2r mit 0 ≤ k ≤ r ≤ n,
Typ 2. P (x) = x21 + · · ·x2k − x2k+1 · · · − x2r + e mit 0 ≤ k ≤ r ≤ n und e 6= 0,
Typ 3. P (x) = x21 + · · ·x2k − x2k+1 · · · − x2r − xr+1 mit 0 ≤ k ≤ r ≤ n,
wobei r = Rang(A) und sign(A) = k − (r − k) = 2k − r.
Beispiel. Fur n = 2 konnen wir alle Quadriken
Q(x) = xtAx = xtAx+ btx+ c
klassifizieren (bis auf affinen Aquivalenz): seien r = Rang(A), r = Rang(A) und s = sign(A),
s = sign(A) und k = (sign(A) + Rang(A))/2. Dann haben wir die folgende Tabelle:
32 VICTORIA HOSKINS
r r s s k k Typ Polynom Q(x, y) (in NF) Quadrik Z(Q) ⊂ R2
2 2 2 2 2 2 I x2 + y2 Punkt2 2 0 0 1 1 I x2 − y2 2 sich schneidende Geraden2 2 -2 -2 0 0 I −x2 − y2 Punkt2 3 2 1 2 0 II x2 + y2 − 1 Ellipse2 3 0 1 1 1 II x2 − y2 + 1 Hyperbel2 3 2 3 2 3 II x2 + y2 + 1 ∅1 1 1 1 1 1 I x2 Doppelte Gerade1 2 1 0 1 1 II x2 − 1 2 parallele Geraden1 2 1 2 1 2 II x2 + 1 ∅1 3 1 -1 1 1 III x2 − y Parabel0 0 0 0 0 0 I 0 R2
0 1 0 1 0 1 II 1 ∅0 2 0 2 0 2 III x Gerade
4. Ringe und Moduln[02.07.18]
4.1. Unterringe und Ideale. Zur Erinnerung: Ein Ring ist eine Menge R mit zwei Ver-knupfungen + : R × R → R und · : R × R → R so dass, (R, ·) eine abelsche Gruppe istmit neutralem Element 0R, die Multiplikation · assoziativ ist, die Distributivgesetze gelten. DerRing R heißt
• kommutativ, falls die Multipliktation kommutativ ist (d.h. r1 · r2 = r2 · r1 fur aller1, r2 ∈ R).• Ring mit Eins, falls die Multiplikation ein Neutralelement 1R ∈ R hat (d.h. r · 1R = r =
1R · r fur alle r ∈ R).
Beispiele
(1) (Z,+, ·) ist ein kommutativer Ring mit 1.(2) Zn mit der modularen Addition und Multiplikation ist ein kommutativer Ring mit 1.(3) Jeder Korper ist ein kommutativer Ring mit 1.(4) Fur einen Korper K ist die Menge aller Polynome K[t] ein kommutativer Ring mit 1.(5) Matn×n(K) ist ein Ring mit 1 (die Einheitsmatrix). Matn×n(K) ist genau dann kom-
muativ, wenn n = 1.(6) Fur einen Vektorraum V uber einem Korper K ist die Menge aller linearen Endomor-
phismen EndK(V ) ein Ring mit Eins, wobei die Multiplikation die Komposition ist. Dasneutralelement fur die Multiplikation ist die Identitat IdV : V → V . Im allgemeinen istEndK(V ) nicht kommutativ, da f ◦ g 6= g ◦ f .
(7) Der Nullring {0} ist ein kommutativer Ring mit Eins mit 0 = 1. Wenn R 6= {0} ein Ringmit Eins ist, dann gilt 1 6= 0 (Fur a ∈ R \ {0} gilt 1 · a = a 6= 0 = 0 · a, also folgt 1 6= 0).
Definition. Eine Abbildung ϕ : R → S zwischen Ringen (R,+R, ·R) und (S,+S , ·S) ist einRinghomomorphismus, wenn fur alle r1, r2 ∈ R
(1) ϕ(r1 +R r2) = ϕ(r1) +S ϕ(r2),(2) ϕ(r1 ·R r2) = ϕ(r1) ·S ϕ(r2).(3) (Falls R und S Ringe mit Eins sind) ϕ(1R) = ϕ(1S).
Ein bijektiver Ringhomomorphismus heißt Ringisomorphismus.
Beispiel.
(1) Die Identitat IdR : R→ R ist ein Ringhomomorphismus.(2) Wenn ϕ : Z → Z ein Ring homomorphismus ist, dann ist ϕ(1) = 1. Es folgt, dass
ϕ(r) = r (nach Induktion).(3) Die Abbildung ϕ : Z→ Zn mit x 7→ x mod n ist ein Ringhomomorphismus.
LINEARE ALGEBRA II: LEHRPLAN 33
(4) Die Abbildung ϕ : C→ Mat2×2(R) mit
ϕ(a+ ib) =
(a b−b a
)ist ein Ringhomorphismus.
Bemerkung. Fur einen Ringhomomorphismus ϕ : R→ S gilt
(1) ϕ(0R) = ϕ(0S) (nach dem ersten Axiom),(2) ϕ(−r) = −ϕ(r) fur r ∈ R (nach dem ersten Axiom),(3) Die dritte Bedingung ϕ(1R) = ϕ(1S) folgt nicht aus den anderen Axiomen (z.B. Seien
R = {0} und S = Z, dann gelten die erste und zweite Bedingungen fur die Nullabbildungϕ : R→ S, aber ϕ(1R) = ϕ(0R) = 0Z 6= 1Z).
(4) ϕ ist genau dann injektiv, wenn ker(ϕ) = {0R} (nach dem ersten Axiom),(5) Wenn ϕ bijektiv ist, dann ist ϕ−1 : S → R auch ein Ringhomomorphismus.
Definition. Sei (R,+, ·) ein Ring.
a) Ein Unterring von R ist eine Teilmenge S ⊂ R, so dass S mit der Einschrankung derAddition und Multipliktation von R ein Ring ist. Wenn R ein Ring mit Eins ist, soll einUnterring S auch das neutralelement 1R erhalten.
b) Ein Ideal von R ist eine Teilmenge I ⊂ R, so dass (I1) -(I2) gelten:(I1) I ist eine Untergruppe von (R,+),(I2) Fur i ∈ I und r ∈ R gilt r · i ∈ I und i · r ∈ I.
Ein Unterring S ⊂ R (bzw. Ideal I ⊂ R) heißt echt wenn S 6= R (bzw. I 6= R).
Bemerkung. [04.07.18]
(1) Eine Teilmenge S eines Rings R (mit Eins) ist genau dann ein Unterring, wenn S unterdie Subtraktion − und die Multiplikation · abgeschlossen ist (und 1 ∈ S).
(2) Wenn R kommutativ ist, dann ist (I2) aquivalent zu(I2’) ∀i ∈ I, r ∈ R : r · i ∈ I.
Fur einen nicht kommutativen Ring R gibt es Begriffe von Linksideale und Rechtsideale(aber in dieser Einfuhrung werden wir nicht diese Begriffe benutzen).
(3) Ein Ideal ist eine Untergruppe von (R,+), die unter Links- und Rechtsmultiplikationvon Elemente aus R abgeschlossen ist. Insbesondere ist I unter − und · abgeschlossenist (also fur Ringe ohne Eins ist jedes Ideal ein Unterring).
Ubung. Sei R 6= {0} ein kommutativer Ring mit Eins. Beweisen Sie, dass R genau dann einKorper ist, wenn die einzigen Ideale (von R) genau {0R} und R sind.
Beispiel.
(1) R und {0R} sind immer Ideale von R. Wenn R 6= {0} ein Ring mit Eins ist, dann ist{0R} kein Unterring von R.
(2) Sei I ein Ideal von R. Wenn 1 ∈ I, folgt I = R.(3) Der Ring R = Z hat keine echten Unterringe: die Untergruppen von (Z,+) sind genau
die Teilmengen nZ fur n ∈ N, aber 1 ∈ nZ genau dann, wenn n = 1. Allerdings sind dieUntergruppen nZ Ideale: fur r ∈ Z und na ∈ nZ gilt
r · na = n(ra) ∈ nZ.
(4) Die Teilmenge Z des Rings (Q,+, 0) ist ein Unterring aber kein Ideal: 1 ∈ Z und 12 ∈ Q,
aber 12 · 1 /∈ Z).
Ubung. Sei R ein kommutativer Ring mit Eins. Beweisen Sie, dass jedes Ideal I von Matn×n(R)die Form I = Matn×n(J) fur ein eindeutig bestimmtes Ideal J von R hat.
34 VICTORIA HOSKINS
Satz 4.1. Sei ϕ : R→ S ein Ringhomomorphismus. Dann gilt
(1) Das Bild von ϕ ist ein Unterrring von S.(2) Fur einen Unterring R′ ⊂ R ist ϕ(R′) ein Unterring von S.(3) Der Kern ker(ϕ) ist ein Ideal von R.(4) Fur ein Ideal J ⊂ S ist das Urbild ϕ−1(J) ein Ideal von R.
Beispiel.
(1) Fur den Ringhomomorphismus ϕ : Z→ Zn mit x 7→ x mod n ist
ker(ϕ) = {a ∈ Z : a ≡ 0 mod n} = nZ.
und Bild(ϕ) = Zn.(2) Sei K ein Korper und λ ∈ K. Dann ist die Abbildung ϕ : K[t]→ K mit
Satz 4.2. Sei I ein Ideal eines Rings R. Dann gilt
(1) Die Menge R/I := {r + I : r ∈ R} ist ein Ring mit den folgenden Addition undMultiplikation:
(r + I) + (r′ + I) := r + r′ + I (r + I) · (r′ + I) = r · r′ + I
und das Nullelement is 0R + I = I.(2) Wenn R kommutativ ist (bzw. ein Ring mit Eins ist), dann ist R/I kommutativ (bzw.
ein Ring mit Eins).(3) Die Abbildung π : R → R/I, die durch r 7→ r + I definiert wird, ist ein surjektiver
Ringhomomorphismus mit ker(π) = I.(4) Die Abbildung
α : {Ideale J von R/I} → {Ideale M von R mit I ⊂M}J 7→ π−1(J)
ist bijektiv mit der Umkehrfunktion M 7→ π(M).
Ubung. Fur R = Z und I = nZ mit n ∈ N ist Z/nZ = {x + nZ : x ∈ Z} ∼= Zn. Was sind dieIdeale von Z/nZ?
Satz 4.3. (Homomorphiesatz fur Ringe) Sei ϕ : R → S ein Ringhomomorphismus. Dann gibtes einen Ringisomorphismus
ϕ : R/ ker(ϕ)→ ϕ(R)
mit ϕ ◦ π = ϕ, wobei π : R→ R/ ker(ϕ) der naturliche surjektive Ringhomomorphismus ist.
Definition. Sei R ein kommutativer11 Ring.[09.07.18]
(1) Fur r ∈ R definieren wir das von r erzeugte Ideal
〈r〉 = rR := {r · s : s ∈ R}.
Ideale von R der Form 〈r〉 werden Hauptideale genannat.(2) Fur eine Teilmenge A ⊂ R definieren wir das von A erzeugte Ideal
〈A〉 = {n∑i=1
riai : n ∈ N, ri ∈ R, ai ∈ A}.
11Die Definition fur nicht kommutative Ringe ist ein bisschen mehr kompliziert
LINEARE ALGEBRA II: LEHRPLAN 35
Ubung. Der Durchschnitt einer Familie von Idealen eines Rings R ist ein Ideal. Fur eineTeilmenge A eines kommutativen Rings R die Menge 〈A〉 ist eine Ideal von R und es gilt
〈A〉 =⋂
A⊂J⊂RJ Ideal
J,
und 〈A〉 ist das kleinste Ideal in R, das A enthalt.
Beispiel.
(1) Fur einen kommutativen Ring mit Eins ist 〈1R〉 = R.(2) Fur R = Z ist 〈n〉 = nZ.
4.2. Moduln. Zur Erinnerung: Ein Vektorraum uber einem Korper K ist eine abelsche Gruppe(V,+) mit einer Skalarmultiplikation · : K × V → V so dass i) λ · (µ · v) = (λ · µ) · v fur allev ∈ V und µ, λ ∈ K und ii) 1K · v = v fur alle v ∈ V und iii) die Distributivegesetze gelten.
Definition. Sei R ein Ring mit Eins. Ein R-(Links)modul ist eine abelsche Gruppe (M,+) miteiner Abbildung
· : R×M →M,
die Skalarmultiplikation genannt wird, so dass fur a, b ∈ R und m,n ∈M gilt
i) a · (b ·m) = (ab) ·m,ii) 1R ·m = m,
iii) Die Distributivegesetze: (a+ b) ·m = a ·m+ b ·m und a · (m+ n) = a ·m+ a · n.
Beispiel.
(1) Sei R = K ein Korper. Dann sind K-Moduln genau die K-Vektorraume.(2) Jede abelsche Gruppe (G,+) ist ein Z-Modul mit Skalarmultiplikation · : Z×G→ G
n · g :=
g + · · ·+ g (n mal) wenn n > 00G wenn n = 0(−g) + · · ·+ (−g) (n mal) wenn n > 0
Umgekehrt ist jeder Z-Modul eine abelsche Gruppe nach die Axiome oben. Zum Beispielsind die abelsche Gruppen (Z/nZ,+) Moduln uber Z.
(3) Sei V ein endlichdimensionaler Vektorraum uber einem Korper K und f ∈ EndK(V ).Dann ist V ein K[t]-Modul mit der Skalarmultiplikation K[t]× V → V
P (t) · v := P (f)(v).
(4) Ein Ideal eines Ring R ist ein Modul, wobei die Skalarmultiplikation R × I → I dieEinschrankung der Multiplikation auf R ist.
(5) Fur einen R-Modul M ist ein Untermodul eine Teilmenge N ⊂M , die eine Untergruppevon (M,+) ist, so dass r · n ∈ N fur alle r ∈ R und n ∈ N . Jeder Untermodul ist auchein R-Modul.
Ubung. Sei R ein Ring und (Ni)i∈I eine Familie von Untermoduln eines R-Moduls M . Dannist auch der Durchschnitt ∩i∈INi ein Untermodul von M .
Definition. Seien M und N zwei R-Moduln. Eine Abbildung ϕ : N →M heißt Homomorphis-mus von R-Moduln (oder R-linear), wenn
(1) ϕ(n1 + n2) = ϕ(n1) + ϕ(n2) fur alle n1, n2 ∈ N(2) ϕ(r · n) = r · ϕ(n) fur alle n ∈ N und r ∈ R.
Der Kern von ϕ ist ker(ϕ) = {n ∈ N : ϕ(n) = 0M} und das Bild ist Bild(ϕ) := ϕ(N) ⊂M . DerCokern ist Coker(ϕ) := M/Bild(ϕ) = M/ϕ(N).
36 VICTORIA HOSKINS
Beispiel. Sei R = Z und N = M = Z. Dann ist ϕ : Z → Z mit ϕ(m) = n ·m ein Homomor-phismus von Z-Moduln (aber kein Ringhomomorphismus) mit
ker(ϕ) = {0} und Bild(ϕ) = nZ und Coker(ϕ) = Z/nZ.
Bemerkung. Sei M ein R-Modul und N ⊂M ein Untermodul. Dann gilt
(1) Die Quotientengruppe M/N := {m+N : m ∈M} mit der Skalarmultiplikation
r · (m+N) := rm+N
fur r ∈ R und m+N ∈M/N bildet einen R-Modul.(2) Die Abbildung π : M → M/N mit π(m) := m + N ist ein surjektiver R-Modul-
Homomorphismus mit ker(π) = N .
Bemerkung.(Homomorphiesatz fur Moduln). Sei ϕ : N → M ein Homomorphismus von R-Moduln. Dann gilt
(1) ker(ϕ) := {n ∈ N : ϕ(n) = 0} ist ein Untermodul von N .(2) Bild(ϕ) ist ein Untermodul von M .(3) Coker(ϕ) hat die Struktur eines R-Moduls, so dass M → Coker(ϕ) ein Homomorphismus
von R-Moduln ist.(4) Es gibt einen Isomorphismus von R-Moduln ϕ : N/ ker(ϕ)→ Bild(ϕ) so dass ϕ ◦ π = ϕ
fur π : N → N/ ker(ϕ).
4.3. Basen. Jeder K-Vektorraum hat eine Basis (sogar unendlichdimensionale Vektorraume,wenn wir das Axiom der Wahl annehmen). Diese Eigenschaft gilt jedoch nicht fur Moduln: Esgibt viele Moduln, die keine Basis haben. Dieser Unterschied ist der erste große Unterschiedzwischen Vektorraumen und Moduln.
Definition. Sei M ein Modul uber einem Ring R und A ⊂ M eine Teilmenge. Der von Aerzeugte Untermodul 〈A〉 von M ist der kleinste Untermodul von M , der A enthalt, d.h.
〈A〉 =⋂
A⊂N⊂MN Untermodul
N.
Die Teilmenge A heißt Erzeugendensystem von M , wenn 〈A〉 = M . Wenn A endlich ist mit〈A〉 = M , dann heißt M endlich erzeugt.Bemerkung. Es gilt
〈A〉 =
{n∑i=1
riai : n ∈ N, ri ∈ R und ai ∈ A
}.
Beispiel.
(1) Fur einen Korper K, einen K-Vektorraum V und A ⊂ V gilt
〈A〉 = Span(A).
(2) Sei R = Z und M = Z/nZ. Dann ist 1 +mZ ein Erzeugendensystem von M .(3) Sei R = Z. Das Element 2 + 4Z ∈ Z/4Z erzeugt den Untermodul 〈2 + 4Z〉 = {0 +
4Z, 2 + 4Z} von Z/4Z. Dieser Untermodul ist eine Untergruppe von Z/4Z, die isomorphzu Z/2Z ist.
Definition. Sei M ein R-Modul und (mi)i∈I eine Familie von Elementen von M .
(1) Die Familie (mi)i∈I heißt linear unabhangig, wenn fur jede endliche Teilmenge J ⊂ Igilt ∑
j∈Jrjmj = 0 mit rj ∈ R =⇒ rj = 0 fur alle j ∈ J.
(2) Die Familie (mi)i∈I heißt Erzeugendensystem von M, wenn 〈{mi : i ∈ I}〉 = M .
LINEARE ALGEBRA II: LEHRPLAN 37
(3) Eine Basis von M ist eine lineare unabhangig Familie (mi)i∈I von Element von M , dieM erzeugt.
(4) M heißt frei, wenn M eine Basis besitzt.
Beispiel.
(1) Rn ist ein freier R-Modul mit Basis A = {e1, . . . , en}, wobei ei = (0, . . . , 0, 1, 0, . . . , 0)mit der 1 an i-ter Stelle.
(2) Sei K ein Korper. Jeder K-Vektorraum ist ein freier K-Moduln.(3) Nicht jeder R-Modul ist frei: Sei R = Z und M = Z/nZ. Fur m = a + nZ ∈ M gilt
n ·m = n · a+ nZ = 0 + nZ. Daher ist die Menge {m} linear abhangig.
Satz 4.4. Sei A := {m1, . . . ,mn} eine endliche geordnete Teilmenge eines R-Modul M . Danngibt es einen Homomorphismus von R-Moduln
ϕA : Rn → M(r1, . . . , rn) 7→
∑ni=1 ri ·mi.
Ferner gilt
i) A ist genau dann ein Erzeugendensystem von M , wenn ϕA surjektiv ist.ii) A ist genau dann linear unabhangig, wenn ϕA injektiv ist.
iii) A ist genau dann eine Basis von M , wenn ϕA bijektiv ist.
Wenn M ein endlich erzeugter freier R-Modul ist, dann gibt es n ∈ N mit M ∼= Rn.
Literatur
• S. Bosch, Lineare Algebra, 4. Auflage, Springer-Verlag, 2008.• G. Fischer, Lineare Algebra: Eine Einfuhrung fr Studienanfanger (vieweg studium;
Grundkurs Mathematik),2013.• W. Klingenberg, Lineare Algebra und Geometrie, Springer-Verlag, 1984.• S. Lang, Introduction to linear algebra, Second edition, Springer, 1986.• S. Lang, Linear Algebra, Third edition, Springer, 1987.• J. Liesen und V. Mehrmann, Lineare Algebra, Vieweg, 2011.