Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung Eine Zusammenfassung basierend auf dem Skript “Lineare Algebra f¨ ur Ingenieure” von Prof. H. Kn¨ orer und “Lineare Algebra” von K. Nipp. Der Verfasser dieses Dokuments garantiert auf keinen Fall f¨ ur die Richtigkeit nachstehender Formeln und kann nicht zur Rechenschaft gezogen werden. Nat¨ urlich hat er nicht willentlich Fehler eingebaut. Es kann sein, dass diese Zusammenfassung l¨ anger ist als die erlaubte Anzahl Seiten. Wer die verschiedenen Tafeln und Bilder kopieren will, soll dies ohne Nachfrage machen. 1
17
Embed
Lineare Algebra - Zusammenfassungpeople.ee.ethz.ch/~xiaozhan/old_website/Jahr1/LinAlgZsfg.pdf · Lineare Algebra - Zusammenfassung Xiaojing George Zhang 15. Februar 2008 Zusammenfassung
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Lineare Algebra - Zusammenfassung
Xiaojing George Zhang
15. Februar 2008
Zusammenfassung
Eine Zusammenfassung basierend auf dem Skript “Lineare Algebra fur Ingenieure” von Prof. H.Knorer und “Lineare Algebra” von K. Nipp.
Der Verfasser dieses Dokuments garantiert auf keinen Fall fur die Richtigkeit nachstehender Formelnund kann nicht zur Rechenschaft gezogen werden. Naturlich hat er nicht willentlich Fehler
eingebaut. Es kann sein, dass diese Zusammenfassung langer ist als die erlaubte Anzahl Seiten. Werdie verschiedenen Tafeln und Bilder kopieren will, soll dies ohne Nachfrage machen.
2. Addieren eines Vielfachen einer Zeile zu einer anderen
3. Multiplizieren einer Zeile mit einem Faktor λ 6= 0
� Eliminationsschritt: lineares Gleichungssystem (erweiterte Koeffizientenmatrix) in Zeilenstufenform(ZSF, Dreiecksgestalt) bringen
� Losen der Gleichungen durch ruckwartseinsetzen oder ZSF in NZSF bringen und Ergebnis ablesen.
� Vergtraglichkeitsbedingungen bei 000|b1 + b2 + b3 uberprufen → freie Parameter treten auf, woin einer Zeile kein Pivot steht
� Rang r des LGS: Anzahl der Zeilen der Koeffizientenmatrix mit Kopf = max. Anzahl lin. unabh.Zeilen/Spalten
� freie Parameter: n− r, hat die Zeile ai keinen Kopf, so ist xi ein freier Parameter
� normierte Zeilenstufenform: Jeder Kopf der NZSF ≡ 1 und uber jedem Kopf stehen nur noch0 → Resultat direkt ablesbar
1.2 Existenz einer Losung
� RangA < Rang([A|~b]): keine Losung
� r = n: LGS hat eine eindeutige Losung
� r = m oder r < m und Vertraglichkeitsbedingungen erfullt: mind. eine Losung
� r < m und Vertraglichkeitsbedingungen nicht erfullt: keine Losung
� ein homogenes LGS hat genau dann nicht triviale Losungen, wenn r < n ist→ (n-r) freie Parameter
� Ist r < m, so lasst sich das LGS nicht fur beliebige Seite losen (Vertraglichkeitsbedingungen)
� Ein lin. Gleichungssystem ist genau dann fur beliebige rechte Seite losbar, wenn das dazugehorigehomogene System nur die triviale Losung xi = 0 ∀i besitzt.
2 MATRIZEN 4
Gleichungs‐system
A: m x n A: n x n
Ax = c Ax = c Ax = 0
Rang(A) = Rang (A|c) = r
Rang(A) < Rang(A|c) det A ≠ 0 det A = 0 det A ≠ 0 det A = 0
Rang(A) = Rang(A|c)
= r < n
triviale Lsg
x = 0Rang(A) ≠ Rang(A|c)
(n ‐ r) freie Parameterr = n r < n keine Lsg eindeutige Lsg
(n ‐ r) freie Parameter
(n ‐ r) freie Parametereindeutige Lsg keine Lsg
2 Matrizen
2.1 Definitionen
Matrix: Eine m × n-Matrix hat m Zeilen und n Spalten.obere Dreieckmatrix: aij = 0, i > juntere Dreieckmatrix: aij = 0, i < jDiagonalmatrix: aij = 0, i 6= j, = diag(x11, . . . , xnn), wobei
diag(a11, . . . , ann) · diag(b11, . . . , bnn) = diag(a11b11, . . . , annbnn)Einheitsmatrix: In = En = diag(1, 1, . . . , 1)symmetrische Matrix: AT = A oder aij = ajiantisymmetrisch: A = −AT → aij = 0, i = j
adjungierte Matrix: A = aij ∈ Cn,n → A∗ := AT ↔ a∗ij := ajiselbst adjungierte: A = A∗ ↔ aij = ajiunitare Matrix: aij ∈ C→ A∗A = In ↔ A∗ = A−1
orthogonale Matrix: ATA = AAT = In ↔ AT = A−1. Eine orthogonale n × n-Matrix bildetein Bild langentreu ab. AB ist orthogonal, wenn A,B orthogonal sind, da(AB)TAB = In
Multiplikation: A(m× n) ·B(q × p) nur definiert fur n=q! AB =∑n
k=1(A)ik(B)kjSpur: Summe aller Diagonalelemente, wobei spur(AB) = spur(BA)
3 DETERMINANTEN 5
2.2 Inverse
AX = XA = In, A−1 := X X heisst Inverse der Matrix A. I−1
n = InSatz: Ist A invertierbar, so ist A~x = ~b fur jedes ~b losbar und A~x = ~0 hat nur die triviale Losung ~0. Eineinvertierbare Matrix heisst regular, sonst singular.Die Inverse kann mit dem Gauss (A|In) → (Im|A−1) bestimmt werden oder mit der folgenden Formel:
A−1 = 1detA
A1,1 . . . A1,n...
. . ....
An,1 . . . An,n
T
mit Ai,k := (−1)i+kSik(A) (was niemand tut)
Bsp: 2× 2-Matrix gilt: A =(a bc d
)→ A−1 = 1
det(A)
(d −b−c a
)
2.3 Rechenregeln fur Matrizen
Die Assoziativitat, Kommutativitat und Distributivitat gelten, wobei AB 6= BA und AIn = A !(AT )T = A (A+B)T = AT +BT (AB)T = BTAT (AB)−1 = B−1A−1 (A−1)T = (AT )−1
3 Determinanten
Jeder quadratischen Matrix kann ein reeller Wert zugewiesen werden, die Determinante det. Die Deter-minante einer n×n-Matrix ist das Volumen des von den Spaltenvektoren ∈ R aufgespannten Parallelepi-pedes. Das Vorzeichen ist die Orientierung der Spaltenvektoren relativ zu den Standardbasen.
3.1 Eigenschaften
1. Vertauschen von 2 Zeilen andert das Vorzeichen der Determinante
2. Wird ein Vielfaches einer Zeile zu einer anderen gezahlt, so bleibt die Determinante gleich.
3. Wird eine Zeile/Spalte mit λ multipliziert, so vervielfacht sich die Determinante um λ
4. Sind die Zeilen/Spalten linear abhangig oder besteht eine Zeile/Spalte nur aus Nullen, so istdet = 0.
5. Determinante einer Dreiecksmatrix ist das Produkt ihrer Diagonalelemente, detIn = 1
Vektorraum: Ein VR ist eine Menge von Objekten, wo eine Addition und eine Multiplikation mitreellen Zahlen definiert ist, ein neutrales Element (~0) existiert und Kommutativitat, Assoziativitatund Distributivitat gelten. Und dazu: ∀~a ∈ V ∃−~a ∈ V mit ~a+(−~a) = ~0. Dieselben Rechenregelngelten auch im Raum Rm,n aller Matrizen, im Raum R[x] aller Polynome und im Raum C[0, 1]aller stetigen Funktionen.
Bsp Vektorraume: Rn =
~x =
x1
x2...xn
|xi ∈ R
oder eine stetige Funktion C[a, b] im I = [a, b],
wobei bei beiden (f + g)(x) := f(x) + g(x) und (cf)(x) := cf(x) gelten, d.h. stetige Funktionen habenauch ”Vektoreigenschaften”wie ”Pfeile”.
i=1 xi~ai in Rn bezuglich der Basis ~a1,~a2, . . . ,~an
�
x1...xn
∈ R heisst Koordinatenvektor.
� Sei A = (~a1, . . . ,~ak) eine Matrix. Die max. Anzahl lin. unabh. Vektoren von A ist der Rang rdes Gauss-Endschemas. (~a1, . . . ,~ak)(x1, . . . , xk)T = 0. Seien ~ri1, ~ri2, . . . , ~rin die Pivot-Spalten desGauss-Endschemas. Dann sind die Vektoren ~ai1,~ai2, . . . ,~ain lin. unabh. und bilden eine Basis.
4 VEKTORRAUME VR 7
4.1 Teilraum / Unterraum
Ein Teilraum bildet selber wieder einen nicht leeren Vektorraum. U ⊂ V falls ∀~a,~b ∈ U,α ∈ R gilt:
1. ~a+~b ∈ U
2. α~a ∈ U
3. ~0 und U sind Teilraume von U
4. Sind U1, U2 ⊂ V , so sind auch U1 + U2 ⊂ V , U1 ∩ U2 ⊂ V und U1 ∩ U2 ⊂ V , aber U1 ∪ U2 6⊂ V .
Bsp: diff’bare Funktionen: C[a, b] = C(0)[a, b] ⊃ C ′[a, b] ⊃ C ′′
[a, b] ⊃ . . . ⊃ C(n)[a, b]
4.2 Linearkombination
~b = x1~a1 + x2~a2 + . . .+ xk~ak heisst Linearkombination ⊂ V mit ~ai ∈ V, xi ∈ R. Die Menge all dieserVektoren nennt man die lineare Hulle. Diese ist ein Teilraum von V .Linear Unabhangig: Wenn fur x1~a1 + x2~a2 + . . .+ xk~ak = 0 lediglich die triviale Losung x1 = x2 =. . . = xk = 0 existiert. Der Nullvektor ist immer linear abhangig.
4.3 Erzeugendensystem
Kann jeder Vektor ~b ∈ V als Linearkombination der Vektoren ~ai ∈ V dargestellt werden, so heissen ~aiein Erzeugendensystem des Vektorraums V : V = span{~a1,~a2, . . . ,~an}.V heisst endlichdimensional, wenn er ein Erzeugendensystem (~a1,~a2, . . . ,~an) besitzt, so dass V =span{~a1,~a2, . . . ,~an} gilt. Sonst ist er unendlichdimensional.
4.4 Basis
1. Seien ~a1,~a2, . . . ,~an ein Erzeugendensystem und linear unabhangig. Dann nennt man das Erzeu-gendensystem eine Basis. Eine Basis fur Polynome sind beispielsweise die Monome 1, x, x2, x3, . . .oder die Legendre Polynome P0(x) = 1, Pi(x) = 1
2ii!di
dxi (x2 − 1)i i > 0.
2. Legrend-Polynome sind orthogonal zueinander. |Pn| =√
22n+1 , P0(t) = 1, P1(t) = t, Pn+1(t) =
2n+1n+1 tPn(t)−
nn+1Pn−1(t) (rekursiv definiert).
3. Verschiedene Basen eines Vektorraumes bestehen aus gleich vielen Vektoren. Die Dimension vonV ist dimV = maximale Anzahl linear unabhangige Vektoren = Anzahl Elemente einer Basis.dim{~0} = 0.
4. Sei dimV = n. Mehr als n-Vektoren = linear abhangig; weniger als n-Vektoren = nicht erzeugend;bei n-Vektoren, die linear unabhangig und erzeugend sind → Basis.
Direkte Summe: Rn ⊕ Rm :=(~x~y
)mit dim = n+m
5 NORM, SKALARPRODUKT, GRAM-SCHMIDT 8
5 Norm, Skalarprodukt, Gram-Schmidt
5.1 Norm
Eine Vorschrift, die jedem Vektor ~a ∈ V eine reelle Zahl ||a|| zuordnet, heiss Norm/Lange in V .
� < ~u, ~u× ~v >= 0 Kreuzprodukt steht orthogonal zu ~u,~v
� ||~u× ~v||2 = ||~u||2 · ||~v||2− < ~u,~v >2
6 Lineare Abbildungen
L : ~x ∈ V (Urbild) 7→ ~y = F (~x) ∈W (Bildraum) heisst lineare Abbildung, falls gilt:
1. L(~x+ ~y) = L(~x) + L(~y) ∀~x, ~y ∈ V
2. L(α~x) = αL(~x) ∀α ∈ C/R, ∀~x ∈ V
Die lineare Struktur der Verktorraume bleibt somit erhalten. Bsp: Ableitung von Polynomen.L : ~x ∈ Rn 7→ ~y = L(~x) := A(~x) ∈ Rm , so ist A eine m× n-Matrix.
6.1 Bild und Kern
Sei L : ~x ∈ V n 7→ ~y = A~x ∈ V m linear.
1. Menge aller Vektoren, die auf Null abgebildet werden, heisst Kern der Matrix A, Kern(A):Kern(L) := {~x ∈ V |L(~x) = 0} ↔ Kern(A) := {~x ∈ V n|A~x = 0}
2. Menge aller Bildvektoren ~y ∈ V m heisst Bild der Matrix A, Bild(A),Bild(L) := {~y ∈W |∃~x ∈ V, dass ~y = L(~x)} ↔ Bild(A) := {~y ∈ V m|∃~x ∈ V n, dass ~y = A~x}
(a) Der Kern ist ein Teilraum von V n
(b) Das Bild ist ein Teilraum von V m
6 LINEARE ABBILDUNGEN 10
6.1.1 Dimension und LGS:
�~b ∈ Bild(A)↔ A~x = ~b losbar
� ~x ist genau dann ein Element vom Kern(A), wenn es A~x = 0 lost.
� dim(Kern(A)) = n− r
� dim(Bild(A)) = dim(Bild(AT )) = r Spalten, die nach dem Gauss-Endschema einen Kopfhaben
2. Variablen x1, x2, . . . , xn in r Kopfvariablen und n− r Nicht-Kopfvariablen unterteilen
3. 1. Nicht-Kopfvariable gleich 1 setzen und alle anderen gleich 0. Homogenes LGS losen→ 1. Basisvektor
4. 2. Nicht-Kopfvariable gleich 1 setzen und alle anderen gleich 0. Homogenes LGS losen→ 2. Basisvektor
5. usw. Man bekommt so n− r Basisvektoren des Kerns
6.1.3 Basis des Bildes
1. Matrix A in ZSF bringen
2. Kopfvariablen bestimmen
3. Die Spaltenvektoren von A, die zu einer Kopfvariablen gehoren, bilden eine Basis des Bildes
� Rang(A) = dim(Bild(A)) = Anzahl Kopfvariablen der Matrix A.
� Spaltenvektoren von A bilden ein Erzeugendensystem des Bildes von A.
6.1.4 Struktur des Losungsraumes
L~x = ~b, ~x0 sei eine Losung. Dann ist die Losungsmenge ~x0 +Kern(L) := {~x0 + ~n|~n ∈ Kern(L)}.Bsp: D sei der Differentialoperator, ~b = 2x + 1: partikulare Lsg: p0(x) = x2 + x, Kern von D: alleKonstanten → Losungsmenge: {x2 + x+ a|a ∈ R}
6.2 Vektorraumoperationen
� L,M ∈ L(V,W ) L+M
{V →W
~v 7→ L(~v) +M(~v)L,M mussen beide von V →W gehen.
� F : ~x ∈ V n 7→ ~y = A~x ∈ V m, G : ~y ∈ V m 7→ ~z = B~y ∈ V p
H : ~x ∈ V n 7→ ~z = H(~x) = G(F (~x)) ∈ V p, wobei H = G ◦ F H(~x) = (BA)(~x) = B(A(~x))Sofern die Abbildungen “passen”, gelten Assoziativitat und Distributivitat bei Multiplikation (Bild)
� L ∈ L(V, V ). L heisst invertierbar, falls ∃M ∈ L(V, V ), sodass M ◦L = L◦M = Iv (Identitat)→M =: L−1. Eine lineare Abbildung ist nur umkehrbar, wenn L regular ist.
7 KOORDINATEN UND DARSTELLENDE MATRIZEN 11
� injektiv: L ∈ L(V,W ) Jeder Bildvektor hat einen Urbildvektor:Kern(L) = {~0} ↔ dim(Kern(L)) =0
� surjektiv: L ∈ L(V,W ) Jeder Vektor im ZielraumW ist Bildvektor:Bild(L) = W ↔ dim(Bild(L)) =dim(W )
7 Koordinaten und darstellende Matrizen
7.1 Transformation der Koordinatenvektoren bei Basiswechsel
Ein Vektor hat unterschiedliche Koordinatenvektoren (x1, . . . , xn), je nachdem, auf welche Basis sie sichbeziehen. Siehe Abbildung 1.
Abbildung 1: Transformation der Koordinatenvektoren bei Basiswechsel
Konstruktion von S:
1. ~b1 ist Linearkombination der Basisvektoren B2 = {~c1, . . . ,~cn}. Die Koeffizienten sind die Koordi-naten von b1 bez. B2 und bilden den ersten Spaltenvektor von S.
2. ~b2 ist Linearkombination der Basisvektoren B2 = {~c1, . . . ,~cn}. Die Koeffizienten sind die Koordi-naten von b2 bez. B2 und bilden den zweiten Spaltenvektor von S.
3. dito.
7.2 Darstellung linearer Abbildungen durch Matrizen
V sei ein Vektorraum der Dimenstion n und L eine lineare Abbildung von V nach V . Siehe Abbildung 2.Konstruktion von LB:
3. Die Koeffizienten der 1. abgebildeten Basis ist 1. Spaltenvektor von LB.
4. Die Koeffizienten der 2. abgebildeten Basis ist 2. Spaltenvektor von LB.
5. dito.
8 ORTHOGONALE UND UNITARE ABBILDUNGEN, QR-ZERLEGUNG 12
Abbildung 2: Darstellende Matrix LB
7.3 Transformation der darstellenden Matrix bei Basiswechsel
Dieselbe lineare Abbildung wird durch verschiedene Matrizen dargestellt, falls sich diese auf verschiedeneBasen beziehen. Die erste darstellende Matrix kann somit in die zweite umgerechnet werden. SieheAbbildung 3
Abbildung 3: Transformation der darstellenden Matrix bei Basiswechsel
8 Orthogonale und Unitare Abbildungen, QR-Zerlegung
� R ist eine orthogonale Matrix, falls gilt: RTR = In (orthonormale Spaltenvektoren)
� Bild einer ONB unter einer orthogonalen Transformation ist eine ONB.
� Bsp: R(φ) =(
cosφ − sinφsinφ cosφ
)Drehung um φ mit R(φ1)R(φ2) = R(φ1 + φ2)
9 EIGENWERTE, EIGENVEKTOREN UND CHARAKTERISTISCHES POLYNOM 13
� Bsp: Spiegelung an ~e1-Achse: ~x 7→(
1 00 −1
)~x
� unitare Transformation: < U~x,U~y >=< ~x, ~y >
� U ist eine unitare Matrix, falls gilt: U∗U = In (Spaltenvektoren bildn Orthonormalbasis in Cn)
8.2 QR-Zerlegung
A = Q ·R, wobei dies ein einfaches Invertieren erlaubt
� A ∈ Rm,n: jede Matrix kann QR zerlegt werden: A = (~a1,~a2, . . . ,~an)
� Q ∈ Rm,m: quadratische orthogonale Matrix. Bekommt man, indem man das Gram-Schmidt-Verfahren auf A anwendet: Q = (~q1, ~q2, . . . , ~qn). Ist m > n, so muss man zu den Spalten nochm− n Vektoren wahlen, sodass man eine Basis im Raum Rm erhalt.
(d) Eigenvektoren, die zu verschiedenen Eigenwerten gehoren, sind orthogonal.
9.2 Eigenschaften
� Spur(A) = λ1 + . . .+ λn
� det(A) = λ1λ2 · . . . · λn
� Der Eigenvektor ~x zu λ spannt einen 1-dimensionalen Teilraum Vλ, span{~x} auf: α~x ist auchEigenvektor zum selben λ ∀α ∈ C\{0}.
10 DIAGONALISIERBARKEIT VON MATRIZEN 14
� Die Algebraische Vielfachheit von λ ist die “Multiplizitat“ von λ als Nullstelle.
� Die Geometrische Vielfachheit ist die Dimension des Eigenraumes Vλ zu einem λ.
� Geometrische Vielfachheit ≤ Algebraische Vielfachheit: tritt ein Eigenwert k-fach auf, so existierenmind. 1 hochstens aber k linear unabh. Eigenvektoren.
Symmetrische, selbstadjungierte (=hermetische), unitare, quadratische Matrizen sind diagonalisierbar
10.1 Eigenschaften
1. Eine (n × n)-Matrix A ist diagonalisierbar, falls eine inv’bare Matrix S ∈ C gibt, sodass MatrixD := S−1AS diagonal ist. ↔ Es gibt eine Basis von Eigenvektoren.
2. Spalten von S bestehen aus Eigenvektoren.
3. Matrizen mit n verschiedenen Eigenvektoren sind diagonalisierbar → D = diag(λ1, λ2, . . . , λn).
4. Ist A diagonalisierbar ↔ ∀ Eigenwerte gilt: algebraische = geometrische Vielfachheit.
5. Die Matrixdarstellung von A zur Basis bestehend aus Eigenvektoren ist diagonal
6. A = S−1DS ↔ Ak = S−1DkS
7. Ist A symmetrisch (A = AT ), so ist A mit einer Orthogonalmatrix diagonalisierbar
8. Ist A selbstadjungiert (AT = A), so ist A mit einer unitaren Matrix diagonalisierbar
9. Unitare Matrizen sind stets diagonalisierbar
10. Ist Am = 0, m ≥ 1, so ist A nicht diagonalisierbar.
10.2 Algorithmus fur S
1. Eigenwerte der (n× n)-Matrix mittels charakteristischem Polynom berechnen.