Institut für Angewandte und Numerische Mathematik KIT - Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Numerische Methoden für Differentialgleichungen Skript zur Vorlesung im Wintersemester 2018/2019 Christian Wieners Version vom 4. Februar 2019
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
nationales Forschungszentrum in der Helmholtz-Gemeinschaft
Institut für Angewandte und Numerische Mathematik
KIT - Universität des Landes Baden-Württemberg undnationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
Numerische Methoden für DifferentialgleichungenSkript zur Vorlesung im Wintersemester 2018/2019
Christian Wieners
Version vom 4. Februar 2019
Inhaltsverzeichnis
Einführung 1
1 Existenz und Eindeutigkeit der Lösung von Anfangswertaufgaben 6
2 Explizite Einschrittverfahren 14
3 Lineare Mehrschrittverfahren 29
4 Steife Differentialgleichungen 47
5 Randwertaufgaben (RWA) 72
6 Finite Differenzen-Verfahren 82
7 Variationsmethoden 104
Diese Vorlesung behandelt numerische Verfahren zur Behendlung von Anfangswert- undRandwertaufgaben in einer Raumdimension von gewöhnlichen Differentialgleichungen.Neben der Konstruktion der Verfahren wird im Wesentlichen die Konvergenzanalyse be-trachtet. Das Skript soll auch als Grundlage für weiterführende Vorlesungen zur numeri-schen Behandlung partieller Differentialgleichungen dienen.Der gesamte Stoff wurde aus Standard-Lehrbüchern zusammengestellt; die wesentlichenQuellen sind unten angegeben.Das Skript wurde 2009 von Herrn Johannes Ernesti erstellt und 2014 von Herrn MichaelErtel ergänzt. Ich danke beiden für die mühevolle TEX-Arbeit, und den vielen Studenten,die bei der Fehler-Korrektur geholfen haben.
Literatur
Deuflhard/Bornemann: Numerische Mathematik II, de Gruyter 2002Hanke-Bourgois: Grundlagen der Numerischen Mathematik, Teubner 2003Hairer/Nørsett/Wanner: Solving Ordinary Differential Equations I: Nonstiff Problems, Sprin-ger 2000Hairer/Nørsett/Wanner: Solving Ordinary Differential Equations II: Stiff and DifferentialAlgebraic Problems, Springer 2000
Einführung
Im ersten Teil der Vorlesung werden Anfangswertaufgaben (kurz AWA) untersucht. Sie istdurch eine Funktion f ∈ C([t0, t0 + T ] × RM ,RM) und einem Anfangswert u0 ∈ RM
gegeben. Dann suchen wir eine Lösung u ∈ C1([t0, t0 + T ],RM)
u(t) = f(t, u(t)) t ∈ (t0, t0 + T ),
u(t0) = u0.
Zur Einführung betrachten wir verschiedene Algorithmen für eine Aufgabe mit bekannterLösung. Daher beginnen wir mit der Betrachtung von einigen elementare Integrationsver-fahren für Anfangswertaufgaben für eine skalare lineare Differentialgleichung.
Beispiel (Radioaktiver Zerfall)Die Konzentration c(t) eines radioaktiven Stoffes für t ∈ [0, T ] erfüllt die Anfangswert-aufgabe
c(t) = −λc(t),c(0) = c0.
Dabei ist λ > 0 die Zerfallsrate und c0 > 0 die Anfangskonzentration.In diesem einfachen Beispiel kann man die Lösung explizit angeben:
c(t) = c0 · exp(−λt)
Anwendung: Bei der Radiokarbonmethode wird in einer organischen Substanz die Kon-zentration des Kohlenstoffisotops 14
6C bestimmt und daraus auf den Todeszeitpunkt desOrganismus geschlossen.Die Halbwertszeit von 14
6C wurde experimentell ermittelt und beträgt ca. 5730 Jahre. Da-mit gilt λ = ln(2)
5730, d.h.
c(5730) =c0
2= c0 · exp(−5730λ).
Wir betrachten die diskrete Approximation auf einem äquidistanten Gitter ∆ = t0, . . . , tNmit tn = nτ . Dabei sei τ = T
Ndie Schrittweite auf ∆.
Für Konvergenzbetrachtungen schreiben wir auch τN = τ und tN,n = tn.Die Gitterfunktion cN : ∆ → R, tn 7→ cN(tn) = cnN lässt sich zu einem Polygonzug(linearer Spline) fortsetzen
cN(t) = cn−1N +
1
τN(t− tn−1)(cnN − cn−1
N ), t ∈ [tn−1, tn]
cN(t) =1
τN(cnN − cn−1
N ), t ∈ (tn−1, tn).
cN ist für tn ∈ ∆ nicht differenzierbar, aber cN ist Lipschitz-stetig, also existiert dieverallgemeinerte mengenwertige Ableitung
∂cN(tn) = conv
1
τ(cnN − cn−1
N ),1
τ(cn+1N − cnN)
.
Wir betrachten drei Möglichkeiten, die Ableitung c(tn) zu approximieren:
1
a) rechter Differenzenquotient 1τ(cn+1N − cnN),
b) linker Differenzenquotient 1τ(cnN − cn−1
N ),
c) zentraler Differenzenquotient 12τ
(cn+1N − cn−1
N ).
LemmaSei u ∈ C3([0, T ]), t ∈ (0, T ), h > 0 mit t− h, t+ h ∈ [0, T ]. Dann gelten
a) 1h(u(t+ h)− u(t)) = u(t) +O(h),
b) 1h(u(t)− u(t− h)) = u(t) +O(h),
c) 12h
(u(t+ h)− u(t− h)) = u(t) +O(h2).
Beweis für c). Die Taylorentwicklung liefert für ein s ∈ (t, t+ h) und ein s ∈ (t− h, t)
u(t+ h) = u(t) + u(t)h+1
2u(t)h2 +
1
6
...u(s)h3,
u(t− h) = u(t)− u(t)h+1
2u(t)h2 − 1
6
...u(s)h3.
Damit gilt durch Subtraktion der Gleichungen
u(t+ h)− u(t− h) = 2hu(t) +O(h3).
Wir setzen den Differenzenquotienten in c(t) = −λc(t) ein:
a) Explizites Eulerverfahren c(tn) ≈ 1τ(cn+1N − cnN)
c(tn+1) = c(tn) +
∫ tn+1
tn
c(t)dt ≈ c(tn)− τλc(tn)
⇒ cn+1N = cnN − τλcnN = (1− τλ)n+1c0
b) Implizites Eulerverfahren c(tn) ≈ 1τ(cnN − cn−1
Lösungsformel für die Dreitermrekursion Wir betrachten den Ansatz cnN = zn, z ∈ C.Dann folgt zn+1 = zn−1 − 2τλzn und es gilt für z 6= 0 : z2 = 1− 2τλz.Damit folgt z1/2 = −τλ± α, wobei α =
1) Konvergenz für τ = TN→ 0 (bzw. N →∞) an der Stelle t = T = tN .
a) Explizites Eulerverfahren
limN→∞
cN(T ) = limN→∞
(1− T
Nλ
)Nc0 = c0 exp(−λT ) = c(T ),
b) Implizites Eulerverfahren
limN→∞
cN(T ) = limN→∞
(1 +
T
Nλ
)−Nc0 = c0
1
exp(λT )= c(T ),
c) Explizite Mittelpunktregel
limN→∞
cN(T ) = c0 limN→∞
(1 + αN
2αNzN1 +
−1 + αN2αN
zN2
)= c0 lim
N→∞
(1− λ T
N
)N= c0 exp(−λT ) = c(T ),
da mit der Taylorentwicklung
αN =
√1 +
(T
N
)2
λ2 = 1 +1
2
T 2
N2λ2 + · · ·
gilt.
3
2) KonvergenzordnungDas Verfahren konvergiert mit der Ordnung p, wenn |c(tn)− cnN | = O(τ p), d.h.
∃C > 0, τ0 > 0 : |c(tn)− cnN | ≤ Cτ p, ∀τ < τ0.
a) Explizites Eulerverfahren
|c(t)− cnN | = c0
∣∣∣∣∣exp(−λtn)−(
1− tnλ
N
)N ∣∣∣∣∣= c0
∣∣∣1− λtn +1
2(λtn)2 − . . .
−
(1−N
(tnNλ
)+N(N − 1)
2
(tnNλ
)2
− . . .
)∣∣∣= c0
∣∣∣∣12λ2 t2n
N+ . . .
∣∣∣∣ = c0τ
∣∣∣∣12λ2tn + . . .
∣∣∣∣ = O(τ)
b) Implizites Eulerverfahren |c(tn)− cnN | = O(τ)
c) Explizite Mittelpunktregel |c(tn)− cnN | = O(τ 2)
3) StabilitätEin numerisches Verfahren heißt stabil, wenn die diskrete Approximation einer be-schränkten Lösung des kontinuierlichen Problems ebenfalls beschränkt bleibt.
a) Explizites EulerverfahrenIm Fall τλ ≤ 2 gilt Stabilität:
|cnN | = |1− τλ|n|c0| ≤ |c0|
Im Fall τλ > 2 ist das Verfahren instabil:
|cnN | = |1− τλ|n|c0| → ∞ (n→∞)
b) Das implizite Eulerverfahren ist stabil:
|cnN | = |1 + τλ|−n|c0| → 0 (n→∞)
c) Explizite MittelpunktregelFür festes τ und T →∞ gilt
limn→∞
|cnN | = c01− α
2αlimn→∞
|z2|n =∞.
Also ist das Verfahren nur für festes T und kleines τ stabil.
4) KonsistenzEin nummerisches Verfahren ist konsistent, wenn der lokale Fehler beim Einsetzen derexakten Lösung asymptotisch verschwindet.
Wir zeigen später, dass aus Konsistenz und Stabilität bereits Konvergenz folgt.
5) WohlgestelltEine Aufgabe ist sachgemäß gestellt (well-posed), wenn sie eindeutig lösbar ist unddie Lösung stetig von den Daten abhängt.
Tabelle 1: Radioaktiver Zerfall: Vergleich der Konvergenzordnung |c(tn) − cnN | =O(N−β) = O(hβN) im Zeitintervall [0, 5730].
N = 5 N = 100
Abbildung 1: Radioaktiver Zerfall: Stabilität der numerischen Approximation. Vergleichim Zeitintervall [0, 57300] für N = 5 und N = 100.
5
1 Existenz und Eindeutigkeit der Lösung von Anfangs-wertaufgaben
Gute Approximationen sind nur zu erwarten, wenn das kontinuierliche Problem eine ein-deutige Lösung besitzt, und wenn diese Lösung nicht zu empfindlich von den Daten ab-hängt (d.h. gut konditioniert ist).Eine Differentialgleichung (DGL) heißt sachgemäß gestellt, wenn die Lösung eindeutigist und stetig von den Daten abhängt.
Beispiel1) Die DGL u =
√1− u2 hat ohne Vorgabe der Anfangswerte die Lösungen
u(t) = sin(t+ c) (c ∈ R)
u(t) = ±1.
Betrachtet man verschiedene Anfangswerte, ergeben sich folgende Situationen:
a) u(0) = 0 liefert u(t) = sin(t) (eindeutig)
b) u(0) = 1 liefert u(t) = sin(t+ π
2
)oder u(t) = 1 (mehrdeutig)
c) u(0) = 2 ist nicht lösbar
2) Die DGL u = 1 + u2 mit Anfangswert u(0) = 0 hat die Lösung u(t) = tan(t) fürt ∈
(−π
2, π
2
). Die Lösung ist aber nicht in einem größeren Intervall I ⊃
(−π
2, π
2
)fortsetzbar. Wir haben keine Möglichkeit, das maximale Existenzinterval zu bestim-men, wenn wir die echte Lösung nicht kennen. Deshalb brauchen wir eine a-priori-Abschätzung, für welche t unsere Lösung sinnvoll ist.
3) Die DGL
u = 10
(u− t2
1 + t2
)+
2t
(1 + t2)2
hat für u(0) = u0 die Lösung
u(t) =t2
1 + t2+ u0e
10t.
Die Lösung dieser Differentialgleichung ist nicht stabil:Für u0 = 0 gilt limt→∞ u(t) = 1.Sobald u0 = ε 0 ist, folgt aber limt→∞ u(t) = −∞.Somit führen winzige Änderungen der Anfangswerte (selbst wenn sie nur von der Grö-ßenordnung der Rundungsfehler sind) in diesem Fall bereits zu beliebig großen Fehlernfür t 0.
Die folgende Theorie liefert uns Aussagen über Existenz, Eindeutigkeit und Qualität derLösung einer Anfangswertaufgabe, ohne dass wir sie dazu explizit berechnen müssen.
6
(1.1) DefinitionSeien t0 ∈ R, T > 0, G ⊂ RM ein Gebiet (offen und zusammenhängend), u0 ∈ G undf ∈ C([t0, t0 + T ]×G,RM) gegeben. Dann heißt u ∈ C1([t0, t0 + T ], G) mit
u(t) = f(t, u(t)) t ∈ (t0, t0 + T ),
u(t0) = u0.
Lösung der Anfangswertaufgabe (AWA) zu f und u0.
BezeichnungenFür z ∈ RM , u ∈ C([t0, t0+T ],RM) und v ∈ C1([t0, t0+T ],RM) verwenden wir folgendeNormen:
Mit ‖ · ‖∞ bzw. ‖ · ‖C1 ist C([t0, t0 + T ],RM) bzw. C1([t0, t0 + T ],RM) ein Banachraum.
(1.2) LemmaEs sind äquivalent:
a) u ∈ C1([t0, t0 + T ], G) löst (1.1).
b) u ∈ C([t0, t0 + T ], G) erfüllt
u(t) = u0 +
∫ t
t0
f(s, u(s)) ds für alle t ∈ (t0, t0 + T ) .
Beweis. “a)⇒ b)”: Sei u eine Lösung von (1.1). Dann gilt∫ t
t0
f(s, u(s)) ds =
∫ t
t0
u(s) ds = u(s)∣∣tt0
= u(t)− u0.
“b)⇒ a)”: Sei u eine Lösung der Integralgleichung aus b) und setze
v(t) := u0 +
∫ t
t0
f(s, u(s)) ds.
Dann ist v differenzierbar mit v(t) = f(t, u(t)) und v ist stetig, da f in t stetig ist. Außer-dem gilt nach Voraussetzung u ≡ v und deshalb löst u auch (1.1).
(1.3) LemmaSei f ∈ Ck([t0, t0 + T ]×G,RM) und für u ∈ C1([t0, t0 + T ], G) gelte
u(t) = f(t, u(t)) t ∈ [t0, t0 + T ]
Dann gilt u ∈ Ck+1([t0, t0 + T ], G).
7
Beweis. Sei k ≥ 1. Zeige induktiv für j = 1, . . . , k :u(j) = ( d
dt)ju löst u(j) = bj(t) + Aj(t)u
(j)(t) =: gj(t, u(j)(t))
mit bj ∈ Ck+1−j(I,RM), Aj ∈ Ck+1−j(I,RM×M) abhängig von u, u, . . . , u(j−1)
j = 1 : f ∈ C1, u ∈ C1, t 7→ f(t, u(t)) differenziebar mit
d
dtf(t, u(t)) = D1f(t, (u)) + D2f(t, u(t))︸ ︷︷ ︸
∈RM×M
u(t)
⇒ aus u(t) = f(t, u(t)) folgt u = b1(t) + A1(t)u(t)
j > 1 : wie oben
(1.4) LemmaZu f ∈ C([t0, t0 + T ]×G,RM), u0 ∈ G und R > 0 mit
BR(u0) :=z ∈ RM : |z − u0| ≤ r
⊂ G
setze
MR := max|f(t, z)| : t ∈ [t0, t0 + T ], z ∈ BR(u0)
.
Dann gilt für jede Lösung u von (1.1) die a-priori-Schranke
|u(t)− u0| ≤ (t− t0)MR ∀t ∈[t0, t0 + min
T,
R
MR
].
Beweis. Für eine Lösung u von (1.1) setze d(t) := |u(t) − u0|. Damit ist d stetig und esgilt d(t0) = 0.Es können zwei Fälle auftreten: Entweder es gilt
1) d(t) < r für t ≤ T =: t oder
2) es existiert ein t ∈ [t0, t0 + T ] mit d(t) = r und d(t) < r für alle t < t.
In beiden Fällen gilt u([t0, t]) ⊂ BR(u0).Nun gilt nach (1.2)
d(t) =
∣∣∣∣u0 +
∫ t
t0
f(s, u(s))ds− u0
∣∣∣∣ ≤ ∫ t
t0
|f(s, u(s))| ds
≤∫ t
t0
|f(s, u(s))|︸ ︷︷ ︸≤MR
ds ≤ (t− t0)MR .
Im Fall d(t) = r gilt r = d(t) ≤ (t− t0)MR und das liefert t ≥ t0 + RMR
.
Im Folgenden sei ohne Einschränkungen T ≤ t− t0. Dabei ist t von r und f abhängig.
8
(1.5) LemmaZu N ∈ N ist der Euler’sche Polygonzug uN ∈ C([t0, t0 + T ],RM) mit
(vektorwertiger linearer Spline durch die Werte unN = uN(tn))
Beweis. Der Beweis erfolgt analog zu (1.4).
(1.6) DefinitionSei uN ∈ C0,1([t0, t0 + T ],RM mit |uN(t)− uN(s)| ≤MR|t− s|d.h. ‖uN‖0,1,∞ ≤ max |u0|+R,MR
Beweis. Sei o.E. t < tn < . . . < tm < s
⇒ uN(t)− uN(s) =
∫ tn
t
˙uN(t) dt+m∑
k=n+1
∫ tk
tk−1
uN(t) dt+
∫ s
tm
uN(t) dt
analog wie in (1.4); uN(t) ∈ BR(u0)
⇒ |uN(t)− uN(s)| ≤ [(tn − t) +∑
(tk − tk−1) + (s− tm)]MR = (s− t)MR
(1.7) Folgerung (aus dem Satz von Arzelà-Ascoli)Jede beschränkte Folge (uN)N∈N ⊂ C0,1([t0, t0 + T ],RM) besitzt eine konvergente Teil-folge (uNk)k∈N ⊂ C([t0, t0 + T ],RM), d.h., es existiert ein u ∈ C([t0, t0 + T ],RM) mit
limk→∞‖uNk − u‖∞ = 0.
Beweis. Wir verwenden (wie im Satz von Arzelà-Ascoli), dass beschränkte Folgen in C0,1
gleichgradig stetig sind.Zunächst konstruieren wir eine Diagonalfolge.Dazu wähle eine dichte Folge s0, s1, . . . in [t0, t0 + T ].Dann wähle eine Cauchyfolge uN(s0)N∈I0=N00,N01,N02,... ⊂ BR(u0).Nun wähle rekursiv für k = 1, 2, . . . eine Cauchyfolge uN(sk)N∈Ik=Nk0,Nk1,Nk2,... ⊂Ik−1
.Dann zeige: uNkk ist Cauchyfolge in C([t0, t0 + T ],RM):für alle ε > 0 existiert ein K > 0 mit:
min|s− sm| : s ∈ [t0, t0 + T ],m ≤ K < ε
4MR
und
|uNkk(sm)− uNll(sm)| < ε
2k, l > K, m ≤ K
⇒ ‖uNkk − uNll‖∞ ≤ maxs∈[t0,t0+T ]
minm≤K|uNkk(sm)− uNll(sm)|
+|uNkk(sm)− uNkk(s)|+ |uNll(sm)− uNll(s)|
≤ ε
2+ 2|sm − s|MR = ε k, l ∈ K
9
BemerkungDie Einbettung von C0,1 nach C1 ist kompakt.
(1.8) Satz (Peano)Die Anfangswertaufgabe (1.1) besitzt eine Lösung in [t0, t0 + T ] für T ≤ R
MR
.
Beweis. Der Grenzwert u in (1.7) erfüllt die Anfangsbedingung u(t0) = u0. Wir müssennoch zeigen, dass der Grenzwert Lösung der Differentialgleichung ist.Als stetige Funktion ist f gleichmäßig stetig auf der kompakten Menge [t0, t0 + T ] ×BR(u0), d.h.
da |u(t)− uN(t)| ≤ ε und |u(s)− uN(s)| ≤ δ.Damit ist gezeigt, dass u die Integralgleichung (1.2) erfüllt und somit Lösung der AWAist. Ein analoges Argument zeigt nun, dass die gesamte Folge konvergiert.
Bemerkung1) Der Satz von Peano (1.8) garantiert keine Eindeutigkeit. Ein Beispiel dafür ist die
Anfangswertaufgabe u = 3u23 , u(0) = 0: Für jedes a ≥ 0 ist u(t) = max(t− a)3, 0
eine Lösungen der AWA.
2) Die Konvergenzgeschwindigkeit kann beliebig langsam sein.
(1.9) DefinitionEine Funktion f ∈ C([t0, t0 +T ]×G,RM) ist in der zweiten Komponente Lipschitz-stetigin G (erfüllt eine L-Bedingung), wenn ein L > 0 existiert mit
|f(t, y)− f(t, z)| ≤ L |y − z| ∀t ∈ [t0, t0 + T ], y, z ∈ G.
10
BeispielFür beschränktes G mit 0 ∈ G und α > 0 betrachte f(y) = |y|α. Dann erfüllt f genaudann eine Lipschitz-Bedingung, wenn α ≥ 1 gilt.
(1.10) LemmaSei f ∈ C1([t0, t0 + T ] × G,RM), G sei beschränkt und konvex. Dann erfüllt f eineL-Bedingung.
Beweis. Übungen.
(1.11) SatzSeien u, v ∈ C1([t0, t0 + T ], G) Lösungen von
u = f(t, u), v = f(t, v)
und f erfülle eine L-Bedingung. Dann gilt
|u(t)− v(t)| ≤ exp(L(t− t0))|u(t0)− v(t0)|.
Für den Beweis wird das Growall-Lemma (1.13) benötigt.
(1.12) FolgerungWenn f eine L-Bedingung erfüllt, dann ist die Lösung der Anfangswertaufgabe (1.1) ein-deutig, denn für zwei Lösungen u und v ist |u(t0)− v(t0)| = 0.
(1.13) Lemma (Gronwall)Seien d, a, b : [t0, t0 + T ] → R≥0 := s ∈ R : s ≥ 0 stückweise stetige Funktionen undsei b nicht fallend (d.h. b(t) ≥ b(s) für t ≥ s) mit
d(t) ≤ b(t) +
∫ t
t0
a(s)d(s) ds für alle t ∈ [t0, t0 + T ] .
Dann gilt
d(t) ≤ b(t) exp
(∫ t
t0
a(s) ds
)(∀t ∈ [t0, t0 + T ]).
Beweis. Definiere
φ(t) :=
∫ t
t0
a(s)d(s) ds, ψ(t) := d(t)− φ(t).
Damit gilt nach Voraussetzung ψ(t) ≤ b(t) und es folgen
Und daraus folgt schließlich mit b(t) := d(t0) und a(s) := 2L in (1.13)
d(t) ≤ d(t0) exp
(∫ t
t0
2L ds
)= d(t0) exp(2L(t− t0)),
was zu zeigen war.
BemerkungMit dem Satz von Peano erhält man die Existenz einer Lösung, und wenn f zusätzlich einerL-Bedingung genügt folgt mit dem Gronwall-Lemma die Eindeutigkeit der Lösung.
Alternativ beweist man Existenz und Eindeutigkeit mit dem Lemma von Picard-Lindelöff:
12
definiere u(0) ≡ u0, u(k) = F (u(k−1)) mit
F (v)(t) = u0 +
∫ t
t0
f(s, v(s)) ds
für LT < 1 ist F kontrahierend in C([t0, t0 + T ], G)⇒ u(k) konvergiert (Banachscher Fixpunktsatz)(1.2)⇒ Grenzwert ist Lösung der AWA (1.1)Stück für Stück lässt sich die Lösung bis an den Rand von G fortsetzten.
Beispiela) Lorenz-System
Das Lorenz-System in R3
u = f(u) mit f(u) =
−10u1 + 10u2
28u1 − u2 − u1u3
u1u2 − 83u3
, u(0) =
100
ist ein “chaotisches” dynamisches System. Dabei heißt “chaotisch”, dass für großeZeiten t ≥ t0 die Lösungen auch für nah beieinander liegende Anfangswerte völligverschieden sind. Es gelten:
a) Es existiert ein r > 0 mit u(t) ∈ BR(u0) für alle t ≥ t0. Daher kann T > 0 beliebiggroß gewählt werden.
b) f erfüllt eine L-Bedingung in BR(u0). Also ist die Lösung für alle Zeiten eindeutig,aber nicht berechenbar, denn exp(Lt) ist für große t zu groß.
b) ReaktionschemieBetrachte die Konzentrationen ui von Stoffen Xi mit Reaktionsraten ki:
X1k1−→ X2 Stoffabbau
X2 +X3k2−→ X1 +X3 Stoffumwandlung mit Katalysator X3
2X2k3−→ X3.
Das führt zu der Differentialgleichung
u1 = −k1u1 + k2u3u2
u2 = k1u1 − k2u3u2 − 2k3u2
u3 = 2k3u2.
c) Biologie: Räuber-Beute-ModellPopulation von Räubern u1 die von der Beute u2 leben- ohne Futter sterben die Räuber mit einer Rate kR- bei ausreichendem Futter für die Beute, vermehrt sie sich mit einer Rate kB- mit dem Beuteangebot vermehren sich die Räuber mit einer Rate α
u1 = −kRu1 + αu1u2
u2 = kBu2 − αu1u2
13
2 Explizite Einschrittverfahren
Explizite Runge-Kutta-Verfahren(2.1) DefinitionZur Funktion f ∈ C([t0, t0 + T ]×G,RM) definieren wir einen Fluss
φ : D ⊂ [t0, t0 + T ]× R≥0 ×G → G
φ(t, τ, z) := v(t+ τ),
wobei v ∈ C([t, t+ τ ], G) Lösung der Anfangswertaufgabe
v(s) = f(s, v(s)), s ∈ (t, t+ τ)
v(t) = z
ist.Dabei ist D die Menge der Werte (t, τ, z), für die φ wohldefiniert ist.
Im Folgenden setzen wir voraus, dass f eine L-Bedingung erfüllt. Dann ist der Fluss ein-deutig in einer Umgebung von t0×0×G ⊂ [t0, t0 +T ]×R≥0×G definiert, da nach(1.12) die Anfangswertaufgabe in diesem Fall eine eindeutige Lösung (zumindest für einkleines Zeitintervall) besitzt.
(2.2) DefinitionEin explizites Einschrittverfahren wird durch die Verfahrensfunktion
ψ : [t0, t0 + T ]× R≥0 ×G→ RM
definiert. Sie bestimmt den diskreten Fluss
φτ (t, τ, z) = z + τψ(t, τ, z).
Zu Schrittweiten τn = tn − tn−1 und u0 ∈ G definiere
un = un−1 + τnψ(tn−1, τn, un−1) = φτ (tn−1, τn, u
n−1).
Setze außerdem |τ | := maxn=1,...,N |τn|.
BeispielA) Explizites Euler-Verfahren
ψ(t, τ, z) = f(t, z).
B) Verfahren von Heun
k1 = f(t, z)
k2 = f(t+ τ, z + τk1)
ψ(t, τ, z) =1
2k1 +
1
2k2.
14
C) Klassisches Runge-Kutta-Verfahren
k1 = f(t, z)
k2 = f(t+
τ
2, z +
τ
2k1
)k3 = f
(t+
τ
2, z +
τ
2k2
)k4 = f(t+ τ, z + τk3)
ψ(t, τ, z) =1
6k1 +
1
3k2 +
1
3k3 +
1
6k4.
BemerkungIm Spezialfall f(t, z) = g(t) gilt
u(t+ τ)− u(t) =
∫ t+τ
t
u(s)ds =
∫ t+τ
t
g(s)ds
=
τg(t) +O(τ 2), Expl. Euler A)τ2
(g(t) + g(t+ τ)
)+O(τ 3) Trapezregel B)
τ6
(g(t) + 4g
(t+ τ
2
)+ g(t+ τ)
)+O(τ 4) Simpson-Regel C)
(2.3) DefinitionWir definieren
a) den globalen Fehler für eine Lösung u von (1.1) und eine Lösung un von (2.2) durch
en := u(tn)− un;
b) den lokalen Diskretisierungsfehler einer Lösung u von (1.1) durch
gn =1
τn
(u(tn)− u(tn−1)
)− ψ(tn−1, τn, u(tn−1)).
Bemerkunga) Der globale Fehler hängt von der Lösung im Intervall [t0, tn] ab.
b) Der lokale Diskretisierungsfehler misst den Unterschied von der Tangente an die Lö-sung zur Approximation mit der Verfahrensfunktion ψ. Es gilt
gn = g(tn−1, τn, u(tn−1)) mit
g(t, τ, z) =1
τ(φ(t, τ, z)− z)− 1
τ(φτ (t, τ, z)− z).
(2.4) DefinitionEin Einschrittverfahren heißt
a) konsistent, wenn für alle t ∈ [t0, t0 + T ], z ∈ G
limτ→0
g(t, τ, z) = 0,
15
b) konsistent von der Ordnung p, wenn
|g(t, τ, z)| = O(τ p),
c) konvergent, wenn
limτ→0
maxn|u(tn)− un| = 0,
d) konvergent von der Ordnung p, wenn
maxn|u(tn)− un| = O(|τ |p).
Dabei wird angenommen, dass die Lösung u hinreichend glatt ist.
BeispielA) Sei u zweimal stetig differenzierbar. Dann gilt:
Die Konsistenzordnung des expliziten Euler-Verfahrens ist p = 1:
gn =1
τ(u(tn)− u(tn−1))− f(tn−1, u(tn−1))
=1
τ
∫ tn
tn−1
(f(t, u(t))− f(tn−1, u(tn−1))
)dt
=1
τ
∫ tn
tn−1
(u(t)− u(tn−1)
)dt =
1
τ
∫ tn
tn−1
(∫ t
tn−1
u(s)ds
)dt
≤ 1
τ‖u‖∞
∫ tn
tn−1
(∫ t
tn−1
ds
)dt =
τ
2‖u‖∞.
B) Die Konsistenzordnung des Verfahrens von Heun ist p = 2.
C) Das klassische Runge-Kutta-Verfahren hat Konsistenzordnung p = 4.
(2.5) SatzWenn ein Λ > 0 existiert mit
|ψ(t, τ, z)− ψ(t, τ, y)| ≤ Λ|z − y| , ∀y, z ∈ G, t ∈ [t0, t0 + T ], τ0 > 0, τ ∈ [0, τ0],
BemerkungFür das explizite Euler-Verfahren gilt ψ(t, τ, z) = f(t, z) und Λ = L.
(2.6) FolgerungEin Verfahren der Konsistenzordnung p ist konvergent von der Ordnung p (falls der An-fangsfehler u0 − u(t0) ebenfalls von der Ordnung p ist).
16
(2.7) Hilfssatz (Diskretes Gronwall-Lemma)Seien δn > 0, ηn, zn ≥ 0 (n = 0, . . . , N ) mit zn ≤ (1 + δn)zn−1 + ηn (n = 1, . . . , N ).Dann gilt
zn ≤ z0 exp(∆n) +Mn
(exp(∆n)− 1
),
wobei
∆n =n∑k=1
δk, Mn = maxk=1,...,n
ηkδk.
Beweis. Wir führen einen Induktionsbeweis über n.n = 1: Es gilt wegen exp(x)− 1 ≥ x
bsks = P (τ)z, mit ks = Qs(τ)z Qs ∈ Ps−1, P ∈ PS−1.
19
Betrachte nun die Anfangswertaufgabe u = u, u(0) = 1, t0 = 0 mit der explizitenLösung u(t) = exp(t). Dann folgt
gn =1
τ
(exp(tn)− exp(tn−1)
)− P (τ) exp(tn−1)
=
[1
τ
(exp(τ)− 1
)− P (τ)
]exp(tn−1)
=
[∞∑k=1
τ k−1
k!− P (τ)
]exp(tn−1).
Also ist O(τS) optimal.
BemerkungFür die maximale Konsistenzordnung p von expliziten Runge-Kutta-Verfahren mit S Stufengilt
p 1 2 3 4 5 6 8 10S 1 2 3 4 6 7 11 18
AutonomisierungEine Anfangswertaufgabe
u = f(t, u), u(t0) = u0
ist äquivalent zu der Aufgabe
y = f(y), y(t0) = y0,
wobei y(t) =
(u(t)t+ t0
)∈ RM+1, f(y) =
(f(t, u(t))
1
)und y0 =
(u0
t0
)gelten.
Beachte, dass f nicht mehr explizit von t abhängt. Solche Anfangswertaufgaben heißenautonom.
Zu einem Runge-Kutta-Verfahren sei ψ die Verfahrensfunktion zu f und ψ die Verfahrens-funktion zu f .
(2.10) LemmaEin Runge-Kutta-Verfahren (mit bs 6= 0) erfüllt genau dann
(ψ(t, τ, z)
1
)= ψ
(t, τ,
(zt
)),
wenn es konsistent ist und wenn cs =∑S
r=1 asr für s = 1, . . . , S gilt.
(Invarianz gegen Autonomisierung)
20
Beweis. Es gilt ks = f(t+ csτ, z + τ
∑Sr=1 asrkr
)und damit
(ksΘs
)= f
((zt
)+ τ
S∑r=1
asr
(krΘr
))
=
(f(t+ τ
∑Sr=1 asrΘr, z + τ
∑Sr=1 asrkr
)1
)
Nun folgen Θs = 1 und(∑S
s=1 bsks1
)=∑S
s=1 bs
(ks1
)und damit folgen cs =
∑Sr=1 asr
und ks = ks.
Im Folgenden gelte stets cs =∑S
r=1 asr.
(2.11) SatzEin Runge-Kutta-Verfahren ist genau dann konsistent von der Ordnung
p = 1, wennS∑s=1
bs = 1, (1)
p = 2, wenn zusätzlichS∑s=1
bscs =1
2, (2)
p = 3, wenn zusätzlichS∑s=1
bsc2s =
1
3, (3)
∑r,s
bsasrcr =1
6, (4)
p = 4, wenn zusätzlichS∑s=1
bsc3s =
1
4, (5)
∑r,s
bscsasrcr =1
8, (6)
∑r,s
bsasrc2r =
1
12, (7)
∑r,s,t
bsasrartct =1
24. (8)
Beweis für p = 2. Es sei ohne Einschränkungen die Differentialgleichung autonom, alsou = f(u). Dann gilt
u(t) =d
dtf(u(t)) = f ′(u(t))u(t) = f ′(u(t))f(u(t)) =: f ′f .
21
Für z = u(t) gilt
ks = f
(z + τ
∑r
asrkr
)= f(z) + τf ′(z)
∑r
asrkr +O(τ 2)
= f + τf ′∑r
asrf +O(τ 2)
und somit
g =1
τ
(u(t+ τ)− u(t)
)−∑s
bsks
= f +1
2f ′fτ −
∑s
bs
(f + τf ′
∑r
asrf
)+O(τ 2) .
Setze cs :=∑
r asr. Dann folgt schließlich
g = O(τ 2) ⇐⇒ f
(1−
∑s
bs
)= 0 und f ′f
(1
2−∑s
bscs
)= 0.
Beispiel (Klassisches Runge-Kutta-Verfahren)Es gilt c1 = 0, c2 = c3 = 1
2, c4 = 1, b1 = 1
6, b2 = b3 = 2
6, b4 = 1
6. Damit sind sofort
(1), (2), (3), (5) in (2.11) erfüllt. Ferner folgt aus (4) und (6)
(4) : b3a32c2 + b4(a42c2 + a43c3) =1
6,
(6) : b3c3a32c2 + b4c4(a42c2 + a43c3) =1
8
und damit a32 = 12
und a42c2 + a43c3 = 12. Da nach (8) die Gleichung b4a43a32c2 = 1
24
gilt, folgt a43 = 1 und damit a42 = 0. Schließlich ergibt sich wegen∑S
r=1 asr = cs nocha41 = 0.
(2.12) LemmaWenn f eine L-Bedingung erfüllt, dann ist für das explizite Runge-Kutta-Verfahren dieΛ-Bedingung für jedes τ0 > 0 (mit Λ abhängig von τ0) erfüllt.
Durch sukzessives Fortführen erhält man dann für alle s = 1, . . . , S und τ ∈ (0, τ0)
|ks − ks| ≤ L(1 + ‖A‖∞τ0L+ ‖A‖2
∞τ20L
2 + . . .)︸ ︷︷ ︸
=C
|z − z|.
woraus mit Λ := C∑
s |bs| die Behauptung folgt.
Qualitätskontrolle bei Einschrittverfahren
Der lokale Diskretisierungsfehler lässt sich durch Vergleich von zwei Verfahrensfunktio-nen ψ, ψ mit verschiedener Ordnung abschätzen.Betrachte dazu zwei Verfahren mit
g(t, τ, z) =1
τ
(φ(t, τ, z)− z
)− ψ(t, τ, z) = O(τ p),
g(t, τ, z) =1
τ
(φ(t, τ, z)− z
)− ψ(t, τ, z) = O(τ p−1).
Damit folgt
g(t, τ, z) = ψ(t, τ, z)− ψ(t, τ, z) +O(τ p).
Ziel ist es, die Schrittweite so zu wählen, dass der lokale Diskretisierungsfehler unterhalbeiner vorgegebenen Toleranz ε bleibt.
(2.13) Definition (Eingebettete Runge-Kutta-Verfahren)Ein eingebettetes Runge-Kutta-Verfahren definiert zwei Verfahrensfunktionen ψ und ψ mit
c Ab>
b>
ks = f(t+ τcs, z + τ
∑s−1r=1 asrkr
)ψ(t, τ, z) =
∑Ss=1 bsks, Ordnung p
ψ(t, τ, z) =∑S
s=1 bsks Ordnung p− 1.
Dabei wird der Diskretisierungsfehler durch
η = ψ(t, τ, z)− ψ(t, τ, z) =S∑s=1
(bs − bs)ks
geschätzt.
BeispielFehlberg-Trick: k5 aus Schritt n ist k1 aus Schritt n+ 1.
012
12
12
0 12
1 0 0 11 1
626
26
16
16
26
26
16
016
26
26
0 16
η = ψ(t, τ, z)− ψ(t, τ, z) =1
6(k4 − k5)
23
Allgemein kann man bei konstanter Schrittweite und komplexem f den Rechenaufwandreduzieren, indem man das Verfahren so konstruiert, dass im Folgeschritt möglichst vieleAuswertungen von f wiederverwendet werden können.
für alle t ∈ ∆τ , τ ∈ (0, τ0) und alle k ∈ N0 gilt.
26
Beweis für skalare Gleichungen und das explizite Euler-Verfahren.In diesem Fall gilt M = 1, p = 1, k = 1, und ψ(t, τ, z) = f(t, z). Wähle τ ∈ (0, τ0) festund setze tn = t0 + nτ . Dann gilt für den lokalen Diskretisierungsfehler
3 Lineare Mehrschrittverfahren(3.1) DefinitionEs sei ∆ = tn = t0 + nτ, n = 0, . . . , N ein äquidistantes Gitter in [t0, t0 + T ] mitSchrittweite τ = T
Nund seien u0, . . . , uk−1 Näherungen für die Lösung der Anfangswert-
aufgabe
u(t) = f(t, u(t)), u(t0) = u0
zu den Zeitpunkten t0, . . . , tk−1.Dann definiert ein lineares Mehrschrittverfahren un, n = k, . . . , N rekursiv durch
k∑i=0
αk−iun−i = τ
k∑i=0
βk−ifn−i
mit f j = f(tj, uj). Das Verfahren ist durch die Koeffizienten α0, . . . , αk und β0, . . . , βk
bestimmt.Es gelte im Folgenden ohne Einschränkungen αk = 1.
BemerkungFür βk = 0 ist das Verfahren explizit, ansonsten implizit.
Beispiela) Adams-Bashforth-Verfahren (explizit)
Auf [tn−1, tn] ist die Lösung der Anfangswertaufgabe (1.1) äquivalent zu
u(tn) = u(tn−1) +
∫ tn
tn−1
f(t, u(t))dt.
Die Idee des Verfahrens ist es, f(t, u(t)) in [tn−1, tn] durch ein Polynom P ∈ Pk−1 zuapproximieren, wobei P (tn−i) = fn−i für i = 1, . . . , k gelten soll. Wählt man für dieDarstellung von P die Lagrange-Basis, also
P (t) =k∑i=1
fn−iLi(t), Li(t) =k∏
j=1,j 6=i
t− tn−jtn−i − tn−j
,
so folgt nach Ersetzen von f(t, u(t)) durch das Interpolationspolynom P
un = un−1 +
∫ tn
tn−1
P (t)dt
= un−1 +
∫ tn
tn−1
k∑i=1
fn−iLi(t)dt
= un−1 +k∑i=1
fn−i(∫ tn
tn−1
Li(t)dt
)︸ ︷︷ ︸
=:τβi
.
29
Also gilt
αk = 1, αk−1 = −1, αk−i = 0, i > 1, βk = 0.
Für i = 1, ..., k gilt
τβk−i =
∫ tn
tn−1
Li(t)dt = τ
∫ 1
0
Li(tn−1 + sτ)ds
= τ
∫ 1
0
k∏j=1,j 6=i
tn−1 + sτ − tn−jtn−i − tn−j
ds
= τ
∫ 1
0
k∏j=1,j 6=i
(n− 1 + s− (n− j))τ(n− i− (n− j))τ
ds = τ
∫ 1
0
k∏j=1, j 6=i
s− 1 + j
j − ids︸ ︷︷ ︸
=βi
.
Im Fall k = 1 ergibt sich beispielsweise un = un−1+τfn−1 (explizites Euler-Verfahren)und im Fall k = 4 gilt
un = un−1 +τ
24(55fn−1 − 59fn−2 + 37fn−3 − 9fn−4).
b) Adams-Moulton-Verfahren (implizit)
Approximiere f(t, u(t)) in [tn−1, tn] durch P ∈ Pk mit P (tn−i) = fn−i, i = 0, . . . , k.Dann folgt
un = un−1 + τk∑i=0
ˆβk−ifn−i mit ˆβk−i =
∫ 1
0
k∏j=0, j 6=i
s− 1 + j
i− jds.
Also gilt
ak = 1, ak−1 = −1, ak−i = 0, i > 1.
Für k = 0 erhält man un = un−1 + τfn (implizites Euler-Verfahren) und für k = 3 gilt
un = un−1 +τ
24(9fn + 19fn−1 − 5fn−2 + fn−3).
c) Nyström-Verfahren (explizit)
Approximiere f(t, u(t)) in [tn−2, tn] durch P ∈ Pk−1 mit P (tn−i) = fn−i, i = 1, . . . , k.Dann folgt
un = un−2 + τ
k∑i=1
βk−ifn−i mit βk−i =
∫ 2
0
k∏j=1, j 6=i
s− 2 + j
i− jds.
ak = 1, ak−1 = 0, ak−2 = −1, ak−i = 0, i > 2, βk = 0 .
Im Fall k = 1 ergibt sich un = un−2 + 2τfn−1 (explizite Mittelpunktsregel).
Diesmal wird u (und nicht f ) in [tn−k, tn] durch ein Polynom P ∈ Pk mit P (tn−i) =un−i, i = 0, . . . , k approximiert. Mit der Lagrange-Basis lässt sich P dann folgender-maßen darstellen
P (t) =k∑i=0
un−iLi(t).
Nun fordert man zusätzlich P (tn) = fn, d.h.
k∑i=0
un−iτLi(tn) = τfn.
Damit folgt
βk = 1, αk−i = τLi(tn), i = 0, . . . , k, βk−i = 0, i > 0.
Für k = 1 ergibt sich un = un−1 + τfn (implizites Euler-Verfahren) und im Fall k = 2gilt
d.h. P (tj) = f j , j = n− k, . . . , n− 1. Dann gilt für s ∈ [0, 1]
P (tn−1 + sτ) = ∇0fn−1 + s∇1fn−1 +s(s+ 1)
2∇2fn−1 + · · ·
=k−1∑i=0
(−1)i(−si
)∇ifn−1,
wobei(s0
)= 1 und
(si
)=∏i
j=1s−(j−1)
j.
Dann folgt
un = un−1 +
∫ tn
tn−1
P (t)dt = un−1 + τ
∫ 1
0
P (tn−1 + τs)ds
= un−1 + τ
k−1∑i=0
γi∇ifn−i mit γi = (−1)i∫ 1
0
(−si
)ds.
b) Adams-Moulton
un = un−1 + τk−1∑i=0
γi∇ifn mit γi = (−1)i∫ 1
0
(1− si
)ds.
c) Backward-Differentiation-Formulas
Approximiere u in [tn−k, tn] durch
P (tn + sτ) =k∑i=0
(−1)i(−si
)∇iun,
d.h. P (tj) = uj für j = n− k, . . . , n. Es gilt
d
ds(−1)i
(−si
)∣∣∣∣s=0
=
0, i = 0,1i, i > 0
und damit folgt
P (tn) =1
τ
k∑i=1
1
i∇iun
und somit
k∑i=1
1
i∇iun = τfn.
Für k = 1 ergibt es das implizite Euler-Verfahren
un − un−1 = τfn
Für k = 2 ergibt sich
1 · (un − un−1) +1
2(un − 2un−1 + un−2) =
3
2un − 2un−1 +
1
2un−2 = τfn .
32
(3.2) LemmaFalls f eine Lipschitz-Bedingung mit L erfüllt und τL|βk| < 1 gilt, dann konvergiert zujedem Startwert un,0 die Iteration
αk︸︷︷︸=1
un,j = −k∑i=1
αk−iun−i + τβkf(tn, u
n,j−1) + τ
k∑i=1
βk−ifn−i
für j →∞ gegen die Lösung un des Mehrschrittverfahrens.
Beweis. Für explizite Verfahren folgt mit βk = 0 sofort un = un,1.Sei also βk 6= 0. Dann gilt
|un,j+1 − un,j| = |τβkf(tn, un,j)− τβkf(tn, u
n,j−1)| ≤ τ |βk|L︸ ︷︷ ︸<1
|un,j − un,j−1|.
Mit dem Banach’schen Fixpunktsatz folgen dann die Konvergenz und die Eindeutigkeitder Lösung.
(3.3) DefinitionZu u ∈ C1([t0, t0 + T ], G) definieren wir den lokalen Diskretisierungsfehler durch
gn(u) =1
τ
k∑i=0
αk−iu(tn−i)−k∑i=0
βk−iu(tn−i).
Häufig schreiben wir gn anstelle von gn(u).
(3.4) LemmaSei u eine analytische Funktion1. Dann gilt
gn(u) =1
τ
∞∑j=0
Cjτj
(d
dt
)ju(tn−k),
wobei
C0 =k∑i=0
αi, Cj =1
j!
k∑i=0
ijαi −1
(j − 1)!
k∑i=0
ij−1βi, j > 0.
Beweis. Wir betrachten die Taylor-Entwicklung von u um den Entwicklungspunkt t. Danngilt
u(t+ sτ) =∞∑j=0
(sτ)j
j!
(d
dt
)ju(t) , u(t+ sτ) =
∞∑j=0
(sτ)j
j!
(d
dt
)j+1
u(t) .
Damit folgt die Behauptung mit t = tn−k durch Koeffizientenvergleich:
gn(u) =∞∑j=0
(1
τ
k∑l=0
αk−l(lτ)j
j!
(d
dt
)ju(tn−k)−
k∑l=0
βk−j(lτ)j
j!
(d
dt
)j+1
u(tn−k)
)
=1
τ
∞∑j=0
Cjτj
(d
dt
)ju(tn−k) .
1 Eine analytische Funktion lässt sich lokal durch eine konvergente Potenzreihe darstellen.
33
(3.5) DefinitionEin Mehrschrittverfahren heißt konsistent von der Ordnung p, falls
C0 = C1 = · · · = Cp = 0 und Cp+1 6= 0.
Cp+1 heißt Fehlerkonstante.
BemerkungFür ein lineares Mehrschrittverfahren der Ordnung p und P ∈ Pp gilt nach (3.4)
gn(P ) =1
τ
p∑j=0
Cjτj
(d
dt
)jP (tn−k) +
1
τ
∞∑j=p+1
Cjτj
(d
dt
)jP (tn−k)︸ ︷︷ ︸
=0
= 0 .
(3.6) LemmaEin lineares Mehrschrittverfahren ist konsistent von der Ordnung p, wenn der lokale Dis-kretisierungsfehler für Polynome vom Grad p verschwindet, d.h. gn(P ) = 0 für P ∈ Pp.
Beweis. Wir zeigen |gn(u)| = O(τ p) für hinreichend glatte Lösungen u.Dazu betrachten wir die Taylor-Entwicklung von u an der Stelle tn−k
u(t) =
p∑j=0
1
j!
(d
dt
)ju(tn−k)(t− tn−k)j +Rp(t) = P (t)︸︷︷︸
∈Pp
+Rp(t)
mit Restglied in der Integraldarstellung
Rp(t) =1
p!
∫ t
tn−k
(t− s)p(d
dt
)p+1
u(s) ds.
Verschwinde nun gn für alle Polynome P ∈ Pp. Dann folgt
|gn(u)| =
∣∣∣∣∣ 1
τ
k∑i=0
αk−iP (tn−i)−k∑i=0
βk−iP (tn−i)︸ ︷︷ ︸=0
+1
τ
k∑i=0
αk−iRp(tn−i)−k∑i=0
βk−iRp(tn−i)
∣∣∣∣∣=
∣∣∣∣∣1τk∑i=0
αk−iR(tn−i)−k∑i=0
βk−iR(tn−i)
∣∣∣∣∣≤ 1
p!
∥∥∥∥∥(d
dt
)p+1
u
∥∥∥∥∥∞
(1
τ
k∑i=0
|αk−i|∫ tn−i
tn−k
(tn−i − s)pds︸ ︷︷ ︸=O(τp+1)︸ ︷︷ ︸
=O(τp)
+k∑i=0
|βk−i| (tn−i − tn−k)p︸ ︷︷ ︸=O(τp)
)
= O(τ p).
Also gilt die Behauptung.
BeispielDas Adams-Bashforth-Verfahren mit k Schritten hat die Konsistenzordnung p = k.
n2 für feste d1, d2 ∈ C und es folgt (falls d2 6= 0)
limτ→0|uN | = |d2||(−5)n| → ∞ (n→∞).
Konvergenz benötigt also neben der Konsistenz eine weitere Bedingung, die Stabilität.
35
Lineare Stabilitätsanalyse
Betrachte die lineare Differentialgleichung
u = ωu, u(0) = 1
mit der analytischen Lösung u(t) = exp(ωt)u(0) = exp(ωt).Wir beobachten, dass |u(t)| ≤ |u(0)| = 1 für alle Zeiten t gilt, falls Reω ≤ 0.Wir fordern deshalb, dass sich diese Eigenschaften auf das Mehrschrittverfahren übertra-gen sollen, also
k∑i=0
αk−iun−i = τω
k∑i=0
βk−iun−i,
d.h. un löst die Differenzengleichung
k∑i=0
(αk−i − τωβk−i
)un−i = 0, (n = k, k + 1, . . . ).
Es stellt sich die Frage, wann diese Lösungen beschränkt sind.
(3.7) SatzEs sei χ ein Polynom vom Grad k mit Koeffizienten αi und Nullstellen zν ∈ C, d.h.
χ(z) =k∑i=0
αizi =
r∏ν=1
(z − zν)mν , zν 6= zµ (ν 6= µ),r∑
ν=1
mν = k .
Dann hat jede Lösung (yn)n∈N0 der linearen Differenzengleichung
k∑i=0
αk−iyn−i = 0, (n = k, k + 1, . . . )
die Form
yn =r∑
ν=1
mν∑j=1
cν,jn!
(n− j)!znν .
Dabei sind die Koeffizienten eindeutig durch y0, . . . , yk−1 bestimmt.
Beweis. Die Lösungsmenge bildet einen Vektorraum. Wir zeigen nun, dass die Folge
yn =n!
(n− j)!znν , (1 ≤ ν ≤ r, 0 ≤ j < mν)
für festes ν und j eine Lösung ist.Der Beweis wird induktiv geführt, wobei an dieser Stelle exemplarisch nur die Fälle j = 0und j = 1 betrachtet werden.
36
Für j = 0 gilt χ(zν) = 0. Damit folgt
k∑i=0
αk−iyn−i =k∑i=0
αk−izn−iν = zn−kν
k∑i=0
αk−izk−iν = zn−kν χ(zν) = 0.
Und für j = 1 gilt χ(zν) = χ′(zν) = 0, womit folgt
k∑i=0
αk−iyn−i =k∑i=0
αk−i(n− i)zn−iν = zn−kν
k∑i=0
αk−i(n− i)zk−iν
= zn−kν
k∑i=0
αk−i(n− k)zk−iν + zn−kν
k∑i=0
αk−i(k − i)zk−iν
= zn−kν
k∑i=0
αk−i(n− k)zk−iν + zn−k+1ν
k−1∑i=0
αk−i(k − i)zk−i−1ν
= zn−kν (n− k)χ(zν) + zn−k+1ν χ′(zν) = 0.
Außerdem lässt sich zeigen, dass diese Lösungen linear unabhängig sind. Damit bilden sieeine Basis des Lösungsraums.
FolgerungFür |zν | > 1 gilt limn→∞ |znν | = ∞. Und falls |zν | = 1 mit mν > 1 gilt, dann folgtlimn→∞ |nznν | =∞.Also ist die Lösung yn in diesen beiden Fällen für n → ∞ unbeschränkt (falls die Koeffi-zienten cν,j nicht verschwinden).Wenn für ν gilt |zν | < 1 oder |zν | = 1 und mν = 1, dann ist
|yn| ≤∑|zν |<1
mν−1∑l=0
|cν,l|n!
(n− l)!|zν |n +
∑|zν |=1
|cν,0| <∞.
Somit ist die Lösung in diesem Fall beschränkt.
(3.8) DefinitionWir definieren das charakteristische Polynom zu einem Mehrschrittverfahren durch
χ(z) =k∑i=0
αizi.
(3.9) DefinitionEin Mehrschrittverfahren heißt stabil (0-stabil), wenn für alle Nullstellen λν des charak-teristischen Polynoms |λν | ≤ 1 gilt und alle Nullstellen mit |λν | = 1 einfach2 sind.
BemerkungWenn ein Mehrschrittverfahren nicht stabil ist, dann ist die Lösung für τ → 0 immer (bisauf Trivialfälle) unbeschränkt.
2D.h. aus χ(λν) = 0 und |λν | = 1 folgt χ′(λν) 6= 0.
37
BeispielWir betrachten die Stabilität von einigen Mehrschrittverfahren.
a) Für die Adams-Verfahren gilt
χ(z) = zk − zk−1 = zk−1(z − 1).
Also ist das Verfahren stabil.
b) Das Nyström-Verfahren ist ebenfalls stabil, denn es gilt
χ(z) = zk − zk−2 = zk−2(z − 1)(z + 1).
c) Für k = 2 sind die Backward-Differentiation-Formulas wegen
χ(z) =3
2z2 − 2z +
1
2=
1
2(3z − 1)(z − 1)
stabil.
BemerkungDas BDF-Verfahren (mit fester Schrittweite τ ) ist für k > 5 nicht stabil. Bei variablerSchrittweite muss bei den BDF-Verfahren die Stabilität jeweils geprüft werden.
(3.10) LemmaSei A ∈ Rk×k eine Matrix mit Spektralradius ρ = ρ(A) = maxµ∈σ(A) |µ| und für jedenEigenwert λν ∈ σ(A) mit |λν | = ρ sei die algebraische Vielfachheit gleich der geometri-schen Vielfachheit.Dann existiert eine hermitesch, positiv definite Matrix S ∈ Ck×k mit
|Ax|S ≤ ρ|x|S, x ∈ Rk.
Dabei ist |x|S =√x>Sx.
Beweis. Zu A ∈ Rk×k existiert eine invertierbare Transformation Q ∈ Ck×k mit
Q−1AQ = J =
J1
. . .Jr
(Jordan-Normalform),
Jν =
λν 1
. . . . . .. . . 1
λν
= λνImν +Nν ∈ Rmν ,mν , wobei
Nν =
0 1
. . . . . .. . . 1
0
∈ Rmν ,mν (ν = 1, . . . , r).
38
Gilt |λν | = ρ, so folgt mν = 1. Zu ε > 0 definiere E := diag(ε, ε2, ε3, . . . ). Dann folgt
E−1JE =
Jε1
. . .Jεr
mit Jεν =
λν ε
. . . . . .. . . ε
λν
= λνImν + εNν .
Und damit ergibt sich für die Spektralnorm ‖ · ‖2
‖E−1JE‖2 = max ‖Jεν‖2 ≤ max
max|λν |=ρ
|λν |, max|λν |<ρ
|λν |+ ε‖Nν‖2
.
Wähle nun ε > 0 so klein, dass |λν |+ ε‖Nν‖2 ≤ ρ für |λν | < ρ gilt und definiere
S = Q−TE−TE−1Q−1 = K>K für K := E−1Q−1.
Also ist S symmetrisch und positiv definit und es gilt
|Az|2S = z>A>SAz = z>A>Q−TE−TE−1Q−1Az
= z>Q−T (Q>A>Q−T )E−TE−1(Q−1AQ)Q−1z
= z>Q−TJ>E−TE−1JQ−1z
= |E−1JQ−1z|22= |E−1JEE−1Q−1z|22 ≤ ‖E−1JE‖2
2|E−1Q−1z|22≤ ρ2|E−1Q−1z|22 = ρ2|z|2S,
was zu zeigen war.
(3.11) SatzSei u ∈ C1([t0, t0 +T ], G) Lösung der Anfangswertaufgabe (1.1), für f sei eine Lipschitz-Bedingung mit L > 0 erfüllt. Sei τ0 > 0 mit τ0L|βk| < 1 und τ ∈ (0, τ0].Dann gilt für ein konsistentes und stabiles Mehrschrittverfahren
|un − u(tn)| ≤ K∗
(max
i=0,...,k−1|ui − u(ti)| exp
(L∗(tn − tk)
)+ max
i=k,...,n|gi|
exp(L∗(tn − tk)
)− 1
L∗
)
für n ≥ k und Konstanten K∗, L∗ > 0.
Beweis für M = 1. Aus αk = 1 folgen
un = −k∑i=1
αk−iun−i + τ
k∑i=0
βk−ifn−i und
τgn = u(tn) +k∑i=1
αk−iu(tn−i)− τk∑i=0
βk−iu(tn−i).
39
Durch Subtraktion der beiden Gleichungen ergibt sich für den globalen Fehler
en = u(tn)− un = τgn −k∑i=1
αk−ien−i + τ
k∑i=0
βk−iqn−ien−i (9)
mit qn = 1en
(u(tn)− fn
)für en 6= 0 und qn = 0 sonst. Nun gilt für en 6= 0
|qn| = 1
|en||f(tn, u(tn))− f(tn, u
n)| ≤ 1
|en|L |u(tn)− un|︸ ︷︷ ︸
=|en|
= L
und es folgt
(1− τβkqn)en = −k∑i=1
αk−ien−i + τrn mit rn = gn +
k∑i=1
βk−iqn−ien−i.
Definiere nun en := (en, en−1, . . . , en−k+1)> ∈ Rk. Dann folgt aus (9)
Dnen = Aen−1 + τrn ,
wobei Dn = diag(1− τβkqn, 1, . . . , 1) und
A =
−αk−1 −αk−2 . . . −α0
1 0 . . . 0. . . . . . ...
1 0
, rn =
rn0...0
, gn =
gn
0...0
, β =
βk−1...β0
.
Es gilt
det(λI − A) = λk +k∑i=1
αk−iλk−i = χ(λ).
Da das Verfahren nach Voraussetzung stabil ist, gilt nach Definition (3.9) für alle Nullstel-len λ von χ und damit für alle Eigenwerte λ von A
|λ| ≤ 1 und |λ| = 1⇒ λ ist einfache Nullstelle.
Aus der Stabilitätsbedingung folgt daher für den Spektralradius ρ(A) ≤ 1, und falls |λ| =1, ist die algebraische als auch die geometrische Vielfachheit 1. Damit folgt aus (3.10),dass eine hermitesch positiv definite Matrix S ∈ Ck×k existiert mit |Az|S ≤ |z|S für allez ∈ Rk. Da auf Rk alle Normen äquivalent sind, existieren zusätzlich C ≥ 1 ≥ c > 0 mitc|z| ≤ |z|S ≤ C|z|.Nach Voraussetzung ist |τβkqn| ≤ τ |βk|L ≤ τ0|βk|L ≤ 1, also ist Dn invertierbar. Es giltD−1 = diag(1/(1− τβkqn), 1, . . . , 1) und somit
‖D−1n − Ik‖ ≤
∣∣∣ 1
1− τβkqn− 1∣∣∣ ≤ τ |βk|L
1− τ |βk|L
40
und somit
‖D−1n ‖S ≤ ‖Ik‖S + ‖D−1
n − Ik‖S ≤ 1 + supz 6=0
|(D−1n − Ik)z|S|z|S
≤ 1 +C
csupz 6=0
|(D−1n − Ik)z||z|
= 1 +C
c‖D−1
n − Ik‖ ≤ 1 + τL0
mit L0 =C
c
|βk|L1− τ |βk|L
. Ferner gilt
|rn|S ≤ |gn|S + |rn − gn|S ≤ |gn|S + C|rn − gn|
≤ |gn|S + Ck∑i=1
|βk−i||qn−i||en−i|
≤ |gn|S + CL|β||en−1|
≤ |gn|S + L1|en−1|S mit L1 =C
cL|β|,
|en|S = |D−1n (Aen−1 + τrn)|S ≤ ‖D−1
n ‖S(|Aen−1|S + τ |rn|S
)≤ (1 + τL0)
(|en−1|S + τ
(|gn|S + L1|en−1|S
))≤ (1 + τL∗)|en−1|S + τ(1 + τL0)|gn|S.
Dabei ist L∗ = L0 + L1 + τL0L1.Nun folgt mit zn = |en|, δk = τL∗ und ηn = τ(1 + τL0)|gn|S in dem diskreten Gronwall-Lemma (2.7)
|en|S ≤ |ek−1| exp(L∗(n− k)τ
)+ (1 + τL0) max
j=k,...,n|gj|S
exp(L∗(n− k)τ
)− 1
L∗
und daraus ergibt sich für n = k, k + 1, . . .
|en| ≤ |en| ≤ 1
c|en|S
≤ C
c(1 + τL0)︸ ︷︷ ︸
=:K∗
[|ek−1| exp
(L∗(tn − tk)
)+ max
j=k,...,n|gj|
exp(L∗(n− k)τ
)− 1
L∗
]
mit K∗, L∗ > 0.
(3.12) FolgerungWenn das Mehrschrittverfahren konsistent von der Ordnung p ist und wenn u1, . . . , uk−1
mit einem Einschrittverfahren der Ordnung p− 1 berechnet wurden, dann gilt
|u(tn)− un| = O(τ p).
Beweis. Es gilt für n < k
exp(Λnτ)− 1
Λ=
1
Λ
∞∑j=1
Λj(nτ)j
j!= O(τ) .
41
Somit folgt mit (2.5) die verbesserte Abschätzung |un − u(tn)| ≤ O(τ p) für die erstenSchritte n < k und daher mit (3.11)
BemerkungFür ein stabiles Mehrschrittverfahren von der Ordnung p gilt
p ≤ k + 1 k ungerade,p ≤ k + 2 k gerade,
p ≤ k βk = 0 (explizit)
(Dahlquist-Schranken).
Beispiel (k = 2)Wir wollen ein Verfahren mit k = 2 Stufen erzeugen, das mindestens konsistent von derOrdnung p = 3 ist.Da α2 = 1 gilt, wählen wir den Ansatz
un + α1un−1 + α0u
n−2 = τ(β2fn + β1f
n−1 + β0fn−2).
Für die Konsistenzforderung muss gelten 0 = C0 = 1 +α1 +α0. Definiere α = α0. Damitfolgt α1 = −1− α. Und somit gilt
un − (1 + α)un−1 + αun−2 = τ(β2fn + β1f
n−1 + β0fn−2).
Damit ist das charakteristische Polynom
χ(λ) = λ2 − (1 + α)λ+ α = (λ− 1)(λ− α).
Nach (3.9) muss −1 ≤ α < 1 gelten, damit das Verfahren stabil ist.Ferner gelten wegen der geforderten Konsistenzordnung
0 = C1 = α1 + 2− (β0 + β1 + β2),
0 = C2 =1
2(α1 + 4)− (β1 + 2β2),
0 = C3 =1
6(α1 + 8)− 1
2(β1 + 4β2).
Das führt zu
β0 = − 1
12(1 + 5α),
β1 =2
3(1− α),
β2 =1
12(5 + α).
42
Damit folgt
un − (1 + α)un−1 + αun−2 =τ
12
((5 + α)fn + 8(1− α)fn−1 − (1 + 5α)fn−2
)und nach ein paar Rechnungen erhält man
C4 =1
24(α1 + 16)− 1
6(β1 + 8β2) = − 1
24(1 + α)
C5 = − 1
360(17 + 13α).
Fordern wir, dass das Verfahren explizit sein soll, muss β2 = 0 gelten. Das erfordert aberα = −5 und somit ist das Verfahren nicht stabil.Fordern wir hingegen, dass das Verfahren mindestens von der Ordnung p = 4 sein soll,muss C4 = 0 gelten, womit α = −1 folgt. In diesem Fall ist das Verfahren stabil, undwegen C5 6= 0 ist die Ordnung p = 4. Damit ergibt sich das Verfahren
un = un−2 +τ
3(fn + 4fn−1 + fn−2) .
Es ist optimal. Die Quadratur entspricht der Simpson-Regel.
Prädiktor-Korrektor-Verfahren
Bei impliziten Verfahren muss im Allgemeinen eine nichtlineare Gleichung gelöst werden,um die nächste Approximation un zu berechnen. Um dies zu umgehen, berechnet man miteinem expliziten Verfahren, dem sogenannten Prädiktor, zunächst einen Schätzwert un,0
für un. Dieser Schätzwert wird dann anstelle von un zur Berechnung von fn herangezogen.Da das implizite Verfahren den geschätzten Wert für un korrigiert, wird es Korrektor ge-nannt.Es kann auch mehrfach korrigiert werden, indem der korrigierte Wert wieder in den Kor-rektor eingesetzt wird.Prädiktor mit explizitem Mehrschrittverfahren
un,0 = −k∑i=1
αk−iun−i + τ
k∑i=1
βk−ifn−i,
Korrektor mit implizitem Mehrschrittverfahren
un,j = −k∑i=1
αk−iun−i + τ
k∑i=1
βk−ifn−i + τ βkf(tn, u
n,j−1) j = 1, . . . , J.
BemerkungSei pC die Konsistenzordnung des Korrektors, pP die Ordnung des Prädiktors. Dann gilt
p = minpC , pP + J
für das Prädiktor-Korrektor-Verfahren.
43
In der Praxis wird häufig so lange korrigiert, bis |un,j − un,j−1| ≤ cτ p gilt.
Algorithmus (p = 4)S0) Wähle τ > 0, J > 0, seien T, u0 gegeben, und setze t = t0, f 0 := f(t0, u
0) undu := u0. Für k = 1, 2, 3 berechne Näherungen mit dem klassischen Runge-Kutta-Verfahren:
k1 := f(t, uk−1)
k2 := f(t+
τ
2, uk−1 +
τ
2k1
)k3 := f
(t+
τ
2, uk−1 +
τ
2k2
)k4 := f(t+ τ, uk−1 + τk3)
uk := uk−1 +τ
6(k1 + 2k2 + 2k3 + k4)
t := t+ τ
fk := f(t, uk) .
Setze u = u3.
S1) Setze
u := u+τ
24(55f 3 − 59f 2 + 37f 1 − 9f 0)
f 0 := f 1
f 1 := f 2
f 2 := f 3
t := t+ τ
(Vierstufiges explizites Prädiktor-Verfahren)
S2) Für j = 1, . . . , J setze
f 3 := f(t, u)
u := u+τ
24(9f 3 + 19f 2 − 5f 1 + f 0).
(Dreistufiges implizites Korrektorverfahren mit J-facher Korrektur)
S3) Falls t ≥ t0 + T : STOP.
S4) Gehe zu S1)
Fehlerschätzung
Für den lokalen Diskretisierungsfehler gilt nach (3.4) und (3.5)
gn = Cp+1τp
(d
dt
)p+1
u(tn) +O(τ p+1).
44
Prädiktor: Adams-Bashforth k = 4, p = 4, Cp5 = 251
720.
Korrektor: Adams-Moulton k = 3, p = 4, Cp5 = − 19
720.
Im Algorithmus werden unP und unC mit denselben un−i und fn−i (i = 1, . . . , k) berechnet.Damit folgt
1) Die explizite Mittelpunktsregel ist reversibel (sie ist äquivalent zu einem reversiblenEinschrittverfahren für ein System).
2) Oszillationen in der Fehlerentwicklung lassen sich durch den Mittelwert
un =1
4(un−1 + 2un + un+1)
verhindern; auch für un existiert eine Fehlerentwicklung in τ 2.
3) Es existiert ein entsprechendes Extrapolationsverfahren.
46
4 Steife Differentialgleichungen
(4.1) Definition (Implizites Runge-Kutta-Verfahren)Ein implizites Runge-Kutta-Verfahren mit S Stufen ist durch ein Butcher-Schema
c Ab>
c, b ∈ RS, A ∈ RS,S
definiert. Jeder Runge-Kutta-Schritt erfordert die Lösung des nichtlinearen Gleichungs-systems
ks = f
(t+ csτ, z + τ
S∑r=1
asrkr
), s = 1, ..., S .
Die Lösung (k1, ..., kS) definiert die Verfahrensfunktion
ψ(t, τ, z) =S∑s=1
bsks .
Bemerkunga) Für explizite Verfahren gilt asr = 0 für r ≥ s.
b) Für diagonal-implizite Verfahren gilt asr = 0 für r > s.
c) Für autonom invariante Verfahren gilt cs =∑S
r=1 asr.
d) Ein Verfahren mit br = aSr (r = 1, . . . , S) heißt steif genau.
e) Ein Verfahren mit diag(b)A + A> diag(b) + bb> positiv semidefinit und b > 0 heißtalgebraisch stabil.
Steif genaue und algebraisch stabile Verfahren werden später betrachtet.
Im Allgemeinen muss bei impliziten Verfahren ein nicht-lineares Gleichungssystem inRS·M gelöst werden, d.h. löse (z.B. durch Newton-Verfahren) die nichtlineare GleichungG(k) = 0 mit
G(k) =
k1 − f
(t+ c1τ, z + τ
∑Sr=1 a1rkr
)...
kS − f(t+ cSτ, z + τ
∑Sr=1 aSrkr
) .
Für diagonal-implzite Verfahren b) löse sukzessive für s = 1, . . . , S
heißt stabil, wenn für alle Anfangswerte u0 ∈ RM und ein C > 0
|u(t)| ≤ C|u0| ∀t ≥ 0
gilt, und asymptotisch stabil, wenn
limt→∞|u(t)| = 0.
BeispielWir betrachten die lineare Differentialgleichung
u(t) = Au(t), u(0) = u0
mit A ∈ RM,M . Sie ist eindeutig lösbar, und es gilt
u(t) = exp(tA)u0 .
Dabei gilt exp(B) =∑∞
k=01k!Bk für B ∈ RM,M .
Vorsicht: Es gilt exp(A+B) = exp(A) exp(B) genau dann, wenn AB = BA.Aus der Analysis wissen wir:
1) Falls Reλ < 0 für alle λ ∈ σ(A), dann folgt limt→∞ u(t) = 0.
2) Falls Reλ ≤ 0 für alle λ ∈ σ(A) und falls für alle λ ∈ σ(A) mit |λ| = 0 die algebrai-sche Vielfachheit gleich der geometrischen Vielfachheit ist, dann gilt |u(t)| ≤ C füralle t ≥ 0.
Sei
QAQ−1 = J =
J1
. . .Jr
Jordan-Normalform mit Jν =
λν 1
. . . . . . 1. . .
λν
∈ Cmν×mν
So gilt
exp(A) = Q−1exp(J)Q
1.Fall: Falls Aqν = λνqν gilt, so ist uν(t) = etλνqν eine Lösung von uν = λνetλνqν =
so folgt, dass (uν,l)ν=1,...,r ,l=0,...,mν−1 ein Fundamentalsystem zu u = Au bilden.
Folgerungu = Au ist
a) stabil,wenn Reλν ≤ 0 und für alle λν ∈ σ(A) mit Reλν = 0 gilt:
mν = 1
b) asymptotisch stabil mit u∞ = 0, wenn Reλν < 0,∀λν ∈ σ(A)
BeispielBetrachte
u =
(0 10 0
)u, u(0) =
(01
).
Dann gelten σ(A) = 0 und
u(t) =
(t1
), u(t) =
(10
)=
(0 10 0
)(t1
).
Also folgt limt→∞ |u(t)| =∞.
Bei expliziten Runge-Kutta-Verfahren gilt für f(t, z) = Az
k1 = Az
k2 = A(z + τa21k1) = A(z + τa21Az) = (A+ τa21A2)z
...ks = P (A)z mit P ∈ Ps.
Das führt zu
un = z + τS∑i=1
biki = P (τA)un−1 = P (τA)nu0.
Es tritt limn→∞ un = 0 genau dann ein, wenn limn→∞ |P (τA)nu0| = 0 erfüllt ist. Da aber|P (t)| → ∞ für t → ∞ gilt, muss τ klein genug sein, um im Fall Reλ < 0 für alleλ ∈ σ(A) asymptotisch die richtige Lösung zu berechnen.
49
AnwendungWir betrachten die Wärmeleitungsgleichung als Beispiel für eine parabolische Anfangs-wertaufgabe: Bestimme u : [0,∞)× [a, b]→ R mit
∂
∂tu(t, x) = K
∂2
∂x2u(t, x), (t, x) ∈ [0,∞)× (a, b)
u(0, x) = g0(x), x ∈ (a, b) (Anfangswert)
u(t, a) = ga(t)
u(t, b) = gb(t)
t ∈ (0,∞) (Randwerte).
Dabei ist K > 0 der Wärmeleitkoeffizient.Zur Ortsdiskretisierung wählen wir ein äquidistantes Gitter
∆ := xm = a+mh : m = 0, . . . ,M mit h =b− aM
und approximieren ∂2
∂x2u(t, x) durch Differenzenquotienten
u(t, x+ h) = u(t, x) +∂
∂xu(t, x)h+
1
2
∂2
∂x2u(t, x)h2 +
1
6
∂3
∂x3u(t, x)h3 +O(h4),
u(t, x− h) = u(t, x)− ∂
∂xu(t, x)h+
1
2
∂2
∂x2u(t, x)h2 − 1
6
∂3
∂x3u(t, x)h3 +O(h4).
Addition der Gleichungen liefert
u(t, x− h)− 2u(t, x) + u(t, x+ h) =∂2
∂x2u(t, x)h2 +O(h4).
Also wird u(t, xm) durch folgende lineare Anfangswertaufgabe approximiert:
um = Kh−2(um−1 − 2um + um+1) m = 1, . . . ,M − 1,
um(0) = g0(xm),
u0(t) = ga(t),
uM(t) = gb(t).
Folglich gilt u = Au+ c mit A = −Kh2A0, wobei
A0 =
2 −1−1 2 −1
. . . . . . . . .−1 2 −1
−1 2
∈ RM−1,M−1 und c =K
h2
ga0...0gb
.
Aus den Übungen zu Numerik I kennen wir das Spektrum von A0:
σ(A0) =
λm = 4
(sin(mπ
2M
))2
: m = 1, . . . ,M − 1
.
50
Damit ergibt sich
limh→0
λ1
h2= π2 und lim
h→0λM−1 = 4,
und damit
σ(A) ⊂[−4K
h2, −Kπ2
].
Also gilt limt→∞ exp(tA) = 0.Im Spezialfall, dass ga und gb konstant sind, definiere
um :=b− xmb− a
ga +xm − ab− a
gb, m = 1, . . . ,M − 1.
Dann folgt Au = −c und somit gilt w = Aw für w = u− u, denn
w = u = Au+ c = Au− Au = Aw.
Damit folgt nun w(t) = exp(tA) und somit gilt nach Übungsaufgabe 21
|w(t)| ≤ exp(tλmax(A)
)|w(0)| → 0 für t→∞, da λmax(A) < 0.
Betrachte nun das explizite Euler-Verfahren
wn = wn−1 + τAwn−1 = (I + τA)wn−1 = (I + τA)nw0,
also
limn→∞
|wn| = 0 ⇔ σ(I + τA) ⊂ (−1, 1) ⇔∣∣∣∣1− 4K
h2τ
∣∣∣∣ < 1
⇔ τ4K
h2< 2 ⇔ τ <
h2
2K.
Also ist das Euler-Verfahren nur stabil für τ < h2
2K. Umgekehrt ist das Euler-Verfahren für
große τ sogar instabil, d.h. die numerische Lösung ist unbeschränkt, obwohl die kontinu-ierliche Lösung beschränkt bleibt.
Problem Es ist allgemein so, dass explizite Verfahren kleine Zeitschritte erzwingen, umnumerisch stabile Lösungen zu berechnen. Die erforderliche Schrittweite kann so kleinsein, dass das Verfahren für die Praxis unbrauchbar ist.Es gibt Differentialgleichungen, bei denen dieses Problem für jedes beliebige expliziteVerfahren auftritt. Die Klasse dieser Gleichungen nennt man steife Differentialgleichun-gen.
Beispiel (Wellengleichung, hyperbolisch)Gesucht ist eine Funktion u : [0,∞)× R→ R mit
∂2t u(t, x) = c2∂2
xu(t, x) (t ≥ 0, x ∈ R),
u(0, x) = g(x) (x ∈ R),
51
wobei c die Wellengeschwindigkeit ist und g die Anfangsbedingungen festlegt.Die Ausbreitungsgeschwindigkeit ist endlich und deshalb folgt aus g(x) = 0 für |x| > r,dass u(t, x) = 0 für |x| > r + ct gilt.Wähle zu T > 0 ein R > 0 groß genug mit u(t,−R) = u(t, R) für alle t ∈ [0, T ].Setze h := 2R
Mund
∆h := xm = −R +mh : m = 0, . . . ,M.
Setze uh0(t) := uhM(t) = 0 und bestimme uh ∈ C2([0, T ],RM−1) mit
uhm = c2 1
h2(uhm−1 − 2uhm + uhm+1) (m = 1, . . . ,M − 1).
Damit folgt
uh = Auh
mit einer entsprechenden Matrix A ∈ RM−1,M−1.Wir beobachten für die Energie E(u) = 1
2
∫R
(|u|2 + |c∂xu|2
)dx
d
dtE(u) =
∫R
(uu+ c∂xuc∂xu
)dx
PI=
∫R
(u− c2∂xu︸ ︷︷ ︸
=0
)udx = 0.
Also gilt E(u) = E(u0) = const und das System ist damit energieerhaltend.Wir schreiben das System als Differentialgleichung erster Ordnung um. Dafür setzen wir
w := c∂xu,
u := c∂xw
und damit folgt
u = c∂xw = c2∂2xu.
Nun diskretisiert man w auf dem verschobenen Gitter (engl. staggered grid)−R +
(1
2+m
)h︸ ︷︷ ︸
=xm+1
2
: m = 0, . . . ,M − 1
.
Damit ergibt sich das Gesamtsystem
uh0 = uh0 mit uh0(t0) = 0
uhm =c
h
(whm+ 1
2− wh
m− 12
)m = 1, . . . ,M
uhM = uhM mit uhM(t0) = 0,
w 12
=c
h
(uh1 − uh0
)wm+ 1
2=
c
h
(uhm+1 − uhm
)m = 1, . . . ,M − 1.
52
mit un(t) ∈ RM+1 und wh(t) ∈ RM , also uh = Bwh und wh = −B>uh. Dabei ist
B =c
h
1−1 1
−1 1. . .
. . .−1 1
−1
∈ RM+1,M , −B> =
c
h
−1 1
−1 1. . .
. . .−1 1
∈ RM,M+1.
Insgesamt folgt dann
d
dt
(uh
wh
)=
(B
−B>)(
uh
wh
).
Wir betrachten die explizite Zeitschrittdiskretisierung
uh,0 = u(t0), wh,0 = w(t0)
wh,12 = wh,0 − τ
2B>uh,0
uh,n = uh,n−1 + τBwh,n−12
wh,n+ 12 = wh,n−
12 − τB>uh,n.
Damit das Verfahren funktioniert, ist eine Schrittweitenbeschränkung von τ ≤ hc
erforder-lich.
(4.3) SatzFür lineare Anfangswertaufgaben hat ein Runge-Kutta-Verfahren die Form
un = R(τA)un−1 mit R(ξ) =P (ξ)
Q(ξ)= 1 + ξb>(I − ξA)−1e
und Polynomen P,Q ∈ PS , d.h. Q(τA)R(τA) = P (τA). Hierbei ist e = (1, ..., 1)>.Für explizite Verfahren ist R = P ∈ PS ein Polynom.Wenn das Verfahren die Ordnung p hat, dann gilt
R(ξ) =
p∑j=0
1
j!ξj +O(ξp+1)
(Padé-Approximation der Exponentialfunktion).
Beweis. Betrachte u = λu, u(0) = 1 = u0 und
u1 = u0 + τ
S∑s=1
bsks, ks = λ
(u0 + τ
S∑r=1
asrkr
).
Setze ξ := λτ und
d :=1
λ
k1...kS
, e :=
1...1
∈ RS.
53
Dann folgen u1 = 1 + ξb>d und d = e+ ξAd und damit3 d = (I − zA)−1e.Also gilt für R(ξ)
u1 = 1 + ξb>(I − ξA)−1e!= R(ξ) .
Die Cramer’sche Regel ergibt mit (I − ξA)d = e für die Komponenten von d
ds =Ps(ξ)
Q(ξ)mit Q(ξ) = det(I − ξA) ∈ PS, Ps ∈ PS−1.
Damit folgt
R(ξ) =Q(ξ) + ξ
∑Ss=1 bsPs(ξ)
Q(ξ).
Ist das Verfahren explizit, so ist A eine strikte untere Dreiecksmatrix und damit nilpotent,denn AS = 0. Die Neumann’sche Reihe liefert für hinreichend kleines τ
(I − ξA)−1 =S−1∑k=0
(ξA)k ∈ PS−1.
Sei nun das Verfahren von der Ordnung p. Dann gilt
3Nach Numerik I konvergiert die Neumannsche Reihe∑k≥0(zA)
k für hinreichend kleines z, d.h., I−zAist invertierbar, und es gilt (I − zA)−1 =
∑k≥0(zA)
k.
54
Also gilt k1 = λu0 und k2 = λ(u0 + τ
2k1 + τ
2k2
).
Daraus ergibt sich k2 =λ(1+ τ
2λ)
1− τ2λu0 und
u1 = u0 +τ
2(k1 + k2) = u0 +
τ
2λu0 +
τ
2
λ(1 + τ
2λ)
1− τ2λ
u0 = R(τλ)u0
mit R(ξ) = 1 + 12ξ + 1
2ξ
1+ 12ξ
1− 12ξ
=1+ ξ
2
1− ξ2
.
(4.4) DefinitionEin Runge-Kutta-Verfahren heißt A-stabil, wenn die linke Halbebene
C− := ξ ∈ C : Re(ξ) ≤ 0
im Stabilitätsgebiet
S := ξ ∈ C : |R(ξ)| ≤ 1
enthalten ist.
BemerkungEs gilt z ∈ C : | exp(z)| ≤ 1 = C−.
Beispiel1) Für das explizite Euler-Verfahren gilt R(ξ) = 1 + ξ und deshalb
|R(ξ)| ≤ 1 ⇐⇒ |ξ − (−1)| ≤ 1.
Also ist das Verfahren nicht A-stabil.
2) Für ein allgemeines explizites Runge-Kutta-Verfahren gilt R(ξ) = P (ξ), wobei P einnichtkonstantes Polynom ist. Somit folgt |P (ξ)| → ∞ für ξ →∞.Also sind explizite Runge-Kutta-Verfahren nicht A-stabil!
3) Für das implizite Euler-Verfahren gilt R(ξ) = 11−ξ , denn aus un = un−1 + τAun folgt
(I − τA)un = un−1. Also gilt un = R(τA)un−1 mit R(τA) = (I − τA)−1. Daher istdas Verfahren A-stabil, denn es gilt
|R(ξ)| =∣∣∣∣ 1
1− ξ
∣∣∣∣ ≤ 1 ⇐⇒ |ξ − 1| ≥ 1.
4) Für die implizite Trapezregel gilt R(ξ) = 2+ξ2−ξ und somit
|R(ξ)|2 = R(ξ)R(ξ) =2 + ξ
2− ξ2 + ξ
2− ξ=
4 + 4 Re ξ + |ξ|2
4− 4 Re ξ + |ξ|2≤ 1 ⇔ Re ξ ≤ 0.
Also gilt S = C−, und das Verfahren ist A-stabil.
5) Für die implizite Mittelpunktsregel gilt ebenfalls R(ξ) = 2+ξ2−ξ .
55
BemerkungFür lineare Anfangswertaufgaben sind implizite Trapezregel und implizite Mittelpunktsre-gel identisch, sie unterscheiden sich aber im nichtlinearen Fall.
BemerkungFür ein explizites konsistentes Runge-Kutta-Verfahren giltR(ξ) = 1+ξ+O(ξ2) und damitfolgen R′(0) = 1 und R(0) = 1. Also existiert ein ε > 0, sodass R(ξ) > 1 für ξ ∈ (0, ε)und R(ξ) < 1 für ξ ∈ (−ε, 0). Folglich gilt 0 ∈ ∂S.Daher definieren wir zu einer stabilen linearen Anfangswertaufgabe eine charakteristischeSchrittweite
τc = supτ > 0 : |R(τA)| ≤ 1 für alle τ ∈ (0, τ) ≥ 0.
Für asymptotisch stabile Anfangswertaufgabe gilt τc > 0
BeispielA) Wärmeleitungsgleichung: τc = O(h2) für explizite Verfahren. τs = ∞ für implizite
Verfahren
B) Wellengleichung: i.A. τc = O(h2) für explizite VerfahrenBetrachte u = Au mit A = ( 0 1
−1 0 ) und σ(A) = ±i. Das Problem ist stabil, abernicht asymptotisch stabil.
1) Explizites Euler-Verfahren: R(ξ) = 1 + ξ. Damit folgt
τc = supτ > 0 : |R(±iτ)| ≤ 1 = 0.
2) Klassisches Runge-Kutta-Verfahren:
R(ξ) = 1 + ξ +1
2ξ2 +
1
6z3 +
1
24ξ4.
Somit folgt τc = 2√
2 ≈ 2.82 . . . . Das Verfahren ist also bei dieser Anfangswert-aufgabe stabil für τ < τc.
(4.5) SatzFür A-stabile Runge-Kutta-Verfahren gilt:Wenn die lineare Anfangswertaufgabe stabil ist,dann ist auch die numerische Lösung sta-bil, d.h.
|un| ≤ C|u0|
mit einem C > 0 gilt für alle Schrittweiten τ > 0.
Beweisidee. (i) A und R(τA) haben die gleichen Eigenvektoren und
λ ∈ σ(A) ⇐⇒ R(τλ) ∈ σ(R(τA)).
(ii) Es gilt wegen der A-Stabilität des Verfahrens für das Stabilitätsgebiet S
z ∈ C : Re z < 0 ⊂ intC− ⊂ λ ∈ C : |R(τλ)| < 1 = intS.
Damit folgt |R(τλ)| < 1 für Reλ < 0.
56
(iii) Aus |R(τλ)| = 1 folgt, dass die algebraische Vielfachheit des EigenwertsR(τλ) vonR(τA) gleich der geometrischen Vielfachheit ist.
(iv) Es gilt |R(τA)nu0| ≤ C|u0|. Also ist das Verfahren stabil.
Die Matrix-Exponentialfunktion
(??)
(4.6) SatzSei R(z) = P (z)
Q(z)eine rationale Funktion zur Approximation der Exponentialfunktion von
der Ordnung p. Dann gilt
p ≤ gradP + gradQ.
Beweis. Angenommen es existieren P,Q mit gradP ≤ k und gradQ ≤ j mit k + j < p.Dann folgt
P (z)
Q(z)= exp(z) +O(zp+1) = exp(z) +O(zk+j+2)
und somit P (z)−Q(z) exp(z) = O(zk+j+2).Zeige mit Vollständiger Induktion: P = Q = 0.Wir führen den Induktionsbeweis über k.
(IA) Sei k = 0 und j beliebig. Also gilt P ∈ R und P exp(−z)+Q(z) = O(zj+2). Durch(j + 1)-maliges Ableiten nach z erhält man dann (−1)j+1P exp(−z) + 0 = O(z)und damit folgt P = 0. Dann giltQ(z) = O(zj+2), und aus gradQ ≤ j folgtQ = 0.
(IS) Wir schließen von k − 1 auf k.Aus P ′(z) +
(Q′(z) + Q(z)
)exp(z) = O(zk+j+1) folgen gradP ′ ≤ k − 1 und
grad(Q+Q′) ≤ j. Damit gilt nach Induktionsvoraussetzung P = 0 undQ+Q′ = O.Somit folgt schließlich Q = 0.
L-Stabilität(4.7) DefinitionEin A-stabiles Runge-Kutta-Verfahren heißt L-stabil, wenn
R(∞) := lim|ξ|→∞
|R(ξ)| = 0
gilt.Dabei ist R(∞) wohldefiniert, denn es ist
|R(z)| =
∣∣∣∣apzp + ap−1zp−1 + · · ·+ a0
bqzq + bq−1zq−1 + · · ·+ b0
∣∣∣∣=
∣∣∣∣ ap + ap−1z−1 + · · ·+ a0z
−p
bqzq−p + bq−1zq−p−1 + · · ·+ b0z−p
∣∣∣∣→
∞, p > q
0, p < q∣∣∣apbq ∣∣∣ , p = q
(|z| → ∞).
BemerkungFür asymptotisch stabile Anfangswertaufgaben gilt dann R(τA) → 0 für τ → ∞, d.h.der asymptotische Zustand lässt sich mit einem Zeitschritt berechnen.
BeispielA) Für das implizite Euler-Verfahren gilt R(ξ) = 1
1−ξ und damit folgt R(∞) = 0.
B) Es gilt für zwei Polynome P und Q mit gradP < gradQ
R(ξ) =P (ξ)
Q(ξ)→ 0 (|ξ| → ∞).
C) Für die implizite Mittelpunktsregel gilt R(ξ) = 2+ξ2−ξ und damit R(∞) = −1, also ist
das Verfahren nicht L-stabil.
58
(4.8) SatzSei (A, b, c) ein A-stabiles Runge-Kutta-Verfahren mit br = aSr für r = 1, . . . , S und seiA invertierbar.Dann ist das Verfahren L-stabil.
Beweis. Es seien
eS =
0...01
, e =
1...1
, b = A>eS ∈ RS.
Dann gelten (eS)>A = (aS1, . . . , aSS) = b>, und aus Satz (4.3) folgt
R(ξ) = 1 + ξb>(I − ξA)−1e = 1 + b>(
1
ξI −A
)−1
e
→ 1− b>A−1e = R(∞) (|ξ| → ∞).
Damit ergibt sich R(∞) = 1− (eS)>AA−1e = 1− (eS)>e = 0.
Reversible VerfahrenBemerkungEin dynamisches System heißt reversibel, falls
φ(t+ τ,−τ, φ(t, τ, z)
)= z ∀t ∈ [t0, t0 + T ], τ > 0, z ∈ G.
Insbesondere gilt für den linearen Fluss u = Au , d.h. für u(t) = etAu(0):
φ(t, τ, z) = eτAz ⇒ e−τAeτAz = z
(4.9) DefinitionEin Runge-Kutta-Verfahren heißt reversibel, wenn
R(ξ)R(−ξ) = 1
für alle ξ ∈ C mit R(ξ) 6= 0 gilt.
Beispiel (Implizite Mittelpunktsregel)Die implizite Mittelpunktsregel hat das Butcher-Schema
12
12
1
Damit gelten
k1 = f(t+
τ
2, un−1 +
τ
2k1
)und un = un−1 + τk1,
59
also τk1 = un − un−1. Damit folgen
un = un−1 + τf
(t+
τ
2,1
2(un + un−1)
),
un−1 = un − τf(
(t+ τ)− τ
2,1
2(un + un−1)
).
Außerdem gilt
R(ξ) =2 + ξ
2− ξ.
Damit folgt R(ξ)R(−ξ) = 1.
(4.10) SatzFür A ∈ RM,M sind äquivalent:
a) Es gilt A = −A> (A schief-symmetrisch).
b) exp(tA) ist orthogonal4 für alle t ∈ R.
c) Für alle u0 ∈ RM und alle Lösungen von u = Au, u(0) = u0 gilt |u(t)|2 = |u0|2(t ≥ 0).
Beweis. Übungen.
(4.11) SatzSei R(ξ) = 1 + ξ + O(ξ2) eine rationale Approximation der Exponentialfunktion mitreellen Koeffizienten und ohne Polstellen in C−.Dann sind äquivalent
a) S = C−.
b) |R(ξ)| = 1 für Re ξ = 0.
c) R ist reversibel, also R(ξ)R(−ξ) = 1 für alle ξ ∈ C mit R(ξ) 6= 0.
Beweis. c)⇒ b): Aus Re(ξ) = 0 folgt −ξ = ξ und damit
1 = R(ξ)R(−ξ) = R(ξ)R(ξ) = R(ξ)R(ξ) = |R(ξ)|2.
b)⇒ c): Es gelte |R(ξ)| = 1 für alle ξ ∈ C mit Re(ξ) = 0. Die Funktion
g : C→ C, g(ξ) := R(ξ)R(−ξ)
ist meromorph5, ebenso ist g ≡ 1 meromorph. Außerdem gilt g = g auf iR. Also ist g ≡ gauf ganz C.a)⇒ b): Annahme: Es gelte |R(ξ)| < 1 für ein ξ ∈ C mit Re(ξ) = 0.
4 A ∈ RM,M heißt orthogonal, wenn AA> = IM .5Eine komplex differenzierbare Funktion mit höchstens abzählbar vielen Polstellen heißt meromorph.
60
Da R in einer Umgebung von ξ stetig ist, existiert dann auch ein ξ ∈ C mit Re(ξ) > 0 und|R(ξ)| < 1, d.h. ξ 6∈ C− und ξ ∈ S, also S 6= C−. Das ist ein Widerspruch zu a).b)⇒ a): Aus |R(ξ)| = 1 für Re ξ = 0 folgt limξ→∞ |R(ξ)| = 1. Zu ρ > 0 betrachte
Ωρ := ξ ∈ C− : |ξ| ≤ ρ.
Für ξρ ∈ C− mit |ξρ| = ρ gilt limρ→∞ |R(ξρ)| = 1 und aus dem Maximumsprinzip folgt
maxξ∈Ωρ|R(ξ)| = max
ξ∈∂Ωρ|R(ξ)|
(denn R ist in Ωρ holomorph) und somit gilt
maxξ∈C−|R(ξ)| = lim
ρ→∞maxξ∈Ωρ|R(ξ)| = lim
ρ→∞maxξ∈∂Ωρ
|R(ξ)| = 1.
Daraus folgt C− ⊂ S.Annahme: Es existiert ein ξ ∈ intS mit Re(ξ) = 0.Dann existiert wegen der Stetigkeit von R ein ξ ∈ intS mit Re(ξ) > 0, d.h. −ξ ∈ S. Dabereits die Äquivalenz von b) und c) gezeigt wurde, folgen
R(ξ)R(−ξ) = 1, |R(ξ)| ≤ 1, |R(−ξ)| ≤ 1,
woraus sich sofort |R(ξ)| = |R(−ξ)| = 1 ergibt.Also existiert ein ε > 0, sodass |R(y)| = 1 für alle y ∈ C mit |ξ − y| ≤ ε, woraus|R(ξ)| ≡ 1 folgt. Das ist ein Widerspruch dazu, dass R(ξ) = 1 + ξ +O(ξ2) gilt.
(4.12) SatzSei A ∈ RM,M mit A = −A> (schief-symmetrisch) und sei R die rationale Funktion zueinem Runge-Kutta-Verfahren mit S = C−.Dann ist R(τA) orthogonal und es gilt für un = R(τA)un−1
|un|2 = |un−1|2.
Beweis. Es gilt
(iA)H = iA> = −iA> = iA,
also ist iA hermitesch6 und hat daher ausschließlich relle Eigenwerte. Außerdem sind iAund A diagonalisierbar und das Spektrum σ(A) von A ist rein imaginär.Mit (4.11) folgt, dass R keine Polstellen auf iR hat. Ferner gilt R(τA)> = R(τA>) =R(−τA). Damit folgt R(τA)R(τA)> = R(τA)R(−τA) = IM . Also ist R(τA) orthogo-nal. Da orthogonale Matrizen Isometrien bezüglich der euklidischen Norm beschreiben,gilt
|un|2 = |R(τA)un−1|2 = |un−1|2 .
6A ∈ CM,M heißt hermitesch, wenn A = A> und AH bezeichnet die zu A adjungierte Matrix.
61
(4.13) DefinitionEine Funktion E : G → R heißt erstes Integral zur Differentialgleichungen u(t) =f(t, u(t)), falls E(u(t)) = const für alle t ∈ [t0, t0 + T ].
BeispielE(z) = z>z, f(z) = Az mit A> = −A schief-symmetrisch.
BezeichnungenDer Fluss φ heißt isometrisch, wenn E(z) = |z|2 ein erstes Integral ist.
(4.14) LemmaE ∈ C1(G) ist genau dann ein erstes Integral einer autonomen Differentialgleichungu = f(u), wenn E ′(z)f(z) = 0 gilt.
Beweis. Es gilt
d
dtE(u(t)) = E ′(u(t))u(t) = E ′(u(t))f(u(t)).
“⇒”: Es sei E(u(t)) = const. Dann folgt E ′(u(t))f(u(t)) = 0. Wähle z = u(0).
“⇐”: Es gelte E ′(z)f(z) = 0. Dann folgt
E(u(t)) = E(u(0)) +
∫ t
0
d
dtE(u(s))ds = E(u(0)) = const .
Also gilt die Äquivalenz.
Konstruktion von B-stabilen Verfahren
(4.15) Definition (Kollokations-Verfahren)Zu Stützstellen 0 ≤ c1 < · · · < cS ≤ 1 definieren wir ein Kollokations-Verfahren durchein Polynom P ∈ PS mit
P (tn−1) = un−1,d
dtP (tn,s) = f(tn,s, P (tn,s))
mit tn,s = tn−1 + τcs für s = 1, . . . , S.
Falls die Interpolationsaufgabe lösbar ist, setze un := P (tn).
(4.16) LemmaDas Kollokations-Verfahren ist ein Runge-Kutta-Verfahren mit
bs =
∫ 1
0
Ls(Θ)dΘ, asr =
∫ cs
0
Lr(Θ)dΘ, Ls(t) =S∏
r=1,r 6=s
t− crcs − cr
für s = 1, . . . , S.
62
Beweis. Die Quadratur mit Stützstellen cs und den Gewichten bs ist exakt für PolynomeQ ∈ PS−1 und es gilt
P (tn,s) = f(tn,s, P (tn,s)) tn,s = tn−1 + csτ (s = 1, . . . , S) , P ∈ Ps(RM)
un = P (tn) = P (tn−1) +
∫ tn
tn−1
P (t)dt = un−1 + τ∑
bsP (tn,s)
P (tn,s) = P (tn−1) +
∫ tn,s
tn−1
P (t)dt = P (tn−1) + τ
∫ cs
0
P (tn−1 + ητ)dη
= un−1 + τs∑r=1
asr P (tn,s)︸ ︷︷ ︸=ks
BeispielA) Gauß-Verfahren
Kollokationsverfahren zu den Stützstellen der Gauß-Quadratur in [0, 1]
S = 1, p = 2 :
12
12
1
S = 2, p = 4 :
12−√
36
14
14−√
36
12
+√
36
14
+√
36
14
12
12
B) Radau-Verfahren
63
Es existieren Stützstellen 0 < c1 < . . . < cS 6= 1, sodass die zugehörige Quadraturdie Ordnung 2S − 1 hat mit S = 3, p = 5 :
4−√
610
88−7√
6360
296−169√
61800
−2+3√
6225
4+√
610
296−169√
61800
88+7√
6360
−2−3√
6225
1 16−√
636
16+√
636
19
16−√
636
16+√
636
19
(4.17) SatzWenn die Quadratur für Polynome vom Grad p − 1 exakt ist (d.h. von der Fehlerordnungp ist), dann hat das zugehörige Kollokationsverfahren auch die Ordnung p.Für das Gauß-Verfahren gilt p = 2S und für das Radau-Verfahren gilt p = 2S − 1.
(4.18) LemmaGauß-Verfahren sind reversibel.
Beweis. Für die Gauß-Quadratur gilt cs = 1− cS−s+1.DefiniereQ(tn−τη) = P (tn−1+τη). Dann folgen P (tn) = Q(tn−1) = un und P (tn−1) =Q(tn) = un−1 und damit
Q(tn − csτ) = f(tn − csτ,Q(tn − csτ)).
Somit folgt schließlich ψ(tn,−τn, ψ(tn−1, τn, z)) = z.
(4.19) SatzDie Differentialgleichung u = f(u) besitze ein quadratisches erstes Integral, d.h.
E(z) = z>Qz + b>z + e
für ein Q ∈ RM,M und ein b ∈ RM .Dann gilt für das Gauß-Verfahren
E(un) = E(un−1).
Beweis. Sei P ∈ PS das Kollokationspolynom. Es gilt zu zeigen: E(P (tn)) = E(P (tn−1)).Definiere dazu Q(t) = E(P (t)) ∈ P2S . Dann folgt
E(un) = E(P (tn)) = Q(tn) = Q(tn−1) +
∫ tn
tn−1
Q′(t)︸ ︷︷ ︸∈P2S−1
dt
= Q(tn−1) + τ
S∑s=1
bsQ′(tn−1 + csτ) = Q(tn−1) = E(un−1),
denn es gilt
Q′(tn−1 + csτ) = E ′(P (tn,s)︸ ︷︷ ︸=z
) · f(P (tn,s)︸ ︷︷ ︸=z
) = 0.
Damit gilt die Behauptung.
64
B-Stabilität(4.20) DefinitionEine Funktion f ∈ C([t0, t0 + T ] × G,RM) heißt monoton (in der zweiten Komponente)bezüglich eines Skalarproduktes (·, ·) im RM , wenn(
f(t, y)− f(t, z), y − z)≥ 0
für alle t ∈ [t0, t0 + T ] und alle y, z ∈ G gilt.
BeispielSei F ∈ C1(G) konvex, G konvex:
F((1− λ)y + λz
)≤ (1− λ)F (y) + λF (z), λ ∈ [0, 1],
dann ist f(t, z) := ∇F (z) monoton7.
(4.21) DefinitionEine Anfangswertaufgabe
u = f(t, u), u(t0) = u0
heißt dissipativ, wenn −f monoton ist.
BemerkungWenn f eine einseitige Lipschitz-Bedingung8, d.h.(
f(t, y)− f(t, z), y − z)≤ L|y − z|2
erfüllt, dann gilt für zwei Lösungen u = f(t, u), v = f(t, v) und alle t ∈ [t0, t0 + T ]
|u(t)− v(t)| ≤ exp(L(t− t0)
)|u(t0)− v(t0)|.
Der Beweis erfolgt analog zu dem von (1.11).Zur Vereinfachung verwenden wir hier nur die Euklidische Norm. Analog lassen sich ein-seitig Lipschitz-Bedingungen zu gewichteten Normen betrachten.Anwendung:
BeispielWir betrachten das lineare Problem mit f(t, z) = Az, wobei Re(λ) ≤ ρ für alle λ ∈ σ(A)gelten soll.Dann unterscheiden wir drei Fälle:
1) A ist diagonalisierbar. Dann folgt(A(y − z), y − z
)≤ ρ|y − z|2.
7Vgl. Optimierungstheorie.8Dabei kann L auch negativ sein.
65
2) Für alle λ ∈ σ(A) sei die algebraische Vielfachheit gleich der geometrischen Viel-fachheit. Dann folgt die Existenz einer symmetrischen und positiv definiten MatrixS ∈ RM,M mit
Damit folgt (Ks, Us) = τ(f(un,s)− f(vn,s), un,s − vn,s
)≤ 0, da −f monoton ist.
Es bleibt zu zeigen, dass |un − vn| ≤ |U0| = |un−1 − vn−1| gilt:
|un − vn|2 =
∣∣∣∣∣U0 +S∑s=1
bsKs
∣∣∣∣∣2
= |U0|2 + 2S∑s=1
bs(U0, Ks) +S∑
r,s=1
bsbr(Ks, Kr)
= |U0|2 + 2S∑s=1
bs(Us, Ks)︸ ︷︷ ︸≤0
+2S∑s=1
bs(U0 − Us, Ks) +S∑
r,s=1
bsbr(Ks, Kr)
≤ |U0|2 − 2S∑s=1
bs
S∑r=1
asr(Kr, Ks) +S∑
r,s=1
brbs(Ks, Kr)
= |U0|2 −S∑s=1
S∑r=1
(bsasr + bsars − bsbr︸ ︷︷ ︸=Msr
)(Ks, Kr)
≤ |U0|2,
denn es gilt, da M positiv semidefinit istS∑
s,r=1
Msr(Ks, Kr) =S∑
s,r=1
Msr
S∑q=1
KsqKrq =S∑
s,r,q=1
MsrKsqKrq =S∑q=1
z>q Mzq ≥ 0
für zq =
K1q...
KSq
(q = 1, . . . , S),
67
wobei Ksq die q-te Komponente des Vektors Ks bezeichnet (s = 1, . . . , S).
Bemerkunga) Gauß-Verfahren sind A, B-stabil und reversibel.
b) Radau-Verfahren sind A, B und L-stabil.
(4.26) SatzDas Kollokationsverfahren zur Gauß-Quadratur ist B-stabil.
Beweis. Sei −f monoton. Zu un−1 und vn−1 definiere Kollokationspolynome P,Q ∈ PSso dass gilt
un = P (tn), vn = Q(tn).
Setze
d(Θ) := |P (tn−1 + Θτn)−Q(tn−1 + Θτn)|2 ∈ P2S.
Damit folgt, da die Gauß-Quadratur exakt von der Ordnung 2S − 1 ist9
|un − vn|2 = |P (tn)−Q(tn)|2 = d(1) = d(0) +
∫ 1
0
d′(Θ)dΘ
= d(0) +S∑s=1
bsR′(cs) ≤ d(0) = |un−1 − vn−1|2 ,
denn bs > 0 und mit tn,s = tn−1 + csτn folgt
d′(cs) = 2(P ′(tn−1 + csτn)−Q′(tn−1 + csτn), P (tn,s)−Q(tn,s)
)= 2
(f(tn,s, P (tn,s)︸ ︷︷ ︸
=:y
)− f(tn,s, Q(tn,s)︸ ︷︷ ︸=:z
), P (tn,s)−Q(tn,s)︸ ︷︷ ︸=y−z
)= −2
(− f(tn,s, z)− (−f(tn,s, y)), z − y
)︸ ︷︷ ︸≥0
≤ 0.
Das war zu zeigen.
BemerkungDie Konzepte der A-Stabilität und B-Stabilität sind nicht äquivalent. Betrachte dazu
f(u) =
|u|3, u < 0
−u2, u ≥ 0.
Dann ist −f monoton. Betrachte die Anfangswertaufgaben
u = f(u), u(0) = −2 v = f(v), v(0) = 0, v ≡ 0,
für die |u(t)| ≤ |u(0)| für alle t ∈ [t0, t0 + T ] gilt.
9Siehe hierzu Numerik I.
68
Betrachte die A-stabile implizite Trapez-Regel
0 0 01 1
212
12
12
,
die wegen R(ξ) = ξ+2ξ−2
nicht L-stabil ist.
Dann gilt für n = 1, τ = 367
, dass u1 = 52
ist und, da v0 = v1 = 0, gilt
|u1 − v1| =5
2> 2 = |u0 − v0|.
Also ist das Verfahren A-stabil, aber nicht B-stabil.
(4.27) SatzFür dissipative Anfangswertaufgaben ist das Gauß- und Radau-Verfahren für alle τ > 0wohldefiniert.
Beweis für S = 1. Zu un−1 bestimme z = un mit
un = un−1 + τf
(tn−1 +
τn2,1
2(un−1 + un)
),
d.h. löse
G(z) = un−1 + τf
(tn + tn−1
2,1
2(un−1 + z)
)− z = 0.
Idee: Betrachte y = G(y) und definiere z = limt→∞ y(t).Es gilt, da −G strikt monoton ist
(G(z)−G(z), z − z
)=
(f
(t,
1
2(un−1 + z)
)− f
(t,
1
2(un−1 + z)
)− z − z,
z + un−1 − (z + un−1)
)≤ −|z − z|2.
Also gilt für y = G(y), w = G(w)
|y(t)− w(t)| ≤ exp(−t)|y(0)− w(0)| ∀t ≥ 0.
Damit gilt für den Fluss φ zu G für Θ = exp(−1) < 1
|φ(t, 1, y0)− φ(t, 1, w0)| ≤ Θ|y0 − w0|.
Definiere F (w) := φ(t, 1, w). Dann gilt für ein Θ ∈ (0, 1)
|F (y)− F (w)| ≤ Θ|y − w|,
d.h. F ist kontrahierend und mit dem Banach’schen Fixpunktsatz folgt die Existenz genaueines Fixpunktes z = F (z). Dann ist φ(t, τ, z) = z für alle τ > 0. Also gilt G(z) = 0.
69
BemerkungDAE-System (differtial-algebraische Gleichungen) von Index 1:Betrachte
f ∈ C([t0, t0 + T ]×G1 ×G2,RM1) u0 ∈ G1 ⊂ RM1
g ∈ C([t0, t0 + T ]×G1 ×G2,RM2) v0 ∈ G2 ⊂ RM2 .
Suche Lösung(uv
)∈ C1([t0, t0 + T ], G1)× C([t0, t0 + T ], G2) von
u(t) = f(t, u(t), v(t)) u(t0) = u0
0 = g(t, u(t), v(t)) v(t0) = v0
mit t ∈ (t0, t0 + T ).
(4.28) Satza) Seien f,g stetig differenzierbar, g(t0, u0, v0) = 0 und D3g(t, u0, v0) regulär. Dann exis-
tiert T > 0 für die das DAE- System eindeutig lösbar ist.
b) Sei (A, b, c) ein steif-genaues Runge-Kutta-Verfahren der Ordnung p (d.h. asr = br,
r = 1, . . . , S) und zu(un−1
vn−1
)existiert eine Lösung
(ksls
)mit s = 1, . . . , S
(ks0
)=
(f(tn,s, u
n,s, vn,s)g(tn,s, u
n,s, vn,s)
)
mit un,s = un−1 + τ∑asrkr und vn,s = vn−1 + τ
∑asrlr.
Dann gilt für(un
vn
)=
(un−1
vn−1
)+ τ
∑bs
(ksls
):
|(un
vn
)−(u(tn)v(tn)
)| = O(τ p)
c) Sei zusätzlich A invertierbar. Dann konvergiert die Runge-Kutta-Lösung von
uε = f(t, uε, vε) uε(0) = u0
εvε = g(t, uε, vε) vε(0) = v0
für ε→ 0 gegen die DAE-Lösung.
Beweis. zu a) HS zu impliziten Funktionen:Es existiert U ⊂ R×G1 von (t0, u0) und H ∈ C1(U,G2) mit g(t, z,H(t, z)) = 0 ,(t, z) ∈ U .definiere h(t, z) = f(t, z,H(t, z, ))⇒ existiert ein T > 0 mit u = h(t, u) für (t0, t0 + T ), sodass u(t0) = u0 eindeutiglösbar ist. Setze v(t) = H(t, u(t))
70
zu b) Sei un−1 gegeben, sei g(tn−1, un−1, vn−1) = 0
⇒ vn−1 = H(tn−1, un−1)
definiere Runge-Kutta-Lösung
un = un−1 + τ∑
bsks
ks = h(tn,s, un,s) = f(tn,s, u
n,s, vn,s) mit vn,s = H(tn,s, un,s)
Da das Runge-Kutta-Verfahren nach Voraussetzung steif-genau ist, folgt vn,s = vn
BeispielBetrachte die freie Schwingung mit der Gleichung
u+ ω2u = 0 (ω > 0)
und der Lösung
u(t) = c0 sin(ωt) + c1 cos(ωt).
Für (0, T ) =(0, π
ω
)betrachten wir die folgenden Fälle:
0) Gilt u(0) = u0, u(0) = v0, dann ist die Anfangswertaufgabe eindeutig lösbar.
1) Wenn u(0) = u(T ), u(0) = u(T ) gilt, dann gibt es nur die eindeutige Lösung u ≡ 0.
2) Im Fall von u(0) = u(T ) gibt es unendlich viele Lösungen c1 = 0, c0 ∈ R.
3) Für u(0) = 0, u(T ) = 1 gibt es keine Lösung.
Die Randwertaufgabe zweiter Ordnung lässt sich als System erster Ordnung umformulie-ren: Aus v = ω−1u und v = ω−1u folgt(
uv
)=
(0 ω−ω 0
)(uv
).
(5.1) Definition (allgemeine inhomogene lineare Randwertaufgabe)Sei I = [α, β] ⊂ R ein Intervall und seien A ∈ C(I,RM×M), b ∈ C(I,RM) für dieDifferentialgleichung und Bα, Bβ ∈ RM×M und g ∈ RM für die Randwerte gegben.Bestimme u ∈ C1([α, β),RM) mit
u(t) = A(t)u(t) + b(t) t ∈ (α, β),
Bαu(α) +Bβu(β) = g.
(5.2) SatzSei u0 ∈ C1(I,RM) eine Lösung der inhomogenen Anfangswertaufgabe
u0 = Au0 + b, u0(a) = 0M
und sei um ∈ C1(I,RM) eine Lösung der homogenen Anfangswertaufgabe
um = Aum, um(a) = em, m = 1, . . . ,M.
Dann gilt um(t) = exp(∫ t
α
A(s)ds)em, und
U(t) =(u1(t)| · · · |uM(t)
)∈ RM×M
ein Fundamentalsystem. Jede Lösung von (5.1) hat die Form
u(t) = u0(t) +M∑m=1
ymum(t),
72
wobei y ∈ RM eine Lösung der linearen Gleichung[Bα +BβU(β)
]y = g −Bβu
0(β)
ist. Außerdem gilt U = AU in (α, β) und für J = detU gilt
J = (traceA)J
U(α) = IM =⇒ J(α) = M > 0
=⇒ J(t) = exp(∫ t
α
traceA(s)ds)J(α) > 0
Wir werden häufig die Bezeichnung
Q := Bα +BβU(β) ∈ RM×M
verwenden.
(5.3) SatzFür die Randwertaufgabe (5.1) gilt die Fredholm’sche Alternative:
a) Q = Bα +BβU(β) ist regulär. Dann ist (5.1) für alle g ∈ RM eindeutig lösbar.
b) Q ist singulär. Dann gibt es die folgenden Möglichkeiten
b1) Qy = g −Bβu0(β) lösbar. Dann ist die Randwertaufgabe mehrdeutig lösbar.
b2) Qy = g−Bβu0(β) nicht lösbar. Dann ist auch die Randwertaufgabe nicht lösbar.
Also gilt: Entweder ist Q regulär oder Qy = f ist mehrfach bzw. gar nicht lösbar.
Völlig analog lässt sich nun eine numerische Lösung definieren.
(5.4) SatzSei u0
τ eine diskrete Lösung der Anfangswertaufgabe
u0 = Au0 + b, u0(α) = 0M
und sei umτ eine diskrete Lösung der Anfangswertaufgabe
um = Aum, um(α) = em, m = 1, . . . ,M
mit τ = (β − α)/N > 0 und tn = α + nτ . Definiere
Uτ (tn) :=(u1τ (tn)| · · · |uMτ (tn)
),
Qτ := Bα +BβUτ (β) ∈ RM×M .
73
Sei yτ ∈ RM eine Lösung von
Qτyτ = g −Bβu0τ (β),
und setze
uτ := u0τ +
M∑m=1
yτ,mumτ
und für umτ gelte
|um(tn)− umτ (tn)| = O(τ p) für m = 0, . . . ,M .
Dann gilt:Wenn Q = Bα + BβU(β) regulär ist, dann existiert ein τ0 > 0, so dass Qτ für alleSchrittweiten τ ∈ (0, τ0) regulär ist und dass für die Lösung der Randwertaufgabe gilt
|u(tn)− uτ (tn)| = O(τ p).
Beweis. Der Beweis erfolgt in drei Schritten.(i) Es gilt
‖Q−Qτ‖ ≤ ‖Bβ
(U(β)− Uτ (β)
)‖ ≤ ‖Bβ‖‖U(β)− Uτ (β)‖
≤ ‖Bβ‖ maxm=1,...,M
|um(β)− umτ (β)| = O(τ p).
Also existiert zu jedem ρ ∈ (0, 1) ein τ0 > 0 mit
‖Q−Qτ‖ ≤ρ
‖Q−1‖für jedes τ ≤ τ0 .
(ii) Nun gilt für τ < τ0
‖Q−1(Q−Qτ )‖ ≤ ‖Q−1‖‖(Q−Qτ )‖ ≤ ρ < 1,
so dass die Neumannreihe zu Q−1Qτ = IM −Q−1(Q−Qτ ) gegen die Inverse
(Q−1Qτ )−1 =
∞∑k=0
(Q−1(Q−Qτ )
)kkonvergiert. Somit ist auch Qτ regulär, und es gilt die Abschätzung
‖(Q−1Qτ )−1‖ ≤ 1
1− ‖Q−1(Q−Qτ )‖.
Mit ‖Q−1τ ‖ = ‖(QQ−1Qτ )
−1‖ = ‖(Q−1Qτ )−1Q−1‖ ≤ ‖(Q−1Qτ )
−1‖‖Q−1‖ folgt
‖Q−1τ ‖ ≤
‖Q−1‖1− ‖Q−1(Q−Qτ )‖
≤ ‖Q−1‖
1− ρ
74
und es gilt mit i) für τ < τ0
‖Q−1 −Q−1τ ‖ = ‖Q−1(Qτ −Q)Q−1
τ ‖ ≤‖Q−1‖2
1− ρ‖Q−Qτ‖ ≤ O(τ p) .
(iii) Ferner gilt
y − yτ = Q−1(g −Bβu0(β))−Q−1
τ
(g −Bβu
0τ (β)
)= (Q−1 −Q−1
τ )(g −Bβu
0τ (β)
)+Q−1Bβ
(u0τ (β)− u0(β)
)Somit folgt |y − yτ | = O(τ p) und schließlich die Behauptung:
|u(tn)− uτ (tn)| =∣∣∣u0(tn)− u0
τ (tn) +M∑m=1
(ymu
m(tn)− yτ,mumτ (tn)
− yτ,mum(tn) + yτ,mum(tn)︸ ︷︷ ︸
=0
)∣∣∣≤ |u0(tn)− u0
τ (tn)|+M maxm=1,...,M
|um(tn)| |ym − yτ,m|
+M maxm=1,...,M
|yτ,m| |um(tn)− umτ (tn)| = O(τ p) .
Die Mehrzielmethode (multiple shooting)BeispielBetrachte auf dem Intervall I = [0, 10] die Differentialgleichung
u(t)− u(t)− 110u(t) = 0
mit dem charakteristischen Polynom λ2 − λ − 110 = (λ − 11)(λ + 10). Also ist dieallgemeine Lösung von der Form
u(t) = y1 exp(−10t) + y2 exp(11t).
Mit den Anfangswerten u1(0) = 1, u2(0) = 1, u1(0) = 0 und u2(0) = 1 ergibt sich einFundamentalsystem
u1(t) =11
21exp(−10t) +
10
21exp(11t) ,
u2(t) = − 1
21exp(−10t) +
1
21exp(11t) .
Für u(0) = u(10) = 1 gilt u = u1 + y2u2 mit
y2 = −10 +21 + exp(−100)
exp(110)− exp(−110)≈ −10 + 3.5 · 10−47 ,
d.h. der Koeffizient y2 ist mit normaler Rechner-Arithmetik nicht darstellbar und somitauch durch ein einfaches Schießverfahren (bei dem nur der passende Anfangswert be-stimmt wird, so dass die Lösung der Anfangswertaufgabe eine Lösung der Randwertauf-gabe ist) nicht berechenbar.
75
Stabilitätsanalyse für lineare Anfangswertaufgaben u = Au + f . Für beliebige An-fangswertaufgaben erhält man folgende Fehlerabschätzung für zwei Lösungen u und u
|u(β)− u(β)| ≤ exp((β − α)L
)|u(α)− u(α)|.
Dabei ist L ≥ Reλ für alle Eigenwerte λ von A.Für L(β − α) 1 ist die Berechnung u(α) → u(β) sehr schlecht konditioniert. Oft istaber die RWA gut konditioniert!Dazu betrachte die lineare Randwertaufgabe u = Au + g mit den RandbedingungenBαu(α) +Bβu(β) = g. Sei U(t) ein Fundamentalsystem und es gelte
U = AU, U(α) = IM , Q = Bα +BβU(β).
Definiere die Green’sche Funktion
G(t, s) =
U(t)Q−1BβU(β)U(s)−1, t < s
U(t)(IM −Q−1BβU(β)
)U(s)−1, t > s.
Dann löst
u(t) =
∫ β
α
G(t, s)b(s)ds+ U(t)Q−1g
=
∫ t
α
U(t)(IM −Q−1BβU(β)
)U(s)−1b(s)ds
+
∫ β
t
U(t)Q−1BβU(β)U(s)−1b(s)ds+ U(t)Q−1g
die Randwertaufgabe, denn
u(t) = Au(t) + U(t)(IM −Q−1BβU(β) +Q−1BβU(β)
)U(t)−1b(t)
= Au(t) + b(t)
Bαu(α) +Bβu(β) = g
und somit gilt
‖u‖∞ ≤ C
(∫ β
α
|b(s)|ds+ |g|)
mit C = maxs,t
‖G(s, t)‖, ‖U(t)Q−1‖
.
BeispielSei A =
(0 11 0
). Dann ist L = 1 außerdem sei (α, β) = (0, T ), somit hat die Anfangs-
wertaufgabe die Kondition exp(T ), diese strebt für T →∞ gegen unendlich.
Bα =
(1 00 0
)Bβ =
(0 01 0
)g =
(00
)
Damit gilt
u1(t)− u1(t) = 0 für t ∈ (0, T ) und u1(0) = u1(t) = 0
76
mit dem Fundamentalsystem
U(t) = exp(tA) =1
2
(1 11 −1
)(exp(t) 0
0 exp(−t)
)(1 11 −1
)=
(cosh(t) sinh(t)sinh(t) cosh(t)
)und
Q =
(1 0
cosh(T ) sinh(T )
).
Somit folgt, dass
C = max
exp(T )
sinh(T ),1 + cosh(T )
sinh(T )
beschränkt ist für T →∞.
Aus der Stabilitätsanalyse folgt, dass das Randwertproblem für große Zeitintervalle vielbesser konditioniert ist, als die Anfangswertaufgabe. Für zu große Intervalle kann die An-fangswertaufgabe sogar so schlecht konditioniert sein, dass das einfache Schießverfahrennumerisch nicht durchführbar ist. Die Mehrzielmethode zerlegt daher das Intervall [α, β]in so kleine Teilintervalle, dass die Kondition der Anfangswertaufgabe nicht zu groß ist.Die Forderung, dass die Lösung an den Intervallgrenzen stetig ist, ergibt ein Gleichungs-system.
Idee Wähle R ∈ N so groß, dass L(β−α)R
klein genug ist und definiere tr = α + r β−αR
.
Bestimme v0, . . . , vR ∈ RM und Lösungen ur ∈ (tr−1, tr) mit
ur = Aur + b, ur(tr−1) = vr−1 r = 1, . . . , R ,
so dass
ur(tr) = vr, r = 1, . . . , R
Bαv0 +Bβv
R = g
Sei u0,r Lösung von u0,r = Au0,r + b in (tr−1, tr) mit u0,r(tr−1) = 0, definiere
U r(t) = U(t)U(tr−1)−1 =⇒ U r = AU r, U r(tr−1) = IM
Damit ergibt sich ur(t) = u0,r(t) + U r(t)vr−1.Aus u0,r(tr) + U r(tr)v
r−1 = vr für r = 1, . . . , R und =⇒ Bαv0 + Bβv
R = g ergibt sichdas lineare Gleichungssystem
Bα 0 · · · Bβ
−U1(t1) IM · · · 0· · ·
0 0 · · · −UR(tR) IM
v0
v1
...vR
=
g
u0,1(t1)...
u0,R(tR)
(∗)
77
(5.5) SatzWenn die lineare Randwertaufgabe (5.1) eindeutig lösbar ist, dann besitzt auch die Mehr-zielmethode eine eindeutige Lösung.
Beweis. Es genügt zu zeigen, dass die homogene Aufgabe
BemerkungOft ist Q schlecht konditioniert, so dass es oft sinnvoll, das LGS (∗) mit Pivot-Suche zulösen.
78
Allgemeine nichtlineare RandwertaufgabenAnwendung (Variationsrechnung)Wir wollen die Geodätische auf der Mannigfaltigkeit M = S2 (Einheitssphäre) bestim-men. Seien dazu Punkte A,B ∈ M gegeben. Wir suchen nun eine Kurve c : [0, 1] → Mmit c(0) = A, c(1) = B und minimaler Länge, d.h.∫ 1
0
|c(t)| dt = Min!
Nach Einführung von sphärischen Koordiaten erhalten wir
c(t) =
cosφ(t) cosψ(t)cosφ(t) sinψ(t)
sinφ(t)
∈ S2 , φ(t) ∈(−π
2,π
2
), ψ(t) ∈ (0, π) ,
und damit
l(c) =
∫ 1
0
√(cosψ(t)
)2φ(t)2 + ψ(t)2︸ ︷︷ ︸
=:L(t,(φψ),(
φ
ψ))
dt.
Da wir ein Minimum von l(c) suchen, muss für die erste Variation δl(c) = 0 gelten. Dasführt zur Euler-Lagrange-Gleichung
d
dtD3L
(t,
(φ
ψ
),
(φ
ψ
))= D2L
(t,
(φ
ψ
),
(φ
ψ
)).
Daraus folgt
d
dt
φ
|c|=− sinφ cosφ φ|ψ|2
|c|,
d
dt
| cosφ|2ψ|c|
= 0
und damit für eine (umparametrisierte ) Kurve mit |c(t)| ≡ 1
φ = 2 tanφ φψ , ψ = − sinφ cosφ φ|ψ|2.
Mit q = (φ, ψ) und p = q ergibt sich eine allgemeine Randwertaufgabe erster Ordnung.
(5.6) Definition (Allgemeine Randwertaufgabe)Seien I = (α, β), f ∈ C(I × RM ,RM) und g ∈ C(RM × RM) gegeben.Bestimme u ∈ C1(I,RM) mit
u(t) = f(t, u(t)), t ∈ (α, β)
g(u(α), u(β)
)= 0.
Beispiel (Schieß-Verfahren)Bestimme v ∈ RM , sodass die Lösung u(·; v) ∈ C1(I,RM) der Anfangswertaufgabe
u(t; v) = f(t, u(t; v)
), t ∈ (α, β)
u(α; v) = v
79
die Bedingung g(v, u(β; v)
)= 0 erfüllt.
Damit ein Newton-Verfahren sinnvoll ist, muss die Lösung der Anfangswertaufgabe diffe-renzierbar von v abhängen.
(5.7) SatzSei f ∈ C1(I × RM ,RM). Dann ist u(·; v) nach v differenzierbar mit
J = Dvu(·; v) ∈ C1(I,RM×M)
Jm,k(t) = limδ→0
1
δ
(um(t; v + δek)− um(t; v)
)und J erfüllt die lineare Matrix-Anfangswertaufgabe
J(t) = D2f(t, u(t; v))︸ ︷︷ ︸=A(t)
J(t), J(α) = I , (∗)
d.h., J ist ein Fundamentalsystem zur linearen Anfangswertaufgabe u = A(t)u.
Beweis. Zeige: Die Lösung J ∈ C1(I, RM×M) der Gleichung (∗) erfüllt
J(t)ek = limδ→0
1
δ
(uv+δek(t)− u(t; v)
).
Dazu setzen wir w := v + δek für festes δ. Dann gilt
1
δ
(u(t;w)− u(t; v)
)=
1
δ
(u(α;w)− u(α; v)
)+
1
δ
∫ t
α
(u(s;w)− u(s; v)
)ds
=1
δ(w − v) +
1
δ
∫ t
α
(f(s, u(s;w)
)− f
(s, u(s; v)
))ds
= ek +1
δ
∫ t
α
[∫ 1
0
(d
dλf(s, u(s; v) + λ
(u(s;w)− u(s; v)
)))dλ
]ds
= ek
+
∫ t
α
∫ 1
0
D2f(s, u(s; v) + λ
(u(s;w)− u(s; v)
))dλ
1
δ
(u(s;w)− u(s; v)
)ds .
Es gilt
J(t)ek = J(α)ek +
∫ t
α
J ′(s)ek ds = ek +
∫ t
α
D2f(s, u(s; v)
) [J(t)ek
]ds .
Nach dem Gronwall-Lemma (1.13) gilt limδ→0 u(t;w) = u(t; v) gleichmäßig in (α, β). Daf stetig differenzierbar ist, konvergiert also
∫ 1
0D2f
(s, u(s; v) + λ
(u(s;w)− u(s; v)
))dλ
gegen D2f(s, u(s; v)
)für δ −→ 0.
Da die Lösung der linearen AWA (∗) eindeutig ist, existiert der Grenzwert
limδ→0
1
δ
(u(t;w)− u(t; v)
)= J(t)ek .
d.h. 1δ
(u(t;w)−u(t; v)
)konvergiert gegen die eindeutige Lösung z(t) = J(t)ek der AWA
z(t) = A(t)z(t) mit z(α) = ek. Das wollten wir zeigen.
80
Beispiel (Duffing-Gleichung)Betrachte die Gleichung
u(t) = u(t)− u3(t), t ∈ (α, β) mit u(α) = u(β) = 0
Sie ist ein Hamilton-System mit
H(p, q) =1
2p2 − (
1
2q2 − 1
4q4), p = u, q = u
p = q − q3 = −∂H(p, q)
∂q
q = p =∂H(p, q)
∂p
Beispiel (Schieß-Verfahren)Bestimme v ∈ R und die Lösung der Anfangswertaufgabe
u(t; v) = f(t, u(t; v)
)in (α, β)
u(α; v) = v
so, dass g(v, u(β; v)
)gilt, d.h. löse G(v) = 0 mit G(v) = g
(v, u(β; v)
).
AlgorithmusS0) Wähle v ∈ RM (Startwert), δ > 0 und ε > 0.
Sei u ∈ C2((0, 1)) ∩ C1([0, 1]) eine Lösung. Dann gilt
u(x) = u(0) +
∫ x
0
u′(y)dy = u(0) +
∫ x
0
(u′(0) +
∫ y
0
u′′(z)dz
)dy
= u(0)︸︷︷︸=:c0=0
+xu′(0)︸︷︷︸=:c1
−∫ x
0
∫ y
0
f(z)dz︸ ︷︷ ︸=:F (y)
dy.
Mit partieller Integration folgt∫ x
0
F (y)dy =[yF (y)
]y=x
y=0−∫ x
0
yf(y)dy = x
∫ x
0
f(y)dy −∫ x
0
yf(y)dy
=
∫ x
0
(x− y)f(y)dy
und durch Einsetzen sieht man
u(0) = 0 = c0
u(1) = 0 = c1 −∫ 1
0
F (y)dy.
Damit folgt
c1 =
∫ 1
0
(1− y)f(y)dy
und somit
u(x) = x
∫ 1
0
(1− y)f(y)dy +
∫ x
0
(y − x)f(y)dy =
∫ 1
0
G(x, y)f(y)dy
mit der Green’schen Funktion
G(x, y) =
y(1− x), 0 ≤ y ≤ x,
x(1− y), x ≤ y ≤ 1.
Folgerung
a) Es gilt G(x, y) ≥ 0 für x, y ∈ [0, 1] und damit folgt, dass aus f ≥ 0 auch u ≥ 0 folgt(Maximumprinzip).
b) Da für alle stetigen f eine Lösung existiert, liefert (5.2), dass diese Lösung eindeutigist.
82
c) Es gilt die a-priori-Abschätzung
‖u‖∞ = maxx∈[0,1]
|u(x)| ≤ maxx∈[0,1]
∫ 1
0
|G(x, y)||f(y)|dy
≤ ‖f‖∞ maxx∈[0,1]
∫ 1
0
|G(x, y)|dy
= ‖f‖∞ maxx∈[0,1]
1
2x(1− x) =
1
8‖f‖∞.
Modellbildung Seien u, σ, p, q, r, f : [0, T ]× [α, β]→ R.Wobei u die Konzentration/Dichte, σ den Fluss, p die Diffusion, q die Strömung, r dieReaktion und f die Quellen/Senken darstellt.
Außerdem sei die Konstitutive Gleichung
σ = −pu′ + qu
und die Bilanzgleichung
d
dt
∫I
u(x)dx = σ(a)− σ(b)︸ ︷︷ ︸=−
∫ ba σ′(x)dx
−∫ b
a
r(u)u(x)dx+
∫ b
a
f(x)dx
u = −σ′ − r + f = (pu′ + qu)′ − ru+ f
⇒ u+ Lu = f mit Lu = −(pu′ + qu)′ + ru
SpezialfälleDiffusion u− (pu′)′ = fTransport u− (qu)′ = fReaktion r + ru = f ⇒ unabhängig für x lösbar.Falls u+Lu = f asymptotisch stabil ist, so kann Lu = f ,mit dem Grenzwert für t→∞,direkt berechnet werden .
(6.1) DefinitionDie Gleichung Lu = f in (α, β) mit Lu = −(pu′)′ + qu′ + ru und
Lu = f mit u(α) = u(β) = 0 eine eindeutige Lösung.
Beweis. Aus der Fredholm’schen Alternative folgt:Wenn die Aufgabe Lu = 0 mit u(α) = u(β) = 0 nur die triviale Lösung u ≡ 0 besitzt,dann ist Lu = f mit u(a) = u(b) = 0 für jede rechte Seite f eindeutig lösbar.
83
u(x) = u(α) +
∫ x
α
u′(y)dy ≤∫ x
α
1|u′(y)|dy
C.S.
≤ (
∫ x
α
12)12 (
∫ x
α
|u′(y)|2dy)12 ≤
√β − α(
∫ β
α
|u′(y)|2dy)12
Mit der Poincaré-Ungleichung folgt somit
‖u‖2L2(α,β) =
∫ β
α
|u(x)|2dx ≤∫ β
α
(β − α)
∫ β
α
|u′(y)|2dydx
≤ (β − α)2
∫ β
α
|u′(y)|2dy ≤ (β − α)2‖u′‖2L2(α,β)
0 =
∫ β
α
Luudx = −∫ β
α
(pu′)′udx+
∫ β
α
qu′udx+
∫ β
α
ru2dx
P.I.= −(pu′)′u|βα︸ ︷︷ ︸
=0
+
∫ β
α
p(u′)2dx+
∫ β
α
q1
2(u2)′dx+
∫ β
α
ru2dx
P.I.=
∫ β
α
p(u′)2dx+ q1
2(u2)|βα︸ ︷︷ ︸=0
+
∫ β
α
(−1
2q′ + r)u2dx
≥ ρ
∫ β
α
(u′)2dx+
∫ β
α
(−1
2q′ + r)u2dx
≥∫ β
α
(ρ
(β − α)2− 1
2q′ + r)︸ ︷︷ ︸
>0
|u|2dx ≤ 0
Daraus ergibt sich u = 0.
Finite-Differenzen-Verfahren(6.3) SatzSei h > 0, x ∈ R und [x − h, x + h] ⊂ I = [α, β). Dann gilt für hinreichend glatteu ∈ Cp(I)
a) u′(x) = 1h
(u(x+ h)− u(x)
)+ hR1(u, x) mit ‖R1(u, ·)‖∞ ≤ 1
2‖u′′‖∞
b) u′(x) = 1h
(u(x)− u(x− h)
)+ hR2(u, x) mit ‖R2(u, ·)‖∞ ≤ 1
2‖u′′‖∞
c) u′(x) = 12h
(u(x+ h)− u(x− h)
)+ h2R3(u, x) mit ‖R3(u, ·)‖∞ ≤ 1
6‖u′′′‖∞
d) u′′(x) = 1h2
(u(x+h)−2u(x)−u(x−h)
)+h2R4(u, x) mit ‖R4(u, ·)‖∞ ≤ 1
12‖u′′′′‖∞
84
Beweis. Zu c) Aus der Taylor-Entwicklung folgt:
u(x± h) = u(x)± hu′(x) +1
2h2u′′(x)± 1
6h3u′′′(x± ξ±) ξ± ∈ (0, h)
u(x+ h)− u(x− h) = 2hu′(x) +1
6h3(u′′′(x+ ξ+)u′′′(x− ξ−)︸ ︷︷ ︸
=R(u,x)
)
⇒ u′(x) =1
2h(u(x+ h)− u(x− h))− 1
12h2(u′′′(x+ ξ+)u′′′(x− ξ−)
)Setze
∂hu(x) :=1
2h
(u(x+ h)− u(x− h)
).
Beispiel (Linearer Sturm-Liouville-Operator)Approximiere L mit
Lu = −(pu′)′ + qu′ + ru auf (α, β) mit u(α) = u(β) = 0
durch Lh mit
Lhu(x) = −∂h/2(p∂h/2u)(x) + (q∂hu)(x) + ru(x)
auf ∆ = ∆h = xn = α + nh, n = 0, . . . , N + 1, wobei h := β−αN+1
sei.
Dann folgt für die Lösung uh der diskreten Aufgabe Lhuh = fh
−(pn− 1
2un−1 −
(pn− 1
2+ pn+ 1
2
)un + pn+ 1
2un+1
)+
1
2hqn(un+1 − un−1) + h2rnun = h2fn
für (1 ≤ n ≤ N) mit u0 = uN+1 = 0, pn+ 12
= p(xn + 1
2h), qn = q(xn), rn = r(xn),
fn = f(xn) und uh =
( u1...uN
).
Setze fh :=
(f1...fN
). Dann folgt Ahuh = fh mit der Tridiagonalmatrix Ah ∈ RN×N
Ah =1
h2
p 1
2+ p 3
2+ h2r1 −p 3
2− 1
2hq1
−p 32
+ 12hq2
. . . . . .. . . . . . . . .
−pn− 12− 1
2hqn pn− 1
2+ pn+ 1
2+ h2rn −pn+ 1
2+ 1
2hqn
.
BeispielIm Fall −u′′ = f ergibt sich A = 1
h2
2 −1
−1. . . . . .. . . . . . −1−1 2
.
BezeichnungenZu u ∈ C([α, β]) definiere
Ihu :=
u(x1)...
u(xN)
85
und
‖u‖∞,∆ := maxn=1,...,N
|u(xn)| = |Ihu|∞.
Wir werden in den Normabschätzungen oft die Funktionen mit ihren jeweiligen linearenInterpolationen an den Sützstellen x1, . . . , xN identifizieren und umgekehrt.
(6.4) DefinitionEine Finite-Differenzen-Approximation Lh von L heißt
a) konsistent, wenn
‖LhIhu− fh‖∞,∆ → 0, h→ 0
b) konsistent von der Ordnung p, wenn gilt
‖LhIhu− fh‖∞,∆ = O(hp),
c) stabil, C > 0 unabhängig von h ∈ (0, h0) existiert mit ‖L−1h ‖∞,∆ ≤ C.
(6.5) SatzEine Finite-Differenzen-Diskretisierung ist konvergent (von der Ordnung p), wenn sie kon-sistent (von der Ordnung p) und stabil ist.
Beweis. Es gilt
‖u− uh‖∞,∆ = ‖Ihu− uh‖∞,∆ = ‖L−1h Lh(Ihu− uh)‖∞,∆
≤ ‖L−1h ‖∞,∆︸ ︷︷ ︸≤C
‖LhIhu− fh‖∞,∆︸ ︷︷ ︸=O(hp)
= O(hp)
und damit ist das Verfahren konvergent von der Ordnung p.
(6.6) SatzFür A ∈ RN×N gelte:
a) A ist stark diagonal dominant, d.h.
N∑k=1,k 6=n
|A[n, k]| ≤ |A[n, n]|, n = 1, . . . , N
und es existiert ein j ∈ 1, . . . , N mit
N∑k=1,k 6=j
|A[j, k]| < |A[j, j]|.
b) A ist irreduzibel, d.h. zu jedem Paar j 6= n existiert eine Folge j = j0, j1, j2, . . . , jR =n mit
2) Falls A[n, n] > 0 für n = 1, . . . , N , dann ist A positiv definit10.
3) Falls A[n, n] > 0 und A[n, k] ≤ 0 für n, k = 1, . . . , N und n 6= k, dann gilt A−1 ≥ 0,d.h. A−1[n, k] ≥ 0 für alle n, k = 1, . . . , N .Eine solche Matrix heißt M-Matrix.
Beweis. Da A irreduzibel ist, folgt aus a)
N∑k=1,k 6=n
|A[n, k]| > 0
und damit |A[n, n]| > 0 für alle n = 1, . . . , N . Also existiert zu A = D + L + R mitD = diag(A),L = lower(A),R = upper(A) die Matrix J := D−1(L+R) = D−1A−I .11
Behauptung: ρ(J) < 1.Sei µ ∈ C ein Eigenwert von J mit Eigenvektor w ∈ CN\0 und es gelte ohne Ein-schränkungen |w|∞ = 1. Wähle n ∈ 1, . . . , N mit |wn| = 1. Dann folgt
|µ| = |µwn| = |(Jw)n| =
∣∣∣∣∣A[n, n]−1
N∑k=1,k 6=n
A[n, k]wk
∣∣∣∣∣≤ |A[n, n]|−1
N∑k=1,k 6=n
|A[n, k]|a)
≤ 1.
Also gilt ρ(J) ≤ 1.Annahme: Es existiert ein µ ∈ σ(J) mit |µ| = 1.Wähle j mit der zweiten Forderung von a). Dann gilt
|wj| = |µwj| ≤ |A[j, j]−1|N∑
k=1,k 6=j
|A[j, k]|a)< 1 .
Nun wähle j = j0, j1, . . . , jR = n mit der Eigenschaft b). Dann gilt
|wj1| = |µwj1| ≤ |A[j1, j1]−1|N∑
k=1,k 6=j1
|A[j1, k]||wk|
= |A[j1, j1]|−1
(N∑
k 6=j,k 6=j1
|A[j1, k]| |wk|︸︷︷︸≤1
+ |A[j1, j]|︸ ︷︷ ︸6=0
|wj|︸︷︷︸<1
)
< |A[j1, j1]|−1
N∑k 6=j1
|A[j1, k]|a)
≤ 1.
10Eine Matrix A ∈ RN×N heißt positiv definit, wenn z>Az > 0 für alle z ∈ RN\0. Ist A positivdefinit, dann gilt Reλ > 0 für alle λ ∈ σ(A).
11 −J ist die Iterationsmatrix zum Jacobi-Verfahren. Siehe dazu Numerik I.
87
Damit folgt induktiv |wjr | < 1 für r = 1, . . . , R. Es gilt aber dann |wn| = |wjR | < 1,was ein Widerspruch zu |wn| = |w|∞ = 1 ist. Also ist die Annahme falsch und es giltρ(J) < 1.Nun können wir die drei behaupteten Eigenschaften zeigen:Zu 1): Annahme: Es existiert ein w ∈ CN\0 mit Aw = 0.Dann folgt 0 = Aw = Dw + (L + R)w = D(w − Jw) und somit Jw = w. Das heißtaber, dass w ein Eigenvektor von J zum Eigenwert µ = 1 ist. Das ist ein Wiederspruch zuρ(J) < 1.Zu 2): Sei λ ∈ C ein Eigenwert von A mit Aw = λw für ein w ∈ CN\0 und sei ohneEinschränkungen |w|∞ = 1. Wähle n ∈ 1, . . . , N mit wn = 1. Dann gilt
|λ− A[n, n]| = |λwn − A[n, n]wn|
=
∣∣∣∣∣N∑k=1
A[n, k]wk − A[n, n]wn
∣∣∣∣∣ =
∣∣∣∣∣N∑
k=1,k 6=n
A[n, k]wk
∣∣∣∣∣≤
N∑k=1,k 6=n
|A[n, k]|a)
≤ |A[n, n]| = A[n, n].
Damit folgt∣∣∣ λA[n,n]
− 1∣∣∣ ≤ 1. Aus A[n, n] > 0 folgt damit |λ − A[n, n]| ≤ A[n, n] und
insbesondere Reλ ≥ 0; weiterhin gilt Reλ = 0 nur dann wenn λ = 0 ist. Da A regulärist, tritt dieser Fall nicht auf. Also gilt Reλ > 0 für alle Eigenwerte von A.Zu 3): Es ist A[n, n] = D[n, n] > 0 und damit auch D[n, n]−1 > 0 und nach Vor-aussetzung gilt L,R ≤ 0 (elementweise). Somit folgen −J = −D−1(L + R) ≥ 0 undρ(−J) < 1.Aus Numerik I wissen wir, dass dann eine Norm ‖ · ‖ existiert, sodass ‖ − J‖ < 1 gilt.Dann liefert die Neumann’sche Reihe die Invertierbarkeit von IN + J mit
(In + J)−1 =∞∑k=0
(−J)k ≥ 0
und damit folgt schließlich mit
A−1 = (D + L+R)−1 = (IN + J)−1D−1 ≥ 0
die letzte Behauptung.
Anwendung1) Betrachte −u′′ = f in (a, b) mit u(α) = u(β) = 0. Es folgt Lu = −u′′.
Für die Diskretisierung gilt
Lhu(xn) = −∂2h/2u(xn) = −∂h/2
(∂h/2u
)(xn)
=1
h2
(− u(xn + h) + 2u(xn)− u(xn − h)
).
Konsistenz:
88
Mit f = Lu und Ihf = fh folgt fh = IhLu und somit gilt
‖LhIhu− fh‖∞,∆ = ‖LhIhu− IhLu‖∞,∆= max
n=1,...,N
∣∣−∂h/2 (∂h/2u) (xn) + u′′(xn)∣∣
(6.3)≤ 1
12h2‖uiv‖∞.
Stabilität:
Die Matrix
Ah =1
h2
2 −1−1 2 −1
. . .−1 2 −1
−1 2
ist stark diagonal dominant und irreduzibel. Dann folgt mit (6.5), dass Ah regulär undA−1h ≥ 0 ist.
Also gilt für fh =
(f1...fN
)und e =
(1...1
)∈ RN :
‖L−1h f‖∞,∆ = max
n=1,...,N
∣∣∣∣∣N∑k=1
A−1h [n, k]fk
∣∣∣∣∣ ≤ maxn=1,...,N
N∑k=1
A−1h [n, k]|fk|
≤ ‖f‖∞,∆ maxn=1,...,N
N∑k=1
A−1h [n, k]|ek| = ‖f‖∞,∆‖L−1
h e‖∞,∆
Damit folgt
‖L−1h ‖∞,∆ = sup
f 6=0
‖L−1h f‖∞,∆‖f‖∞,∆
≤ ‖L−1h e‖∞,∆.
Die RWA Lw ≡ 1 (d.h. −w′′ = 1) mit w(a) = w(b) = 0 läßt sich explizit lösen: Es giltw(x) = 1
2(x− a)(b− x), und wh = Ihw löst Lhwh = e.
Also ist das Verfahren stabil, denn es gilt
‖L−1h e‖∞,∆ = ‖wh‖∞,∆ ≤
1
8(b− a)2,
und (6.5) liefert die Konvergenz der Ordnung 2 mit
‖u− uh‖∞,∆ ≤1
12· 1
8(b− a)2h2‖u′′′′‖∞.
89
2) Diffusion: Lhu = −∂h/2(p∂h/2u) + ru
Konsistenz: Mit der Taylor-Entwicklung folgt, dass ‖LhIh − IhLu‖∞,∆ = O(h2) kon-sistent mit p=2 ist.
Stabilität:
Ah =1
h2tridiag(−pn− 1
2, pn+ 1
2+ pn− 1
2+ h2rn,−pn+ 1
2)
ist eine stark diagonal-dominante, irreduzible, M-Matrix. Daraus folgt, dass Ah regu-lär ist und A−1
h ≥ 0. Somit gilt ‖L−1h ‖∞,∆ ≤ C.
3) Diffusion + Transport:
(Lhuh)n =
1
h2
(− pn− 1
2un−1 + 2(pn− 1
2+ pn+ 1
2)un − pn+ 1
2un+1
)+
1
2hqn(un+1 − un−1) + rnun
= (Lu)(xn) + O(h2)︸ ︷︷ ︸Konsistenz
Falls |12hqn| > pn± 1
2gilt, ist Ah nicht diagonal-dominant und somit auch keine M-
Matrix. Ist ‖A−1h ‖∞ dann stabil?
Beispiel (Singulär gestörte Randwertaufgabe)Wir betrachten die Randwertaufgabe
Lu(x) := −εu′′(x) + u′(x)!
= 0, x ∈ (0, 1), u(0) = 1, u(1) = 0.
Wir setzen für die lineare homogene Differentialgleichung die Lösunguε(x) = c0 + c1 exp(λt) an. Einsetzen in die Differentialgleichung liefert
−ελ2 + λ = ε
(1
ε− λ)λ = 0
und damit λ = 1ε
oder λ = 0. Also hat die Lösung die Gestalt
uε(x) = c0 + c1 expx
ε.
Durch Hinzunahme der Randwerte ergibt sich für jedes ε > 0 die eindeutige Lösung
uε(x) =exp 1
ε− exp x
ε
exp 1ε− 1
.
Für ε 1 und x = 1− δ, (δ > ε) gilt
uε(1− δ) =exp 1
ε
exp 1ε− 1
(1− exp
(−δε
))≈ 1.
Der Grenzwert u0 := limε→0 uε ≡ 1 erfüllt aber nicht die Randbedingung u(1) = 0.
Sprechweise: Die Lösung hat eine Grenzschicht.
90
a) Zentrale Differenzen
Der Ansatz
ε
h2(−un−1 + 2un − un+1) +
1
2h(−un−1 + un+1) = 0
führt zu (−ε− 1
2h
)un−1 + 2εun +
(−ε+
1
2h
)un+1 = 0, u0 = 1, uN+1 = 0.
Wir lösen die Dreitermrekursion mit dem Ansatz un = c+λn+ + c−λ
n−, wobei λ± die
Nullstellen des charakteristischen Polynoms
P (λ) = λ2 +2ε
12h− ε
λ−12h+ ε
12h− ε
sind. Es ergibt sich
λ± =−ε±
√ε2 +
(12h+ ε
) (12h− ε
)12h− ε
=ε∓ 1
2h
ε− 12h
und damit ist λ+ = 1. Die Randbedingungen liefern die beiden Gleichungen
c+ + c− = 1, c+λN+1+ + c−λ
N+1− = 0,
welche zu
c+ =λN+1
+
λN+1+ − λN+1
−und c− = − λN+1
−
λN+1+ − λN+1
−
führen. Damit und mit λ+ = 1 ergibt sich schließlich
un =λN+1
+ λn− − λN+1− λn+
λN+1+ − λN+1
−=λn− − λN+1
−
1− λN+1−
.
Nun gilt λ− ≈ −1 für ε 12h und somit oszilliert un, wodurch die Stabiliät verloren
geht.
Beobachtung: Konsistenz zweiter Ordnung, aber eine Schrittweitenbeschränkung istfür die Stabilität erforderlich.
b) Upwind-Verfahren
Wir definieren die einseitigen Differenzenquotienten durch
∂+h u(x) :=
1
h
(u(x+ h)− u(x)
), ∂−h u(x) :=
1
h
(u(x)− u(x− h)
).
91
Damit approximieren wir
q(x)u′(x) ≈
q(x)∂−h u(x), q(x) ≥ 0,
q(x)∂+h u(x), q(x) < 0.
Anwendung auf Lu := −εu′′ + u′ = 0 liefert12
Lhuh = −ε∂2
huh + ∂−h u
h
und damit
(−ε− h)un−1 + (2ε+ h)un − εun+1 = 0.
Löse nun
λ2 − 2ε+ h
ελ+
ε+ h
ε= 0.
Das ergibt
λ± =2ε+ h
2ε±√
(2ε+ h)2
4ε2− ε+ h
ε=
2ε+ h± h2ε
.
Also gilt λ+ = ε+hε
und λ− = 1.
Mit u0 = 1 und uN+1 = 0 ergibt sich
un =λN+1
+ − λn+λN+1
+ − 1,
was keine Oszillationen mehr aufweist.
Vorteil: Das Verfahren ist stabil, daAh = 1h2
tridiag(−ε−h, 2ε+h,−ε) eine M-Matrixist.
Nachteil: Es handelt sich mit ‖LhIhu − fh‖∞,∆ = O(h) nur um eine Diskretisierungerster Ordnung.
c) Künstliche Diffusion
Idee: Wir ersetzen den Diffusionskoeffizienten ε durch ε = ε+ δh.
Das führt zu
−(ε+
h
2
)un−1 + 2εun −
(ε− h
2
)un+1 = 0, u0 = 1, uN+1 = 0.
Durch eine ähnliche Rechnung wie oben ergibt sich
un =λN+1
+ − λ+
λN+1+ − 1
, λ+ =ε+ h
2
ε− h2
.
12 Dabei ist ∂2hu(xn) = ∂h/2(∂h/2u(xn)) =1h2 (un−1 − 2un + un+1).
92
Dann gilt
λ+ > 0⇐⇒ ε+ δh >h
2⇐= δ ≥ 1
2,
womit Ah eine M-Matrix ist und das Verfahren stabil ist.
Nachteil: Stark “verschmierte” Grenzschicht und nur erste Konsistenzordnung.
d) Adaptive Gitter
Für eine nicht-äquidistante Diskretisierung von Lu = −u′′ + qu′ + ru definieren wirhn := xn+1 − xn und
∂huh(xn) :=1
hn + hn+1
(hnhn+1
un+1 +
(hn+1
hn− hnhn+1
)un −
hn+1
hnun−1
),
∂2huh(xn) :=
2
hn + hn+1
(1
hn+1
un+1 −(
1
hn+1
+1
hn
)un +
1
hnun−1
).
Das führt dann zu
Lhuh = −∂2
huh + q∂hu
h + ruh.
Fehlerschätzer
Löse Leh = f − Lhuh in (xn−1, xn) mit den Randbedingungen
eh(xn−1) = [(uh)′(xn−1)]
eh(xn) = [(uh)′(xn)].
Dabei ist [g(x)] = limδ−→0 g(x+ δ)− g(x− δ) der Sprung einer unstetigen Funktiong and der Stelle x.Definiere dann
η :=
√√√√ N∑n=1
η2n mit ηn :=
|xn − xn−1|2
(|eh(xn−1)|2 + |eh(xn)|2
).
als Maß für die Krümmung in (xn−1, xn).
AlgorithmusS0) Starte mit ∆1 = x0, . . . , xN+1, k = 1.
S1) Löse Lhuh = fh auf ∆k.
S2) Schätze den Fehler mit ηn in (xn−1, xn).
S3) Verfeinere ∆k → ∆k+1 durch Hinzufügen von xn−1+xn2
in allen Intervallen mitηn ≥ 0.5 max1≤j≤N ηj .
S4) Setze k := k + 1 und gehe zu S1).
93
Narier-Stokes: −ν∆u+∇u(∇u) = f
Linearisierung⇒ −ν∆u+ c∇u = f1D⇒ −νu′′ + cu′ = f
− ε∂2h/2u+ c∂hu = f zentral
− ε∂h/2u+ c∂−h u = f upwind− εδ∂h/2u+ c∂hu = f künstliche Diffusion
Modellproblem Das Poisson-Problem −∆u = f im Rechteck (α1, β1)× (α2, β2) = Ωmit
mit I = IN1 ∈ RN1×N1 , T = tridiag(−1, 4,−1) ∈ RN1×N1
Somit gilt, dass Ah eine symmetrische Matrix ist mit σ(Ah) = [0, 8], womit Ah starkdiagonal-dominant und damit auch invertierbar ist. Also ist Ah eine M-Matrix und A−1
h ≥0.
Bemerkung∆ erfüllt das Maximumprinzip:
−∆u ≥ 0 in Ωu ≥ auf ∂Ω
⇒ u ≥ 0
Definiere:
wh(x) =1
4
((x1 − α1)(β1 − x1) + (x2 − α2)(β2 − x2)
)⇒ −∆wh ≡ 1 , eh(x) = 1, x ∈ Ωh , −∆hw
h ≡ 1
⇒ ‖A−1h ‖∞,Ωh ≤ ‖A
−1h eh‖∞,Ωh = ‖wh‖∞,Ωh ≤
1
16
((β1 − α1)2 + (β2 − α2)2
(6.8) SatzFalls die Lösung ∆u = f in Ω, u = 0 auf ∂Ω genügend glatt ist, gilt
woraus sich mit a) die Behauptung |a(vh, wh)| ≤ Ca‖v′h‖0‖w′h‖0 ergibt.
105
d) Es gilt ρ0 ∈ (0, ρ) mit ρ0 +(β−α
2
)2min
(r − 1
2q′)> 0.
Es gilt wegen vh(α) = vh(β) = 0∫ β
α
q′v2h dx =
[qv2]βα−∫ β
α
q(v2h)′ dx = −2
∫ β
α
qv′hvh dx.
Damit folgt
a(vh, vh) =
∫ β
α
(p|v′h|2 + qv′hvh + r|vh|2
)dx
=
∫ β
α
[(p− ρ0)|v′h|2 + ρ0|v′h|2 −
1
2q′|vh|2 + r|vh|2
]dx
≥ (ρ− ρ0)︸ ︷︷ ︸>0
‖v′h‖20 + ρ0
(‖v′h‖2
0 −(
2
β − α
)2
‖vh‖20
)︸ ︷︷ ︸
>0 nach a)
+
(ρ0
(2
β − α
)2
+ minx∈[α,β]
(r(x)− 1
2q′(x)
))︸ ︷︷ ︸
>0 nach Vor.
‖vh‖20
≥ c0‖v′h‖20
mit c0 = ρ− ρ0.
Galerkin-Verfahren
Wähle einen endlichdimensionalen Teilraum Vh ⊂ V mit Basis ϕh1 , . . . , ϕhN und definiere
Ah :=(a(ϕhn, ϕ
hk))n,k=1,...,N
∈ RN,N , fh :=(l(ϕhn)
)n=1,...,N
∈ RN .
(7.2) SatzSei a(·, ·) elliptisch. Dann ist Ah regulär und es existiert eine eindeutige Lösung uh ∈ Vhder Variationsgleichung a(uh, vh) = l(vh) für alle vh ∈ Vh.Für diese Lösung gilt
uh =N∑n=1
unϕhn mit u = A−1
h fh ∈ RN .
Beweis. Für
vh =N∑n=1
vnϕhn ∈ Vh
gilt
c‖v′h‖2 ≤ a(vh, vh) = a
(N∑n=1
vnϕhn,
N∑k=1
vkϕhk
)=
N∑n,k=1
vnvka(ϕhn, ϕhk)
= v>Ahv.
106
Und damit folgt v>Ahv > 0 für v 6= 0N . Also ist Ah positiv definit und folglich regulär.Somit ist u := A−1
h fh wohldefiniert. Da u die Gleichung Ahu = fh löst, löst es auch dieVariationsgleichung, denn mit
(7.3) Lemma (Galerkin-Orthogonalität)Sei u ∈ C2(α, β) ∩ C([α, β]) Lösung der Sturm-Liouville-Randwertaufgabe Lu = f unduh ∈ Vh eine Lösung von (7.2). Dann gilt für den Fehler eh := u− uh ∈ V
a(eh, vh) = 0 ∀vh ∈ Vh.
Beweis. Aus Lu = f folgt a(u, vh) = l(vh) und nach (7.2) gilt a(uh, vh) = l(vh) (jeweilsfür alle vh ∈ Vh ⊂ V ).Durch Subtraktion der Gleichungen folgt dann a(u− uh, vh) = 0 für alle vh ∈ Vh.
(7.4) Satz (Cea’s Lemma)Sei a(·, ·) beschränkt und elliptisch, d.h.
|a(u, v)| ≤ C‖u′‖‖v′‖, a(v, v) ≥ c‖v′‖2 ∀u, v ∈ V .