Beweise zur Einführung in die Statistik von Gerhard Osius Zu zeigen ist (ii) P0wd*(el) 5 P0wd(el> bzw. E(+ d*(x) 1 a E(+ 4x1 1 bzw. 0 a Eg1id(X)-d*(X) } Nun ist Egli d(X) - d*(X) } = [d(x) - d*(x)] . fl(x) u(dx) = S [d(x) - d*(x)l . fl(x) 4dx) + Cl S [d(x) - d*(x)l . fl(x) u(dx) . Co Wir schätzen die Integrale über C und C einzeln ab. 1 0 August 2006 Institut für Statistik Fachbereich MathematikIInformatik Universität Bremen
110
Embed
Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Beweise zur
Einführung in die Statistik von
Gerhard Osius
Zu zeigen ist
(ii) P0wd*(el) 5 P0wd(el> bzw.
E(+ d*(x) 1 a E(+ 4x1 1 bzw.
0 a Eg1id(X) -d*(X) }
Nun ist Egli d(X) - d*(X) } = [d(x) - d*(x)] . fl(x) u(dx)
= S [d(x) - d*(x)l . fl(x) 4 d x ) + Cl S [d(x) - d*(x)l . fl(x) u(dx) .
Co Wir schätzen die Integrale über C und C einzeln ab.
1 0
August 2006 Institut für Statistik
Fachbereich MathematikIInformatik Universität Bremen
Beweise zu: Einführung in die Statistik 2.8.06 V - 1
Vorwort Nachdem das Skript Einführung in die Statistik bereits seit mehreren Jahren vor- liegt, liegen die dort bewußt nicht aufgenommenen Beweise hier erstmals in digita- ler For,m vor. Es handelt sich hierbei jedoch um eine unvollständige Beta-Version, d.h ich habe die Beweise in dieser Form noch nicht im Kurs vorgetragen (weshalb sicher einige Druckfehler bisher nicht entdeckt wurden) und für einige Kapitel feh- len die Beweise noch.
Die vorliegenden Beweise sind so aufgeführt, wie ich sie in der Vorlesung an der Tafel vorgetragen werde (damit die Studierenden nicht mitschreiben müssen und sich auf die Inhalte konzentrieren können). Demzufolge sind die Beweise auch nicht besonders platzsparend sondern eher übersichtlicher dargestellt. Der Begleittext der Beweise ist dagegen extrem kurz gefaßt und besteht oft nur aus Querverweisen oder Stichworten.
Einige Beweise fehlen hier, entweder weil sie den hier vorgesehenen Rahmen spren- gen würden (was bereits im Skript vermerkt ist) oder weil sie als Übungsaufgaben vorgesehen sind.
Bremen, im August 2006 Gerhard Osius
Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1
Inhalt (Seiten pro Kapitel) Kapitel - Seite
Für die hier nicht aufgeführten Abschnitte sind keine Beweise erforderlich.
I. Schätzungen
Schätzen des Erwartungswertes (I>
Schätzen der Varianz 2.1 Schätzung der Varianz bei bekanntem Erwartungswert
(7) 2 - 1
2.2 Schätzung der Varianz bei unbekanntem Erwartungswert 2 - 1
Konfidenzgrenzen für den Erwartungswert (I>
Konfidenzgrenzen für eine Wahrscheinlichkeit 4.1 Konstruktion der exakten oberen Konfidenzgrenze
19. Vergleich von zwei Erwartungswerten bei Normalverteilungen mit gleichen Varianzen @I 19.2 Der zweiseitige t-Test als Likelihood-Quotienten-Test 19 - 1 19.4 Konfidenzgrenzen für die Differenz der Erwartungswerte 19 - 6
Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 3
20. Vergleich von zwei Erwartungswerten bei beliebigen Verteilungen 20.1 Herleitung einer Teststatistik 20.2 Asymptotische Verteilung der Teststatistik 20.4 Schärfe-Approximation für den einseitigen Tests 20.5 Versuchsplanung für den einseitigen Test 20.6 Zweiseitiger Test: Schärfe und Versuchsplanung 20.7 Konfidenzgrenzen für die Differenz der Erwartungswerte
21 Vergleich von zwei Wahrscheinlichkeiten 21.2 Herleitung einer Teststatistik 21.3 Asymptotische Verteilung der Teststatistik 21.5 Schärfe-Approximation für den einseitigen Tests 21.6 Versuchsplanung für den einseitigen Test 21.7 Zweiseitiger Tests: Schärfe und Versuchplanung 21.8 Konfidenzgrenzen für die Differenz der Wahrscheinlichkeiten
22. Anpassungstests bei Multinomialverteilungen (fehlt noch)
23. Chiquadrat-Anpassungstests für Verteilungen (fehlt noch)
Beweise zu: 1. Schätzen des Erwartungswertes 2.8.06 B I - 1
Beweise zu 1. Schätzen des Erwartungswertes
Die Resultate sind bereits aus der Stochastik bekannt und werden hier
nicht erneut bewiesen.
Beweise zu: 2. Schätzen der Varianz 3.8.06 B 2 - 1
Beweise zu 2. Schätzen der Varianz
2.1 Schätzung der Varianz bei bekanntem Erwartungswert
Beweis von
(1) 2 E(Y) = Var(X) = a , 4 Var(Y) = ,LL - a .
4
Es ist 4 Var(Y) = E {y2} - E { Y } ~ = ,LL - a . 4
2.2 Schätzung der Varianz bei unbekanntem Erwartungswert
Beweis von
(2) - 2 SXX : = C (Xi- X) = C X2 - (EX .)2 = x T A x ,
2 i z n i z
wobei die nxn Matrix A = (U. .) gegeben ist durch: 2 3
(3) 1
U . . = 6. (6 ist das Kronecker-Symbol). 2 3 2 3 n
- 2 Esis t C(Xi-X) = C ( X 2 - 2 X X . + X 2 ) 2 2 2
C C S..X.X.-' C C X . X . i j 2 1 2 1 n i j 2 1
Beweise zu: 2. Schätzen der Varianz 3.8.06 B 2 - 2
Beweis von
- 2 ES ist C (X.- X) = C X ~ - nX2 2 i
2 2 = C x 2 - 2 a ( C X i ) + n a - [ n X 2 - 2 a n X + n a ]
i 2
Beweis von
(5) E ( 8 2 ( ~ ) ) = a 2 (erwartungstreu) .
1. Beweis (direkt):
Es ist E{SXX) = E{C (X.- , L L ) ~ - n (X- ,LL)~} vgl. (4) für a = ,LL i
= C E { ( x ~ - ~ ) ~ ) - .E{(X-,LL)~) 2
2 = n a - nvar (X)
- - 2 2 n a - a vgl. 1.1 (2).
2. Beweis (mit Theorem): vgl. Beweis von (6).
Beweise zu: 2. Schätzen der Varianz 3.8.06 B 2 - 3
Beweis von
(6) 2 1 n - 3 4
v a r ( 8 (X)) = ( , L L ~ - ~ ~ )
Das Theorems soll angewandt werden auf U. = X .- ,LL für i = 1, ..., n. 2 2
- - Wegen U = X-,LL
ist - 2 - 2 suu = C (Uz-U) = C (X.-X) = sxx, 2 i
also SUU = U ~ A U nach (2) mit U statt Xund A aus (3).
Das 2. und 4. zentrale Moment von U. ergeben sich zu 2
2 m 2 = E{U" 2 = E{(x~-,LL)~} = D ,
m 4 = E{u4} z = E{(x,-P)4} = p4.
Für die Matrix A = (a. .) aus (3) ergibt sich 23
1 Spur(A) = C a . . = C (S..--) = n-1 . 22 22 n
Ferner ist A idempotent
A A = A (Beweis: elemetar ausrechnen!),
also Spur(AA) = Spur(A) = n - 1.
Aus dem Theorem ergibt sich daher
(2) E { U ~ A U } = (n- l )o 2 als 2. Beweis für (5),
(ii) 2 4 4 v a r { u T A u } = (Caii) . ( , L L , - ~ D ) + 2(n-1)o .
2
Mit 2 1 2 1 2 1 C a . . = C (1--) = n(1--) =-(n-1) 2 i 2 2 2 n n n
folgt v a r { u T ~ U } = '(n- n 1). [ , L L ~ ( ~ - 1) - 04(3(n- 1) - 2n)]
- Wegen 82 - 1 1 T -SXX = - U A U n - 1 n - 1
folgt 2 1 2 T 1 n - 3 4 Var(8 ) = [-I .Var(U A U ) = j - [ , ~ ~ ~ - ~ o I. n - 1
Beweise zu: 2. Schätzen der Var ianz 3.8.06 B 2 - 4
Beweis von
Theorem: Erwartungswert und Varianz quadratischer Formen
U = (U Un) sei ein Vektor unabhängiger identisch verteilter Zufallsvariablen 1' ...' U . U mit Erwartungswert E ( U . ) = 0 und exisitierenden Momenten n z
k mk = E ( U ) < co 2
ü r l < k < 4 . f - -
Für eine symmetrische n x n Matrix A = ( U . .) hat die quadratische Form 2 3
T U AU = C C a . . U . U . i j 2 - 1 2 - 1
den Erwartungswert und die Varianz
(a) T E (U A U ) = S p u r ( A ) . m 2
(Y T 2 V a r ( U A U ) = ( C a 2 . ) . ( m 4 - 3 m ; ) i z z + 2 S p u r ( A A ) . m 2 .
ad (U):
Für i s j sind U . und U . unabhängig und somi t 2 3
E{U.U.) = E{U.) . E{U.} = 0 . 2 3 2 3
E s f o l g t E { c C ~ . . U . U . } = C C a . . E { U . U . } i j 3 2 J i j 3 2 J
= C ~ . . E { U ~ } i 22 2
= C a . . m i 22 2
= S p u r ( A ) . m2
ad (b):
W e g e n ( 2 ) v a r ( u T ~ U ) = E { ( u ~ A U ) 2 } - E { U ~ A U }
(9) P, ,(X) : = P , + D (asymptotische obere Grenze),
(10) (asymptotische untere Grenze).
(11) O < P ( x ) < x < P ( X ) f ü r x > O . Ol
(12) (0) = 0
(13) 0 < P ( X ) < X < POla(x) f ü r x > O .
1 Wir stellen zunächst einige Eigenschaften der Funktion f zusammen. Wegen or < 1 ist z > O und somit
a
( 2 ) o<x<,LLm, D > O .
Weiter ist ,U die Minimalstelle von f mit m
(ii) f(pm) =-D < 0 ,
und es folgt
(iii) f ist streng fallend auf (-CO, ,LL ] und streng wachsend auf [,L , CO). m m
somit ist ,LL genau dann eine Lösung von (3), wenn ~ ( , L L ) = 0 und ,LL > X gilt. Zum
Nachweis der restlichen Behauptungen unterscheiden wir zwei Fälle.
1. Fall: X = 0
1 2 Dann ist (0) = ++ZU, = z2 > 0 O1 a
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 7
und dies ist offenbar auch die einzige Lösung von (3) im Fall X = 0.
(0) : = 0 gilt (10) in diesem Fall trivialerweise.
2. Fall: X > 0
Dann ist
(24 2 f(x) = - X Z < 0 , 2 a f(0) = X >o
Mit (i) und (iii) folgt hieraus einerseits, daß die untere Nullsstelle von f im Intervall
(0,x) und die obere im Intervall ( x , ~ ) liegen muß, d.h. (13) gilt.
Die Gleichung (3) läßt sich äquivalent schreiben als
(4 p - X = Z a & U x < p und f (p )=O
und hat wegen (11) die (eindeutige) Lösung ,L (X). 01
Analog läßt sich (5) läßt sich äquivalent schreiben als
(V;) p - X = - z a & U p < x und f (p )=O
und hat für X > 0 wegen (13) die (eindeutige) Lösung ,L (X). u , a
Beweise von
(14) nul,(x) < P U " - P < L a . & ,
P < ,Lqa(") U p-X <U.&.
Zum Nachweis von (14) zeigen wir die Äquivalenz der entsprechenden Negationen.
P a pul P a pul a(x) und ,LL 5 X , ~ ~ 1 . (11)
* f ( ~ ) 2 f(,Lul &(X)) = 0 und P 5 X , vgl..(iii)
2 2 * (P-.) >Pa und P - < X
" x - p > & z u
Damit gilt die erste Äquivalenz in (14), und die zweite folgt analog:
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 8
pol .(X) 5 a * pol .(X) 5 P und X < ,L, vgl. (11)
* S ( P ) > S ( ~ ~ ~ ~ ( X ) ) = O und x 5 P , vgl..(iii)
2 2 * (P-.) >W, und X 5 ,LL
* a - x > & z &
Beweise von
(16) lim P { , L L < ~ ( X ) } = 1 - a , lim P { p (X )< ,L} = I - a P+ O0 0, a P+ O0 U , a
Aus (14) und dem Poisson-Grenzwertsatz ergibt sich
Damit sind die ersten Behauptungen in (15),(16) gezeigt und die zweiten erhält man
analog:
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 1
Beweise zu 6. Konfidenzgrenzen im Normal-Verteilungsmodell
6.1 Verteilung der Varianzschätzung
Beweis von
(I) ~ E { ' c ( x ~ - ~ ) ~ } = a2 i . d { s . & ; ( x ) } = x ; ~ Z W .
a2 2 . d { & ; ( ~ ) } = n . X n .
2 Folgt mit der Definition der X -Verteilung aus
U . = ' ( X .- ,L) N(0, l ) z 0 z zzd für i = 1, ..., n.
Beweis von
Theorem (Orthonormale Transformation von Normalverteilungen)
Z = (Z1, ..., Zn/ sei ein k k t o r unabhängiger identisch verteilter Zufallsvariablen Z . 2
mit Standard-Normalverteilung .d(Z.) = N(0 , l ) . Ferner sei C eine orthonormale 2
T nxn Matrix) dd.. es ist C = C-l. Dann gilt für den transformierten Zufallsvektor
Y = C Z mit den Komponenten Y1, ..., Y . n '
(U) Y1, ..., Yn sind unabhängig und identisch N(0,l)-verteilt) d.h 4 Y ) = 4 2 ) .
2 2 (a, IIYII = C Y i = cz2= 1 1 ~ 1 1 ~ . 2 i
ad (a): Jedes Z . hat die Dichte ip von N(0, l ) . Die Dichte von Z = (Z1, ..., Zn) im 2
Punkt z = (z ..., z ) E IRn ist daher 1' n
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 2
Für die Transformation C : IRn + IRn ergibt sich die (eine) Dichte von Y = C X zu
(vgl. z.B. Materialien zur Maß- und W-Theorie, Theorem 14.1)
(ii) fy(Y) = fZ(cTY) . ldet ~1- l , d a c T = c - l .
1 T T Wegen C- = C ist C C = II und somit n T T l = det II = det (CC ) = det(C) .det(C ) = d e t ( ~ ) % n
also 1 = ldet CI.
Mit (i), (ii) ergibt sich dann für jedes y E IRn
(iii) fY(y) = fz(C T Y)
T T T = a . exp( - + (C Y) (C Y))
1 T T = a . e x p ( - y y CC Y))
1 T = a . e x p ( - y ~ Y))
= fZ(Y) .
Aus fy = fZ folgt dann 2 ( Y ) = 4 Z ) .
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 3
Beweis von
1 (2) b ( X ) = X und e2(x) = - C ( X . - X ) ~ sind stochastisch unabhängig. n-1 i 2
(3) 4x1 = N ( P , g) , - 2 2 (4) . ~ { - $ F ( x ~ - x ) } = x ~ - ~ , bzw. . 2 ~ { 8 ~ } = * . n - i Xn-1.
(3) wurde schon in 1.2 (1) gezeigt. Für (2) und (4) wenden wir das Theorems an auf 1 2. = - ( X . - ,L .) und eine noch zu bestimmende orthogonale Transformation
2 0 2 2
Y = C Z mit den Eigenschaften
( 2 ) Y 1 = a + b X mit n n
(ii) Y: = C (2.- 2 Q 2 . i=2 i=l
Für ein solches Y ergibt sich mit (a) aus dem Theorem
- n n 1 2 X=- (Y 0 1 - U ) ist st. unabhängig von C (T- Z12 = C Y S 2 - xnP1
i=l i=2 Also gilt (2).
- 1 1 - 1 - Wegen 2 . - Z = - (X . - ,L . ) - - (X -P . ) = - ( X . - X )
2 0 2 2 0 2 0 2 I h
ist 1 - 2 - 2 2 C 2 ( X , - X ) = C ( 2 . - Z ) - Xnpl i 0 "'-1
2 d.h. (4) gilt.
h -1
Wir konstruieren jetzt eine orthogonale Martix C mit (i) und (ii).
T n
1 1 Für den konstanten Vektor cl : = (- ) E IRn ist C C = C - = 1. fi 1 1 n
i=l Folglich läßt sich cl zu einer Orthonormalbasis cl, c2, ..., cn des IRn erweitern. Die - - Matrix C = (C C . . C )" mit den Zeilen C ! ' erfüllt dann (i) und (ii):
1 2 ' n 2
nach Theorem (b) und (i).
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 4
6.2 Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz im Normalverteilungsmodell
Beweis von
mit m = n-1 m
Jn ( f i - P ) - J. ( X - ,)I0 - - -
U Es ist
a J [C ( X , - X) 2/02] / m \lV/m 2
mit U = J n ( X - p 0 ) / 0 - ~ ( 0 , l ) nach 4.1 (3)
- 2 2 2 V = C ( X i - X ) / , - X , nach 4.1 (4). i
Nach 4.1 (2) sind U und V stochastisch unabhängig und die Behauptung folgt mit
der Definition der t -Verteilung (vgl. Exkurs V 2.1). m
Beweis von
(10) P { / ? ( X ) < p } = 1 - Q = P { p < /? ( X ) } Ol
Esist: P { X - $ a < p } = P { X - ~ ~ . ~ ~ / & < , L L } 7
= p { J n ( X - p ) / 8 < tm;,} = 1 - a
Analog: p { p < X + $ } = ~ { p < X + t m; a 8 / & }
= P{- t < J n ( X - $ a ) / a } = 1 - a m;a
Beweis von
(5) 1 @ ( Z ) < 1 - a für jedes n und 0 < a < Y
n a
(11) Za < t 1
n; a für jedes n und 0 < a < Y .
vgl. Johnson-Kotz, Sec.. 27.2. Ein direkter Beweis ist mir nicht bekannt!
vgl. (1).
vgl. (1).
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 5
Beweis von
(14) F(T(x) I fiel ,(X)) = bzw.
1 " + t,,; \r, . &(X) = p,
folgt (14). Und da F(t / ,L) streng fallend in p, ist, ergibt sich auch(l5).
Beweis von
(17) G(T(X) I fi, ,<X>) =
(18) fi,,(x) = Min { P E R I @(X) Ip,) > U ) .
Der Beweis verläuft völlig analog dem von (14) und (15).
bzw.
6.3 Asymptotische Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz in beliebigen Verteilungsmodellen
Beweis von
(1) i i r n ~ { X ( ~ ) - $ ( ~ ) < p , } n a = I - U ,
(2) iim n ~ { p , < x(~) + J ( ~ ) } a = I - U ,
(3) lim P{ ~ ( n ) - $(n) < p, < ~ ( n ) + $(n) } = lBa . n 4 2 4 2
(4) l i m t n n;a =Z a .
(4) gilt nach Exkurs Q 2 (An~endun~sbe i s~ ie l e ) , und (3) folgt aus (1) und (2), die
noch zu zeigen sind.
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 6
ad (I):
Aus &(F(n] - p ) / D L N(0,l) vgl. 1.1 (5)
und P D/&(") - 1 vgl. 3.2 (7),
folgt mit Exkurs K V 5 (3)
( 2 ) &(X(") - N(0,l).
Mit (4) und Exkurs Q 2 (eine alternative Herleitung ohne diesen Exkurs folgt) folgt
(ii) P{ - p )/An) < t n-1; a } i P { N ( o , ~ ) < z a } = I - U .
Wegen &(X - P ) / & < inPli. ¢$ X - p < 8 t n-1 ; a / & = J a
¢$ T 1 - J < p (X
ist (1) gezeigt. Alternativ ergibt sich (ii) wie folgt. Aus (i) und (4) erhält man mit Ex-
kurs K V 5 (2)
U n : = & ( ~ ( ~ ) - p ) / 8 ( " ) - t„;, + , A N(0,l)
+ P { u ~ < z , } - P { N ( o , ~ ) < z ) = ~ - U a
Wegen < a 4") < t U &(X(n) - p ) / D n-1 ; a folgt (ii).
ad (2):
Analog (ii) ergibt sich
(iii) P{ - &(x(~) - p )/An) < t n-1; a } - P { - N ( o , ~ ) < z a } = 1 - U .
Wegen - &(X - P ) / & < tnPl ;a U p - X < 8 t n-1; a / & = J a
U p < X + J a
erhält man (2).
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 7
6.4 Konfidenzgrenzen für die Varianz
Beweis von
(2) 2 P { & ~ , ~ < D } = I-a,
= 1 - a , vgl. 4.1 (4).
Beweisezu: 7. Schätzen einer Verteilungsfunktiom 3.8.06 B 7 - 1
Beweise zu 7. Schätzen einer Verteilungsfunktion
7.1 Die empirische Verteilung der Stichprobe
Beweis von
Wegen &B) = &B n Z) genügt es, den Fall B C Z zu beweisen. Dann gilt
Beweis von
(5) ~ ( a ) = ~ ( a l x ) = I n ~ a x { l < i < n l X < U ) für a E IR. (4 - Für k = M a x { l < i < n - - 1 X < U )
(2) -
gilt X < . . . X < a < x (1) -
< . . . < X (k) - - (k+ 1) - - (n) '
also k = # { l < i < n I x . < a ) , 2 -
d.h. (5) gilt wegen (3).
Beweise zu: 7. Schätzen einer Verteilungsfunktiom 3.8.06 B 7 - 2
7.2 Eigenschaften der empirischen Verteilung
Beweise von
(starke Konsistenz),
(3) J;I(F(")(~)- P{xEB)) /~ (B) N(0,l) falls
Die Indikatoren Yi = IB(Xi) = I {X. E B) sind unabhängig und identisch B(1, p)-ver- 2
teilt mit p = P {X E B). Die Schätzung
ist daher nach 1.1 eine erwartungstreue und konsistente Schätzung von p mit
asymptotischer Normalverteilung, d.h. die Behauptungen gelten.
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 1
Beweise zu 8. Schätzen von Quantilen und Momenten
8.1 Schätzen des Median (unter Verwendung von 8.2)
Beweise von
(2) ^ ^ I ^ 1 ( = F - ( 2 1 x ) = F - ( 2 1 x ) = x (k) fallsnungerade: n = 2 k - 1 ,
(3) ^ 1 6 = 2 ( ~ ( k ) + x(k+l) 1 falls n gerade: n = 2 1% , mit
^ 1 "(k) = "(4 I X ) > = F- (2 1 X )
1 ad (2): folgt direkt aus 8.2 (2) , (3) für p =-. 2
ad (3): Aus 8.2 (2), (3) für p =L 2 ergibt sich
^ 1 ' - ( + I x ) , F - ( 2 1 x ) '
Beweis von
(4) [(n) L?+ t f ur .. n+cc
1 Vgl. 8.2 (5) für p = -. 2
(Konsistenz).
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 2
8.2 Schätzen eines Quantils
Beweise von
M (P 1 X) = mit k = ~ i n { i ~ W l p < i } ,
(3) C ( p I x ) mit m = ~ i n { i ~ W lp<i} > k ,
Aus $U) = $aIx) = ' ~ a x { l < i < n l X < U } n vgl. 7.1 (5) (4 - folgt P < B a ) - U n p < M a x { l < i < n I X < U } (4 -
U k = Min{iEW I n p < i ) - < M a x { l < i < n 1 X < U ) (2) -
Also ist F-(a) = inf { a E IR I p 5 F(a) }
= i n f ( aEIR1x < U } - (k) - - x(k)
, d.h. (2) gilt.
Undaus ~ ( a ) < p U M a x { l < i < n I x < a } < n p (2) -
M a x { l < i < n 1 X < U ) < n p < M i n { i ~ W I n p < i ) = m (2) -
U a < x (4 folgt F ( p ) = s u P { a € I R I F ( a ) < P }
= s u p { a ~ I R I a < x } = X (4 (4 , d.h. (3) gilt.
Beweis von
(5) $4 P., E f ur .. n+cc P P
Wir zeigen zunächst
(4 F - ( ~ I X ( ~ ) ) L F - ( ~ ) =
(ii) F(P I x (~) ) L F-(P) = Ep ("1 < Wegen F - ( p l ~ ) - [ ~ ) < ~ ( p l ~ ( n ) )
ergibt sich dann die Behauptung mit nachfolgendem Hilfssatz 1.
(Konsistenz).
Zum Nachweis von (i) und (ii) verwenden wir die fundamentalen Eigenschaften
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 3
der Quasi-Inversen aus Exkurs Q 1 (4)-(5):
(iii) F-(P) 5 CL U P I F(a) ,
(24 a 5 F-(P) U F(a-) 5 P .
Mit dem folgenden Hilfssatz 2 (2) folgt ( i ) , wenn für jedes a E IR gezeigt wird:
P { F - ( ~ ~ x ( ~ ) ) 5 a } G l ~ { p 5 ~ ( a l ~ ( n ) ) } - { o 1 für für a a > < f p P
Wegen F (a I = (a) F(a) vgl. 7.2
ergibt sich aus Hilfssatz 2 (3)
P { ~ ~ F ( ~ ~ X ( ~ ) ) } - i für p < ~ ( a ) 0 für p > F(a)
Wegen a < f p = F P ( p ) + P > F(a) nach (iii)
und U > f p = F-(P) + p < F(a-) 5 F(a) nach (iv)
ergibt sich (i)' aus (V).
Und zum Nachweis von (ii) mit Hilfssatz 2 (3) ist für a E IR zu zeigen:
(4 < 1 für a < f i i p { F ( p 1 L a I p{i . (a- 1 X ) - P } - { o für a > p
P P Wegen F ( ~ - I x ( ~ ) ) = ~ ( ~ ) ( - w , a ) - P(-w ,a )=F(a- ) vgl. 5.2
ergibt sich aus Hilfssatz 2 (2)
0 für p < F(a-) 1 für p > F(a-)
Wegen a < f p = F P ( p ) + p>F(a)>F(a- ) nach(i i i )
und U > f p = F-(P) + P < F(a-) nach (iv)
ergibt sich (ii)' aus (vi).
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 4
Hilfssatz 1: Für Zufallsvariablen U < X < V und a E IR gilt: n - n - n
P Beweis: Wegen (U , V ) - ( U , a) folgt n n
P U -V - 0 n n
d.h.
( 2 ) P { l V n - u n I > & } -0 für alle e > O.
Mit IV -U I > l X -U I n n n n
folgt P { l X n - U n l > & ) 5 P { l V -U I > & ) -0 d.h. n n
(ii) P X - U - 0 . n n
Also P X = U + ( X - U ) - a + O = a . n n n n
Hilfssatz 2: Für Zufallsvariablen X und c E IR sind äquivalent n
(1) P X - C
n. . U
I 0 für X < c Für jedes X E IR gilt: lim P { X n < x ) =
72-00 1 für X > c
2 bzw. X - c n
(3> Für jedes X E IR gilt: 72-00 lim P { X n > x ) = I 0 für X > c
1 für X < c
Beweis: (1) ist äquivalent zu
(1) P { X n EU)-^ für jede Umgebung U von C.
Da die Umgebungen der Form U= ( U , b ] eine Umgebungsbasis bilden ist dies wie-
der äquivalent zu
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 5
( ) ( 2 ) : Fürx<cliefert ( l ) " m i t a = x u n d b = o o
P { X < W } - P { X < X } - 1 , n - n -
u n d m i t P { X < o o } = l f o l g t P { X < X } - 0 . n - n -
Und für X > c liefert (1)" mit a = - oo und b = x-
P { X < X } - P { X < - W } - 1 , n - n -
u n d m i t P { X <-oo}=Ofo lg tP{X < X } - 1 . n - n -
(2) + ( I ) : Aus (2) ergibt sich
P (1) U (3): Zunächst ist (1) auch äquivalent zu -X - -C und - wie gezeigt - n
auch äquivalent zu (2) mit - X statt X , d.h. zu n n
0 für - X < - c Für j edesx~IRgi l t : lim P{-X,<-X} =
72-00 1 für - X > - c
Dies ist aber äquivalent zu (3).
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 6
8.3 Schätzen von Momenten
Beweis von
(empirisches k-tes Moment)
Für die empirische Verteilung P auf Z = {X ..., X } ist der Erwartungswert einer 1' n
„Zufallsvariablen" (Funktion) U : Z+ IR gegeben durch n
k Speziell für U(z) = z ergibt sich
Die Schätzung n
k n
P;(F(- I X)) = L C Xi = C Y. mit k Y . = X . n . n . 2 2 2
2 = 1 2 =1 ist nach 1.1 eine erwartungstreue und konsistente Schätzung auf E(Y.) = E(x!).
2 2
Beweis von n
(7) 1 - k
P,(Q- I X)) = - n . C X ) (empirisches k-tes zentrales Moment). 2 = 1
Für U(z) = [z- .lk = [z- 1 x)lk vgl. (4)
ergibt sich der Erwartungswert von U unter P aus (i) im Beweis von (2) zu
Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 1
Beweise zu 9. Parametrische Modelle und Exponential-Familien
20.6 Zweiseitiger Tests: Schärfe und Versuchplanung
Beweis von
(2) ergibt sich aus den Herleitungen in 20.4 mit statt a. Und (3) folgt aus (2)
durch Vertauschen von X mit Y, weil dann die Teststatistik T = t ( Y , X ) ihr Vorzei-
chen ändert und somit
20.7 Konfidenzgrenzen für die Differenz der Erwartungswerte
Beweise zu
(1) (ap) U = nfi-da = (X-Y)-da ~ Z W .
(ap) = ~ f i + d = (X-Y) + d a mit o a
(2) : = z .& a a A '
(3) nfi I $ a = (X-Y)
Esgilt P { ( A ~ ) ~ < A ~ ) = ~ { ~ f i - z ~ . & ~ < A ~ )
Analog P { ( A ~ ) ~ < A ~ ) = ~ { ~ f i + Z ~ . & ~ < A ~ )
1 = ~ { ~ ( n f i - a p ) < - z a } - I - ~ ~ 1 . 20.2 (13). On
Folglich haben die Konfidenzgrenzen (1) - und damit auch das Konfidenzintervall
(3) - die asymptotische Sicherheit 1 - a.
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B21-1
Beweise zu 21. Vergleich von zwei Wahrscheinlichkeiten
21.2 Herleitung einer Teststatistik
Beweis von
Es ist var( Ap) = var( X - I) = var( X) + Var(Y)
21.3 Asymptotische Verteilung der Teststatistik
Beweise von
(5) ~n [njn - ~ p ] -i N ( o , T ~ ) wobei
(8) I p{un < x)-P{N(o,~) < X ) I C(px' für al le X E IR I p{un > x)-P{N(o,~) > X ) I
mit der positiven Konstanten
Es genügt, (8) zu zeigen, weil dann (7) folgt, woraus sich (5) nach Multiplikation mit
T = 4 ergibt. Die zentrierte Differenz A j - Ap läßt sich darstellen als Mittel- n wert der zentrierten Zufallsvariablen (Achtung bei Y!: Differenz umgekehrt LU X!)
2 2
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B21-2
(ii) - 1 ,(X;+Y;) = -C(Xi-P,) + L c ( p y - ~ . ) 1
nx i n~ i 2
Da alle X! und Y! stochastisch unabhängig sind mit 3. absoluten Moment (vgl. Be- 2 2
weis von 17.4 (3)(4))
(iii) -3 -3 2 2 E{1x:l3} = cx E { I B ( ~ , P ~ ) - ~ ~ I ~ } = ox(1-20x))
-3 -3 2 2 E { I Y ~ ! I ~ } = E{IB(~ ,P , ) -P , I~ ) = o Y ( 1 - 2 0 Y ) .
folgt aus dem Theorem von Berry und Essken (vgl. z.B. Gänssler-Stute 1977, Satz
4.2.10 und Korollar 4.2.15)
I p {~ l , < x)-P{N(o,~) < X ) 1 (2.1 < - c s-3 B für alle X E IR, wobei I p {~ l , > x)-P{N(o,~) > X ) 1
(4 2 2 2 s = Var(X1 + Y I ) = n2 v ~ ~ ( A ~ ( x , Y ) ) = n o t t
vgl. (ii)
( ~ ~ 1 B = n x ~ { ~ ~ 2 ! 1 3 ) + n y ~ { ~ ~ ~ 1 3 )
-2 2 2 -2 2 2 = n [cX o x ( l - 2 o x ) + C, 0, ( 1 - 2 o y ) ] , vgl. (iii)
1 Alsoist c sP3B=-C(p p ) fi X ' Y '
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 3
Beweise von
P Aus P Pxn - p X , P ~n - PY
folgt P P n = cxPxn + cY Pxn - c X p x + c Y p y = P 7 d.h. (10) gilt,
und na2 = 1 P 1 2 2 - ."Pn) - On c X c y - 0 ( P ) = >
d.h. (11) gilt, Cx C~
O n O n 'T P 'T sowie - - - - -
80n 80n 80n (11) 'TO
7
Und (13) ergibt sich durch Multiplikation von
mit
d.h. (12) gilt.
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 4
Beweise von
(15) P T --Co
n
(16) P T -+Co
n
Es gilt
und
also
f ü r A p < O bzw. p x < p y ,
für A p > 0 bzw. Px>Py.
vgl. (11)
a On 1 +CO für A ~ > o
Addition mit (i) liefert die Behauptungen, vgl. Exkurs KV 11 (4).
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 5
21.5 Schärfe-Approximation für den einseitigen Tests
Beweise von
(1) Pow,(Px,PylQ) = P{T>z,} - = ~ { u + ~ a ~ > - u ( ~ x , ~ y ) }
Es ist
mit
1 U = - [np - ap] , 0
Die letzte Darstellung von V folgt aus
mit
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 6
Beweise von
(5) Un+zaVn L N(0,l)
Die zweite Darstellung von V folgt aus n
(2) 0 On f i = = , O n & = =
und die Konvergenz in (4) ergibt sich aus der Konsistenz der Schätzung 8 0
(ii) 80n -
- " n h p
1 , vgl. (i) und 21.3 (11). 00 =o
Und (5) folgt mit (4) direkt aus
1 U :=-[njn-aP] L N(0,l) vgl. 21.3 (7) On
mit den Rechneregeln über Verteilungskonvergenz (vgl. Exkurs KV 5).
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B21-7
Beweis von
(8) 2
J n z v - a ~ ( 0 , d2) für ein d>O .
ES ist j = i (X?) + ~ ( ~ 1 ) t mit
1 ,) = (nxpx + nypy) = CXPX + CyPy = P
1 2 2 2 1 2 2 U n : = V a r ( j n ) = (X) ( n x o X + n Y Y D ) = - (C n x x D + C Y Y D )
nach dem zentralen Grenzwert asymptotisch normalverteilt
(2) -112 2
[@',-P] I N(o,1) bzw. n
(ii) 2 J n [ P n - p ] I N(0,u2) mit
(iii) 2 2 V = C D + C D 2 > 0.
X X Y Y
Für die Funktion ~ ( p ) = [p(l-p)]1/2 ergibt sich daher mit der Delta-Methode (vgl.
Exkurs KV 14)
(4 Jn [D<@',> - 4 ~ ) I 2 - N(O, a2u2) mit
I 1 -112 = D (P) = 2 [P(~-P)] (1 -2p)> 0.
Man beachte, daß auch a = 0 zugelassen ist. Wegen
4 ~ ) = oOn J-, ~ ( $ 1 = J-, vgl. 21.2 (IO)(II)
läßt sich (U) wie folgt schreiben
(4 I 2 n J l i C y [ & O n - ~ O n l i N(O, a2u2)
und Division durch
T J% = D n \/;; J% liefert
(V;) -1 2
- J n n = Jn - oon] 0, - N(0, b2) mit
b2 = a2 u2 72 (cX cJ1 .
2 Multiplikation von (ui) mit -L ergibt die Behauptung für d = (ba12. a
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 8
21.6 Versuchsplanung für den einseitigen Test
Beweise zu
mit
mit
Ap-z a Mit a o - - J n A p za7o
u(PX,PY) = 0 7 7
folgt APowl(pl) 2 1 - ß u(px, py) > "P
Beweise zu
(2) 1
7 < für C = C =- X Y 2
bzw.
2 2 2 2 2 0 X + 2 a Y = 7 < ~ ~ = 4 a ~ ( p ) für = 1 py) bzw.
1 2 1 2 2 1 1 2 a (px) + 2 a (pu) < a ( 2 p x + 2 p y ) da a2(-) konkav ist.
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 9
21.7 Zweiseitiger Tests: Schärfe und Versuchplanung
Beweis von
(2) ergibt sich aus den Herleitungen in 21.5 mit statt a. Und (3) folgt aus (2) durch
Vertauschen von X mit Y, weil dann die Teststatistik T = t(Y,X) ihr Vorzeichen
ändert und somit
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 21 - 10
21.8 Konfidenzgrenzen für die Differenz der Wahrscheinlichkeiten
Beweise von
(2) P 2 n 2 - T ,
n
(3) "n P - 1 (Konsistenz) . On
Aus der Konsistenz der Schätzungen
P P Pxn - PX X P ~n ' PY für n + CO , für n +CO
Y
ergibt sich
Also gilt (2) und somit auch
und Division durch T = fi 0 ergibt (3). Und (4) erhält man durch Division von (1) n und (3).
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 21 - 11
Beweise zu
(5) ( ~ p ) u = ~ j - d a =@',-@',-da bzw.
(Ap) o = ~j +da = jx -P, + da mit
(6) :=z .4. a a
(7) np k d = px - pu +d - a/2.
Esgilt P{(Ap) U <np} = P{A~- za.4<np} 1
= ~{:(np-Ap)<~} - 1-a vgl.(4). 0
Analog P{(Ap) o >np} = P{A~ + z;b>np} 1
= P{~(A~-A~)>-Z,} - 1 - vgl.(4).
Folglich haben die Konfidenzgrenzen (5) - und damit auch das Konfidenzintervall
(7) - die asymptotische Sicherheit 1- a.
Beweise zu: 22. Anpassungstests bei Multinomialverteilungen 3.8.06 B 22 - 1
Beweise zu 22. Anpassungstests bei Multinomialverteilungen
Die Beweise liegen noch nicht in digitaler Form vor.
Beweise zu: 23. Chiquadrat-Anpassungstests für Verteilungen 3.8.06 B 23 - 1
Beweise zu 23. Chiquadrat-Anpassungstests für Verteilungen
Die Beweise liegen noch nicht in digitaler Form vor.