Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro
Post on 18-Oct-2019
2 Views
Preview:
Transcript
Beweise zur
Einführung in die Statistik von
Gerhard Osius
Zu zeigen ist
(ii) P0wd*(el) 5 P0wd(el> bzw.
E(+ d*(x) 1 a E(+ 4x1 1 bzw.
0 a Eg1id(X) -d*(X) }
Nun ist Egli d(X) - d*(X) } = [d(x) - d*(x)] . fl(x) u(dx)
= S [d(x) - d*(x)l . fl(x) 4 d x ) + Cl S [d(x) - d*(x)l . fl(x) u(dx) .
Co Wir schätzen die Integrale über C und C einzeln ab.
1 0
August 2006 Institut für Statistik
Fachbereich MathematikIInformatik Universität Bremen
Beweise zu: Einführung in die Statistik 2.8.06 V - 1
Vorwort Nachdem das Skript Einführung in die Statistik bereits seit mehreren Jahren vor- liegt, liegen die dort bewußt nicht aufgenommenen Beweise hier erstmals in digita- ler For,m vor. Es handelt sich hierbei jedoch um eine unvollständige Beta-Version, d.h ich habe die Beweise in dieser Form noch nicht im Kurs vorgetragen (weshalb sicher einige Druckfehler bisher nicht entdeckt wurden) und für einige Kapitel feh- len die Beweise noch.
Die vorliegenden Beweise sind so aufgeführt, wie ich sie in der Vorlesung an der Tafel vorgetragen werde (damit die Studierenden nicht mitschreiben müssen und sich auf die Inhalte konzentrieren können). Demzufolge sind die Beweise auch nicht besonders platzsparend sondern eher übersichtlicher dargestellt. Der Begleittext der Beweise ist dagegen extrem kurz gefaßt und besteht oft nur aus Querverweisen oder Stichworten.
Einige Beweise fehlen hier, entweder weil sie den hier vorgesehenen Rahmen spren- gen würden (was bereits im Skript vermerkt ist) oder weil sie als Übungsaufgaben vorgesehen sind.
Bremen, im August 2006 Gerhard Osius
Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1
Inhalt (Seiten pro Kapitel) Kapitel - Seite
Für die hier nicht aufgeführten Abschnitte sind keine Beweise erforderlich.
I. Schätzungen
Schätzen des Erwartungswertes (I>
Schätzen der Varianz 2.1 Schätzung der Varianz bei bekanntem Erwartungswert
(7) 2 - 1
2.2 Schätzung der Varianz bei unbekanntem Erwartungswert 2 - 1
Konfidenzgrenzen für den Erwartungswert (I>
Konfidenzgrenzen für eine Wahrscheinlichkeit 4.1 Konstruktion der exakten oberen Konfidenzgrenze
(11) 4 - 1
4.2 Konstruktion der exakten unteren Konfidenzgrenze 4 - 3 4.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls 4 - 4 4.4 Berechnung der exakten Grenzen 4 - 5 4.5 Asymptotische (approximative) Konfidenzgrenzen 4 - 7 4.6 Grobe asymptotische (approximative) Konfidenzgrenzen 4 - 11
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 5.1 Konstruktion der exakten oberen Konfidenzgrenze
(8) 5 - 1
5.2 Konstruktion der exakten unteren Konfidenzgrenze 5 - 3 5.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls 5 - 4 5.4 Berechnung der exakten Grenzen 5 - 5 5.5 Asymptotische (approximative) Konfidenzgrenzen 5 - 6 Konfidenzgrenzen im Normal-Verteilungsmodell 6.1 Verteilung der Varianzschätzung
(7) 6 - 1
6.2 Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz im Normalverteilungsmodell 6 - 4
6.3 Asymptotische Konfidenzgrenzen für den Erwartungswert bei
geschätzter Varianz in beliebigen Verteilungsmodellen 6 - 5 6.4 Konfidenzgrenzen für die Varianz 6 - 7
Schätzen einer Verteilungsfunktion 7.1 Die empirische Verteilung der Stichprobe
(2) 7 - 1
7.2 Eigenschaften der empirischen Verteilung 7 - 2 Schätzen von Quantilen und Momenten 8.1 Schätzen des Medians
(6) 8 - 1
8.2 Schätzen eines Quantils 8 - 2 8.3 Schätzen von Momenten 8 - 6
Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 2
9. Parametrische Modelle und Exponential-Familien (5> 9.2 Parametrische Exponential-Familien 9 - 1 9.3 Binomial-Verteilung 9 - 3 9.5 Normal-Verteilung 9 - 4 9.6 Gamma-Verteilung 9 - 5
10. Maximum-Likelihood Schätzung von Parametern (3> 10.5 Schätzung in einparametrigen Exponential-Familien bei unabhängigen
Wiederholungen 10 - 1
11. Asymptotische Eigenschaften des ML-Schätzers * (fehlt noch) (I>
12. Die Ungleichung von Cramer-Rao und effiziente Schätzer * (fehlt noch) (I> 13 Momente-Schätzung * (I>
* Diese Kapitel werden irn Teil I1 nicht vorausgesetzt
11. Tests
14. Testen von Hypothesen (I> 14.1 Einseitiger (oberer) Gauß-Test 1
15. Likelihood-Quotienten-Tests (5> 15.1 Schärfste Tests und Neymann-Pearson Lemma 1 15.3 Einparametrige Exponential-Familie 4
16. Testen eines Erwartungswertes (I2) 16.1 Einseitiger (oberer) t-Test von Student im Normal-Verteilungsmodell 1 16.2 Dualer einseitiger (unterer) t-Test von Student
im Normal-Verteilungsmodell 6 16.3 Zweiseitiger t-Test von Student im Normal-Verteilungsmodell 6 16.4 Asymptotische Eigenschaften des t-Tests
(bei beliebiger Verteilung) 7 16.5 Schärfe-Approximation des t-Tests bei beliebiger Verteilung 8 16.6 Versuchsplanung beim t-Tests 9
17. Testen einer Wahrscheinlichkeit 17.1 Einseitiger oberer Test einer Wahrscheinlichkeit
(7) 17 - 1
17.1.1 Exakter Test zum nominellen Niveau 17 - 1 17.1.2 Randomisierter Test 17 - 2 17.1.3 Asymptotischer Gauß-Test 17 - 3
17.4 Approximation der Testschärfe und Versuchsplanung für den asymptotischen Test 17 - 5
18. Likelihood-Quotienten Tests (I> 18.1 Allgemeiner Likelihood-Quotienten Test 18 - 1
19. Vergleich von zwei Erwartungswerten bei Normalverteilungen mit gleichen Varianzen @I 19.2 Der zweiseitige t-Test als Likelihood-Quotienten-Test 19 - 1 19.4 Konfidenzgrenzen für die Differenz der Erwartungswerte 19 - 6
Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 3
20. Vergleich von zwei Erwartungswerten bei beliebigen Verteilungen 20.1 Herleitung einer Teststatistik 20.2 Asymptotische Verteilung der Teststatistik 20.4 Schärfe-Approximation für den einseitigen Tests 20.5 Versuchsplanung für den einseitigen Test 20.6 Zweiseitiger Test: Schärfe und Versuchsplanung 20.7 Konfidenzgrenzen für die Differenz der Erwartungswerte
21 Vergleich von zwei Wahrscheinlichkeiten 21.2 Herleitung einer Teststatistik 21.3 Asymptotische Verteilung der Teststatistik 21.5 Schärfe-Approximation für den einseitigen Tests 21.6 Versuchsplanung für den einseitigen Test 21.7 Zweiseitiger Tests: Schärfe und Versuchplanung 21.8 Konfidenzgrenzen für die Differenz der Wahrscheinlichkeiten
22. Anpassungstests bei Multinomialverteilungen (fehlt noch)
23. Chiquadrat-Anpassungstests für Verteilungen (fehlt noch)
Beweise zu: 1. Schätzen des Erwartungswertes 2.8.06 B I - 1
Beweise zu 1. Schätzen des Erwartungswertes
Die Resultate sind bereits aus der Stochastik bekannt und werden hier
nicht erneut bewiesen.
Beweise zu: 2. Schätzen der Varianz 3.8.06 B 2 - 1
Beweise zu 2. Schätzen der Varianz
2.1 Schätzung der Varianz bei bekanntem Erwartungswert
Beweis von
(1) 2 E(Y) = Var(X) = a , 4 Var(Y) = ,LL - a .
4
Es ist 4 Var(Y) = E {y2} - E { Y } ~ = ,LL - a . 4
2.2 Schätzung der Varianz bei unbekanntem Erwartungswert
Beweis von
(2) - 2 SXX : = C (Xi- X) = C X2 - (EX .)2 = x T A x ,
2 i z n i z
wobei die nxn Matrix A = (U. .) gegeben ist durch: 2 3
(3) 1
U . . = 6. (6 ist das Kronecker-Symbol). 2 3 2 3 n
- 2 Esis t C(Xi-X) = C ( X 2 - 2 X X . + X 2 ) 2 2 2
C C S..X.X.-' C C X . X . i j 2 1 2 1 n i j 2 1
Beweise zu: 2. Schätzen der Varianz 3.8.06 B 2 - 2
Beweis von
- 2 ES ist C (X.- X) = C X ~ - nX2 2 i
2 2 = C x 2 - 2 a ( C X i ) + n a - [ n X 2 - 2 a n X + n a ]
i 2
Beweis von
(5) E ( 8 2 ( ~ ) ) = a 2 (erwartungstreu) .
1. Beweis (direkt):
Es ist E{SXX) = E{C (X.- , L L ) ~ - n (X- ,LL)~} vgl. (4) für a = ,LL i
= C E { ( x ~ - ~ ) ~ ) - .E{(X-,LL)~) 2
2 = n a - nvar (X)
- - 2 2 n a - a vgl. 1.1 (2).
2. Beweis (mit Theorem): vgl. Beweis von (6).
Beweise zu: 2. Schätzen der Varianz 3.8.06 B 2 - 3
Beweis von
(6) 2 1 n - 3 4
v a r ( 8 (X)) = ( , L L ~ - ~ ~ )
Das Theorems soll angewandt werden auf U. = X .- ,LL für i = 1, ..., n. 2 2
- - Wegen U = X-,LL
ist - 2 - 2 suu = C (Uz-U) = C (X.-X) = sxx, 2 i
also SUU = U ~ A U nach (2) mit U statt Xund A aus (3).
Das 2. und 4. zentrale Moment von U. ergeben sich zu 2
2 m 2 = E{U" 2 = E{(x~-,LL)~} = D ,
m 4 = E{u4} z = E{(x,-P)4} = p4.
Für die Matrix A = (a. .) aus (3) ergibt sich 23
1 Spur(A) = C a . . = C (S..--) = n-1 . 22 22 n
Ferner ist A idempotent
A A = A (Beweis: elemetar ausrechnen!),
also Spur(AA) = Spur(A) = n - 1.
Aus dem Theorem ergibt sich daher
(2) E { U ~ A U } = (n- l )o 2 als 2. Beweis für (5),
(ii) 2 4 4 v a r { u T A u } = (Caii) . ( , L L , - ~ D ) + 2(n-1)o .
2
Mit 2 1 2 1 2 1 C a . . = C (1--) = n(1--) =-(n-1) 2 i 2 2 2 n n n
folgt v a r { u T ~ U } = '(n- n 1). [ , L L ~ ( ~ - 1) - 04(3(n- 1) - 2n)]
- Wegen 82 - 1 1 T -SXX = - U A U n - 1 n - 1
folgt 2 1 2 T 1 n - 3 4 Var(8 ) = [-I .Var(U A U ) = j - [ , ~ ~ ~ - ~ o I. n - 1
Beweise zu: 2. Schätzen der Var ianz 3.8.06 B 2 - 4
Beweis von
Theorem: Erwartungswert und Varianz quadratischer Formen
U = (U Un) sei ein Vektor unabhängiger identisch verteilter Zufallsvariablen 1' ...' U . U mit Erwartungswert E ( U . ) = 0 und exisitierenden Momenten n z
k mk = E ( U ) < co 2
ü r l < k < 4 . f - -
Für eine symmetrische n x n Matrix A = ( U . .) hat die quadratische Form 2 3
T U AU = C C a . . U . U . i j 2 - 1 2 - 1
den Erwartungswert und die Varianz
(a) T E (U A U ) = S p u r ( A ) . m 2
(Y T 2 V a r ( U A U ) = ( C a 2 . ) . ( m 4 - 3 m ; ) i z z + 2 S p u r ( A A ) . m 2 .
ad (U):
Für i s j sind U . und U . unabhängig und somi t 2 3
E{U.U.) = E{U.) . E{U.} = 0 . 2 3 2 3
E s f o l g t E { c C ~ . . U . U . } = C C a . . E { U . U . } i j 3 2 J i j 3 2 J
= C ~ . . E { U ~ } i 22 2
= C a . . m i 22 2
= S p u r ( A ) . m2
ad (b):
W e g e n ( 2 ) v a r ( u T ~ U ) = E { ( u ~ A U ) 2 } - E { U ~ A U }
- - . . . . . . . . . . . . . - pur(^) . m2I2 nach (a)
ist noch z u berechnen
Beweise zu: 2. Schätzen der Var ia nz 3.8.06 B 2 - 5
= C C C C a 2 j a k l E ( U . U . U k U 1 ) . i j k l 2 1
Zur Bes t immung v o n E ( U . U . Uk U 1 ) unterschieden wir mehrere Fälle: 2 1
2 2 i = j t k = l : E ( U . U . U k U 1 ) = E ( U . U k ) 2 1 2
= E ( u L ) 2 . ~ ( 1 1 2 )
= m . m = m 2 2 2 2 '
2 i = k t j = l : E ( U . U . U k U 1 ) = m2 2 1
2 i = l t j = k : E ( U . U . U k U 1 ) = m 2 2 1
i 6 { j } : E ( U . U . U k U 1 ) = E ( U : [ U . U U ] ) 2 1 2 J k l
= E ( U . ) . E ( U . U 2 U ) d a U . , [ U . U U l u n a b h ä n g i g 1 k l 2 J k l
2 2 d a Ui , Uk unabhängig
analog.
analog.
j { i , , } : E ( U . U . U k U 1 ) = 0 2 1
k 6 { i , , } : E ( U . U . U k U 1 ) = 0 2 1
1 { i } : E ( U . U . U k U 1 ) = 0 2 1
analog.
analog.
analog.
A l so ist
C C C C a g a k l E ( U . U . U k U 1 ) . = C a . . a . . m + C C a . . a m 2 i j k l 2 1 i 22 22 4 i z k 22 kk 2
U . . d a A symme t r i s ch Y
2 2 = m 4 ( j aii) + m2 [ C Caiiakk + 2 C C U?.] i z k z z ~ 21
W i r f o r m e n d e n Ausdruck [ .... ] weiter um
Beweise zu : 2. S c h ä t z e n der V a r i a n z 3.8.06 B 2 - 6
C ~ a ~ ~ a ~ ~ + 2 C C a2. 2 2 = ~ ~ a ~ ~ a ~ ~ - C a i i + 2 C C a . . - 2 ~ a2. i z k i z j 2-1 i k i i j 2 1 i 2 2
= ~ ~ a ~ ~ a ~ ~ + ~ C C a2. 2 - 3 C a . .
i k i j 2 1 i 2 2
= (C aii)2 + 2 C ( C a . a . . ) - . . . . . . . 2 2 J 2 1 1 2
= pur A ) ~ + 2 C (AA).. - . . . . . . . 2 22
2 = pur A ) ~ + 2 S p u r ( A A ) - 3 C a . . i 2 2
u n d erhal ten
Mi t (i) folgt jetzt (b).
Beweise zu: 2. Schätzen der Varianz 3.8.06 B 2 - 7
Beweis von
(7) P f s 2 82 : = 8 2 ( x ( n ) ) 0 .
n (starke Konsistenz)
(8) 2 &2[8: -a2] - ~ ( 0 , (,LL~ - a4)) (asymptotische Normalität).
- 2 - ES gilt: a - ' [ c(x,-,LL)~ - n ( ~ ( ~ ) - ~ ) ~ ] vgl. (4) für a = ,LL n n-1 i
- - - 2 1 [ n a - . . . . . . . . . . n-1 run I
- - - 2 L[ n-1 a - ( x ( " ) - ~ ) ~ ] run
1 2.1(5) 1 P-fs. 1.1(4) P-f.s. 1 f u r n + c c ..
2 - O ] = a 2 d.h. (7) gilt.
Weiter ergibt sich aus (i):
(ii) a2 a2 = n 2 2 1 a2 - LL ( ~ ( n ) - ~ ) 2 n n-i ("nn-a - - n-1 n-1
- 2 Aus der asymptotischen Normalität 2.1 (6) von a folgt run
und für (8) bleibt (mit Exkurs KV 5) wegen (ii) nur noch zu zeigen
P (iii) 1 ~ n . 2 n-1 + L J ~ ( x ( ~ ) - , L L ) ~ n-1 - 0 .
1 Nun ist - &2 a2 - 0 n-1
und n ~ ; ; ( ~ ( n ) - n-1 P ) 2 = n-1 . J ~ ( x ( ~ ) - , L L ) . (x(~)-,LL)
und somit folgt (iii)
Beweise zu: 3. Konfidenzgrenzen für den Erwartungswert 3.8.06 B 3 - 1
Beweise zu 3. Konfidenzgrenzen für den Erwartungswert
Die Resultate sind bereits aus der Stochastik bekannt und werden hier
nicht erneut bewiesen.
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 1
Beweise zu 4 Konfidenzgrenzen für eine Wahrscheinlichkeit
4.1 Konstruktion der exakten oberen Konfidenzgrenze
Beweis von
oi oi ES ist - ~ ( x l p ) = X - b ( i I n , ~ ) a~ i=O a~
X
= X (7) [ pi-l qn-i i n-i-1
- ( n - i ) ~ q ] mit q = l - p
X-n - - - (T) pXqnpx
4
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 2
Beweis von
(10) F( l Pol ,(X)) = a für X < n,
j (n) = 1 01
für X = n..
Für X < n ist F(x I -): [ O , 11 - [0,1] eine streng fallende, biektive Funktion, und so-
mit gibt es genau einen Wert P ( X ) sodaß (10) gilt. Und dieser Wert stimmt übe- 01 ,
rein mit dem Maximum in
Für x = n ist F(x lp ) 1 und es folgt
Beweis von
(11) P{$ ( 4 5 ~ ) = I P ) 5 awobei Ol
L (a) = Max{l=-1, ..., n l F ( 1 1 p ) i a ) F
Für jede Realisierung X < n ist F ( x I p) ist streng fallend in p nach (3), also gilt
Pol ,(X) 5 P * F(x I P) 5 ~ ( x I P 01 (31))
* ~ ( x I P) 5 a vgl. (10)
(4 Pol ,(X) 5 P U X 5 q.1.
Die Äquivalenz (i) gilt auch für X = n, weil dann wegen
j (n) = 1 und 01
LF(Q) < nach Definition, da F(n 1 p) = 1 < a
beide Seiten in (i) falsch sind. Aus (i) für alle X = 0,1, ..., n folgt dann
p{P01a(4 P } = p{X<LF(a)}
= F(LF(a) 1 P
< a - nach Definition von L (a ) . F
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 3
4.2 Konstruktion der exakten unteren Konfidenzgrenze
Beweis von
(2) G(x 1 p) ist streng wachsend in p für X > 0 ,
Für 0 < X 5 n ist 0 5 X- 1 < n und nach 4.1 (3) ist F(x- 1 1 p) streng fallend in p,
also G(x I p) = 1 - F(x- 1 I p) streng wachsend in p. Und G(0 1 p) = 1 ist trivial.
Beweis von
(4) G(X 1 jul ,(X)) = a bzw. F( X- i 1 für X > O ,
Analog 4.1 (10). Für X > 0 ist G(x 1 - ) : [ O,1] - [ 0,1] eine streng fallende, biektive
Funktion, und somit gibt es genau einen Wert (X) sodaß (4) gilt. Und dieser
Wert stimmt überein mit dem Minimum in
(3) jul,(x) := Min { O S p < l 1 ~ ( x l p ) > a } .
Für X = 0 ist G(xlp) = 1 und es folgt
jo(xla) = Min{O<p<l 1 l > a} = Min [0,1) = 0.
Beweis von
(5) P{~<jul,(X)} = G(LG(a) I P ) 5 wobei
L (a) = Min{l=O, ..., n + l I G(I1p)5a} G
Analog 4.1 (11).
Für jedes X > 0 ist G(x I p) ist streng wachsend in p nach (2), also gilt
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 4
p i & ( x I u ) * G(x I P ) 5 G(x I Pul ,(X))
* G ( x l p ) < a vgl. (4)
( 2 ) p i & ( x I u ) U L G ( 4 < X
Die Äquivalenz (i) gilt aber trivialerweise auch für X = 0, weil dann wegen
(0) = 0 und
LG(u) > CI nach Definition, da G(0 1 P) = 1 > u
beide Seiten in (i) falsch sind. Aus (i) für alle X = 0,1, ..., n folgt dann
= G(LG(u) 1 P )
< - u nach Definition von LG(u).
4.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls
Beweis von
(1) &, a ( ~ ) < jO1 a ( ~ ) für O<x<n.
Für X = 0 ist j ( X ) = 0 , k1 ,(X) > 0 und somit gilt (1). U1
Für X = n ist Pul ,(X) < 1 , 6 ( X ) = 1 und somit gilt (1). Ol
1 Und für 0 < X < n ergibt sich wegen u <
~ ( ~ 1 5 ( x ) ) = a < 1 - a =F(x-115 ( X ) ) vgl. 4.1 ( l O ) , 4.2 (4) 01
< F( I Pul ,(X))
und da F(x 1 p) streng fallend in p ist, folgt die Behauptung.
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 5
4. 4 Berechnung der Grenzen
Beweis von
(0) j ( o ) = I - a 11. , j (n) = a 11. . Ol
Wegen F(O 1 P) = (I - p) n, bzw. G(n I P) = Pn
ist j (0) bzw. k1,(n) die eindeutige Lösung von Ol
(1-p)" = a bzw. p n = a.
Beweis von
(5) &„(X) = 1 - iol ,(Y) mit y =n-X.
Für X = 0 ist: (0) = 0 , 9 (n) = 1 und somit gilt (3). Ol
Fürx>Ois t : a = ~ ( x ~ ~ ~ , ( x ) ) = ~ ( ~ ~ l - j ~ ~ , ( x ) ) und mit 4.1 (10)
folgt
d.h. (5) gilt.
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 6
Beweis von
(7) 1
&,,(X) = 1- (exakte untere Grenze) für 0 < X mit
k a = -.F k = 2 ( n - x + l ) , 1 = 2 x . 1 kl;a'
(8) a
k l a ( ~ ) = 1- (exakte obere Grenze) für X < n mit
k a = -.F k = 2 ( X + I ) , 1 = 2 ( n - X ) , 1 kl;a'
unter Verwendung von
@I P { B ( ~ , ~ ) ~ ) ~ X } = P { F ~ ~ > U } bzw. F ( x I p ) = l - @ k l mit
k = 2 ( x + 1 ) , 1 = 2 ( n - X ) , . P k I - p
ad (B): Die definierende Gleichung 11.1 (10) für P ( X ) läßt sich mit (6) schreiben 0,
1 - ( u ) = Q mit 1 L I U = - . $ I% o,a ( X ) / ( ~ - P ~ , ~ J X ) ) , Also ist U = F kl;a
k undaus a = -.F = k - . U = P (4 / (1 - Po, a(x)) 1 kl;a 1 0, a
folgt a - a P ( X ) = 4, ,(X) und somit 1 I; ( X ) = .(I+.)- . 0, 0,
ad (7): Wir verwenden den Zusammenhang
(5) &„<X) = 1 - Y,, ,(Y) mit
Nach (8) ist Y ( Y ) = a (1 + U)-' für y < n 0,
y = n - X .
mit
und es folgt ( X ) = 1 - Y ( Y ) = 1 - a (1 + U)-' = (1 + U)-' . Ol
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 7
4.5 Approximative (asymptotische) Konfidenzgrenzen
Beweise zu
(9) 2 S(P) : = n(p-T12 - P (1-P) \
2 = ap - b p + c
2 = ~ [ ( P - P , ) - D ] mit
(10) 2 2 2 -2 1 2 a : = n + z > 0 , b : = 2 n T + z = 2 x + z > 0 , c : = n x = - X 2 0 a a a n
(13) Pol ,(X) : = Pm + D (asymptotische obere Grenze),
( X ) := pm - (asymptotische untere Grenze).
(15) 0 a F ( X ) a T a pola(x) a 1 .
(16) 0 = 13 (0) < 13 (0) < 1 , O?
(17) O < P (n) < (n) = I . O?
(18) o < 13 ( X ) < T < 13 ( X ) < I falls O < x < n . O?
Die verschiedenen Darstellungen der in (9)-(12) definierten Größen ergeben sich
durch elementare Umformungen. Wegen or <4 ist z > 0 und hieraus erhält man a die Ungleichungen in (10).
Aus a,b> O +
und 1 2 x + 2 z a < n + 2 * ergibt sich p E (0,l) in (11). Und für die Diskriminante D gilt m
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 8
D > O U a p i > c
U 2 2 1 2 2 b > 4 a c = 4 ( x + ; X L&).
Mit 2 2 2 4 b = ( 2 x + ~ : ) ~ = 42 + 4 x z + L a a
> 4(x2 + x z 2 ) a da zu > 0
1 2 2 > - 4 ( x 2 + - X z ) da l > ' x > 0 n a n
ergibt sich die Ungleichung D > 0 in (12).
Wegen a > 0 hat die Funktion f in p E (0 , l ) ihr Minimum m
( 2 ) f(pm) = - aD < 0,
und besitzt die beiden reellen Nullstellen ( X ) , ( X ) aus (13), (14) mit 0 U
(ii) Pu(.) < P , < P0(x)
Aus
(iii) f(0) = c = n z 2 > 0 , 2 f(1) = n(1-F) > 0
folgt mit (i) und 0 <p < I zunächst, daß beide Nullstellen im Intervall [ O , 11 liegen: m
(24 0 < Pu(x) < Po(x) < 1 .
Im Fall X > 0 ist sogar f(0) > 0 und somit
(4 0 < Pu(x) < Po(x) < 1
Und im Fall X < n ist f(1) > 0 und somit
(V;) 0 < Pu(x) < P 0 ( 4 < 1
Aus
falls X > 0.
falls X < n.
(vii) f (F) = - F ( 1 - F ) z 2 < 0 a -
erhält man weiter
- (viii) P,( X ) - < F - < @,(X).
Im Fall 0 < X < n ist sogar f (F) < 0 und es gilt
(2x1 P U ( 4 < F < P0(4 falls O < x < n .
Mit (iv) und (ix) ist (15) gezeigt. Wir zeigen jetzt (16) - (18).
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 9
1. Fall: X = 0
Dann ist f(0) = 0 und nach (vi) ist PU(0) = 0 und (16) folgt.
2. Fall: X = n
Dann ist f(1) = 0 und nach ( V ) ist (n) = 1 und (17) folgt. 0
3. Fall: 0 < X < 1
Dann folgt (18) aus ( V ) , (vi) und (ix).
Beweise zu
Im Fall X < n ist die obere Grenze P ( X ) die einzige Lösung der approximierte 01
Gleichung (6) im Intervall (0 , l ) . Und im Fall X > 0 ist die untere Grenze
einzige Lösung der approximierte Gleichung (8) im Intervall (0 , l ) .
(6) bzw. &(P - F ) -
4 ~ ) - z,
(8) bzw. &(P - F ) - - -25, .
.(P)
Wegen a(p) > 0 für 0 < p < 1 und z > 0 läßt sich (6) äquivalent schreiben als a - fi (P - F ) = \"(P) U X < p und f(p) = 0.
und hat für X < n wegen (18) und (16) im Intervall ( 0 , l ) die einzige Lösung no(x).
Analog läßt sich (8) läßt sich äquivalent schreiben als
&(p-F) = -z a(p) a U p<F und f (p)=O
und hat für X > 0 wegen (18) und (17) im Intervall ( 0 , l ) die einzige Lösung nu(x).
Beweise von
P < POla(x) U np - X < z a .a(p) J;I .
Zum Nachweis zeigen wir die Äquivalenz der entsprechenden Negationen, wobei wir
ausnutzen daß die Funktion f auf ( 0 , p ) streng fällt und auf (p ,1) streng wächst. m m Dann gilt für 0 < p < 1:
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 1 0
P a P , ~ ~ ( x ) U P a F,? a ( ~ ) und P < - ~ ~ 1 . (15)
U f lp ) > f ( ~ , ~ a(")) = 0 und P - < z
U n ( p - ~ ) ~ > o ~ ( p ) < und P - < z
* J ~ ( ~ - P ) > ~ ( P ) u
* (X - " P ) > D(P) Jn . Damit gilt die erste Äquivalenz in (19), und die zweite folgt analog:
- Ii" (X) a P * 13 (4 a P und X 5 P vgl. (15)
01 01
- U f (P) f ( ~ ~ ~ .(X)) = 0 und x a p
- U n ( p - ~ ) ~ > o ~ ( p ) < und x a p
* J n ( P - Z ) 2 D(P) U
* ("P-") > o(p)\Jn.
Beweise von
(20) P { p < P ( X ) ) = P { n p - X < z . o ( p ) J n ) E I - a , 01 a
( X ) < p ) = P { X - n p < z a . o ( p ) J n ) E 1 - a ,
(21) 72-00 lim P { p < P ( X ) ) = I - a , ( X ) < p ) = 1 - a . ' 1 72-00
Aus (19) und dem Binomial-Grenzwertsatz ergibt sich
P{ P < Po.,(X) 1 = P{ np -X < za . o ( p ) Jn}
Damit sind die ersten Behauptungen in (20), (21) gezeigt und die zweiten erhält
man analog:
Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 1 1
4.6 Grobe asyrnptotische (approximative) Konfidenzgrenzen
Beweise zu
(5) - 2 n - 1 0 2 ( j ( x ) ) = I C (Xi- X ) = 7 8 2 ( ~ ) .
2
2 Wegen X . E {O,l} ist X . = X . und somit 2 2 2
' C (x.-q2 = - 1 [cxz2 - + ( C X . ) ~ ] n 2 2 2
1 = - [ E X , - ' ( C X . ) ~ ] 2 n i z
= X [ l - X ]
= 0 2 ( j ( x ) ) .
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 1
Beweise zu 5 Konfidenzgrenzen für den Erwartungswert einer
Poisson-Verteilung
5.1 Konstruktion der exakten oberen Konfidenzgrenze
Beweis von
(3) a - F(xlp) = - P ( X I P ) 0 8~
für X > 0, p>O .
wobei per Definition P(-1 I p) = 0 gesetzt wird. Hieraus ergibt sich
Beweis von
F(xl0) := lim F(xlp) = 1 ru-0
(5) 1 falls X = 0
p(xl0) := lim p(xllu> = P-0 0 falls X > 0
p(x1co) := lim p(xlp) = 0 , F(x1co) := lim F(xlp) = 0 . P+ O0 P+ O0
(5) gilt, weil p(x I p) in p = 0 rechts-stetig ist, und (4)ergibt sich daraus.
Die erste Behauptung in (6) ergibt sich, weil ep für p + co schneller wächst als jede
Potenz px, und die zweite Behauptung folgt aus der ersten.
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 2
Beweis von
(8) F( I f io, ,<X)) = für X > 0 .
Da F(x ( -): ( 0 , CO) - ( 0 , l ) eine streng fallende Bijektion ist, gibt es genau einen
Wert f i ( X ) > 0, sodaß (8) gilt. Weiter folgt 01,
Beweis von
(9) p { f i o l a ( x ) ) < P ) = F(LF(a) ( P ) wobei
LF(a) = M a x { l ~ W ~ l F ( l l p ) < a ) .
Für jedes 6 E N o ist F(6 I P ) ist streng fallend in ,LL nach (3), also gilt
fiol ,(6 5 P F ( ~ I P ) < F ( ~ I ~ ~ Ol ( 6 ) )
* ~ ( 6 l P) < a vgl. (8)
U 6 < LF(Q).
Mit X statt 6 folgt daher
{ o l x ) 5 P = LF(a) 1
= F(LF(a) 1 P )
< a - nach Definition von L F ( a ) .
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 3
5.2 Konstruktion der exakten unteren Konfidenzgrenze
Beweis von
(4) ~ ( x l f i ~ ~ , ( x ) ) = ~ bzw. F(X-II,L für X > O ,
1; (0) =O f ü r x = O .
Für X > 0 ist G(x 1 -): (0, CO) - (0,l) eine streng wachsende Biektion, und somit
gibt es genau einen Wert fi (X) > 0, sodaß (4). Weiter folgt U
Für X = 0 ist G(0 I P) = 12 ci! für alle ,LL > 0. Aus (3) ergibt sich daher
(0) = M i n { p > O I 1 > ~ } = Min[O,oo) = 0. U1 a
Beweis von
(5) P{ P 5 fiulU(x) 1 = G ( L ~ ( Q ) I P) 5 wobei
LG(ci!) = Min{lEW0 I G( l lp)<a} ,
Für jedes 5 E W ist G(k I ,L) ist streng wachsend in ,LL nach (2), also gilt
(2) PS fiul,(k) U ~ ( k l ~ ) a ~ ( k l f i
* G(k l P) a a vgl. (4)
U LG(Q) a k
Diese Äquivalenz gilt aber trivialerweise auch für k = 0, weil dann wegen
1; (0) = 0 und
LG(ci!) > CI nach Definition, da G(0 I ,L) = 1 > ci!
beide Seiten in (2) falsch sind. Aus (i) für alle k E WO folgt dann
P { ~ a f i ~ ~ , ( X ) } = P { L ~ ( Q ) ~ x }
= G(LG(ci!) 1 P)
< - ci! nach Definition von LG(ci!).
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 4
5.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls
Beweis von
für X > 0 .
Für X = 0 folgt die Behauptung sofort, weil f i (0) = 0 und f i (0) > 0 ist. O1
1 Und für X > 0 ergibt sich wegen or <
F(x l f i (x))=or < 1-or = F(x-ll f i vgl. 5.1(8), 5.2(4) O1
und da F(x I P) streng fallend in p ist, folgt die Behauptung.
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 5
5.4 Berechnung der exakten Grenzen
Beweis von
(1) r; 01 ( 0 ) - l o g a
Für X = 0 reduziert 5.1 (8) zu
a = F( 0 l f i 01 (0)) = P( 0 l fiO1 ,(oll = exp I-fiO1 ,(0)}
und aufgelöst nach f i (0) ergibt sich die Behauptung. ' 1
Beweis von
(6) 1 2
f io , a ( ~ ) = xm;a für X 2 o mit m = 2 ( x + 1 ) ,
(7) 1 2
f i u l a ( ~ ) = 5 Xm;i-a für X > 0 mit m = 2 x .
unter Verwendung von
(5) F(xIP) = 1 - @ m ( 2 ~ ) mit m = 2 ( x + 1 ) .
ad (6): Die Gleichung 5.1 (8) für f i ( X ) 1aRt sich mit (5) schreiben als 01
l -mm(2f i ( X ) ) = a mit m = 2 ( X + 1) Ol
2 Also ist 2$01,(~) = X,,., d.h. (6 ) gilt.
ad (7): Die Gleichung 5.2 (4) für ,L ( X ) 1aRt sich mit (5) schreiben als U1
1 - @ m (2,L u,a ( x ) ) = l - a mit m = 2 x
Also ist 2$, ,(X) = X 2 m;l-a d.h. (7) gilt.
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 6
5.5 Asyrnptotische (approximative) Konfidenzgrenzen
Beweise zu
(6) 2 2
f( ,LL) = ( ~ - 4 -Pa
2 = (,U - pm) - D mit
(9) P, ,(X) : = P , + D (asymptotische obere Grenze),
(10) (asymptotische untere Grenze).
(11) O < P ( x ) < x < P ( X ) f ü r x > O . Ol
(12) (0) = 0
(13) 0 < P ( X ) < X < POla(x) f ü r x > O .
1 Wir stellen zunächst einige Eigenschaften der Funktion f zusammen. Wegen or < 1 ist z > O und somit
a
( 2 ) o<x<,LLm, D > O .
Weiter ist ,U die Minimalstelle von f mit m
(ii) f(pm) =-D < 0 ,
und es folgt
(iii) f ist streng fallend auf (-CO, ,LL ] und streng wachsend auf [,L , CO). m m
somit ist ,LL genau dann eine Lösung von (3), wenn ~ ( , L L ) = 0 und ,LL > X gilt. Zum
Nachweis der restlichen Behauptungen unterscheiden wir zwei Fälle.
1. Fall: X = 0
1 2 Dann ist (0) = ++ZU, = z2 > 0 O1 a
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 7
und dies ist offenbar auch die einzige Lösung von (3) im Fall X = 0.
(0) : = 0 gilt (10) in diesem Fall trivialerweise.
2. Fall: X > 0
Dann ist
(24 2 f(x) = - X Z < 0 , 2 a f(0) = X >o
Mit (i) und (iii) folgt hieraus einerseits, daß die untere Nullsstelle von f im Intervall
(0,x) und die obere im Intervall ( x , ~ ) liegen muß, d.h. (13) gilt.
Die Gleichung (3) läßt sich äquivalent schreiben als
(4 p - X = Z a & U x < p und f (p )=O
und hat wegen (11) die (eindeutige) Lösung ,L (X). 01
Analog läßt sich (5) läßt sich äquivalent schreiben als
(V;) p - X = - z a & U p < x und f (p )=O
und hat für X > 0 wegen (13) die (eindeutige) Lösung ,L (X). u , a
Beweise von
(14) nul,(x) < P U " - P < L a . & ,
P < ,Lqa(") U p-X <U.&.
Zum Nachweis von (14) zeigen wir die Äquivalenz der entsprechenden Negationen.
P a pul P a pul a(x) und ,LL 5 X , ~ ~ 1 . (11)
* f ( ~ ) 2 f(,Lul &(X)) = 0 und P 5 X , vgl..(iii)
2 2 * (P-.) >Pa und P - < X
" x - p > & z u
Damit gilt die erste Äquivalenz in (14), und die zweite folgt analog:
Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 8
pol .(X) 5 a * pol .(X) 5 P und X < ,L, vgl. (11)
* S ( P ) > S ( ~ ~ ~ ~ ( X ) ) = O und x 5 P , vgl..(iii)
2 2 * (P-.) >W, und X 5 ,LL
* a - x > & z &
Beweise von
(16) lim P { , L L < ~ ( X ) } = 1 - a , lim P { p (X )< ,L} = I - a P+ O0 0, a P+ O0 U , a
Aus (14) und dem Poisson-Grenzwertsatz ergibt sich
Damit sind die ersten Behauptungen in (15),(16) gezeigt und die zweiten erhält man
analog:
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 1
Beweise zu 6. Konfidenzgrenzen im Normal-Verteilungsmodell
6.1 Verteilung der Varianzschätzung
Beweis von
(I) ~ E { ' c ( x ~ - ~ ) ~ } = a2 i . d { s . & ; ( x ) } = x ; ~ Z W .
a2 2 . d { & ; ( ~ ) } = n . X n .
2 Folgt mit der Definition der X -Verteilung aus
U . = ' ( X .- ,L) N(0, l ) z 0 z zzd für i = 1, ..., n.
Beweis von
Theorem (Orthonormale Transformation von Normalverteilungen)
Z = (Z1, ..., Zn/ sei ein k k t o r unabhängiger identisch verteilter Zufallsvariablen Z . 2
mit Standard-Normalverteilung .d(Z.) = N(0 , l ) . Ferner sei C eine orthonormale 2
T nxn Matrix) dd.. es ist C = C-l. Dann gilt für den transformierten Zufallsvektor
Y = C Z mit den Komponenten Y1, ..., Y . n '
(U) Y1, ..., Yn sind unabhängig und identisch N(0,l)-verteilt) d.h 4 Y ) = 4 2 ) .
2 2 (a, IIYII = C Y i = cz2= 1 1 ~ 1 1 ~ . 2 i
ad (a): Jedes Z . hat die Dichte ip von N(0, l ) . Die Dichte von Z = (Z1, ..., Zn) im 2
Punkt z = (z ..., z ) E IRn ist daher 1' n
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 2
Für die Transformation C : IRn + IRn ergibt sich die (eine) Dichte von Y = C X zu
(vgl. z.B. Materialien zur Maß- und W-Theorie, Theorem 14.1)
(ii) fy(Y) = fZ(cTY) . ldet ~1- l , d a c T = c - l .
1 T T Wegen C- = C ist C C = II und somit n T T l = det II = det (CC ) = det(C) .det(C ) = d e t ( ~ ) % n
also 1 = ldet CI.
Mit (i), (ii) ergibt sich dann für jedes y E IRn
(iii) fY(y) = fz(C T Y)
T T T = a . exp( - + (C Y) (C Y))
1 T T = a . e x p ( - y y CC Y))
1 T = a . e x p ( - y ~ Y))
= fZ(Y) .
Aus fy = fZ folgt dann 2 ( Y ) = 4 Z ) .
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 3
Beweis von
1 (2) b ( X ) = X und e2(x) = - C ( X . - X ) ~ sind stochastisch unabhängig. n-1 i 2
(3) 4x1 = N ( P , g) , - 2 2 (4) . ~ { - $ F ( x ~ - x ) } = x ~ - ~ , bzw. . 2 ~ { 8 ~ } = * . n - i Xn-1.
(3) wurde schon in 1.2 (1) gezeigt. Für (2) und (4) wenden wir das Theorems an auf 1 2. = - ( X . - ,L .) und eine noch zu bestimmende orthogonale Transformation
2 0 2 2
Y = C Z mit den Eigenschaften
( 2 ) Y 1 = a + b X mit n n
(ii) Y: = C (2.- 2 Q 2 . i=2 i=l
Für ein solches Y ergibt sich mit (a) aus dem Theorem
- n n 1 2 X=- (Y 0 1 - U ) ist st. unabhängig von C (T- Z12 = C Y S 2 - xnP1
i=l i=2 Also gilt (2).
- 1 1 - 1 - Wegen 2 . - Z = - (X . - ,L . ) - - (X -P . ) = - ( X . - X )
2 0 2 2 0 2 0 2 I h
ist 1 - 2 - 2 2 C 2 ( X , - X ) = C ( 2 . - Z ) - Xnpl i 0 "'-1
2 d.h. (4) gilt.
h -1
Wir konstruieren jetzt eine orthogonale Martix C mit (i) und (ii).
T n
1 1 Für den konstanten Vektor cl : = (- ) E IRn ist C C = C - = 1. fi 1 1 n
i=l Folglich läßt sich cl zu einer Orthonormalbasis cl, c2, ..., cn des IRn erweitern. Die - - Matrix C = (C C . . C )" mit den Zeilen C ! ' erfüllt dann (i) und (ii):
1 2 ' n 2
nach Theorem (b) und (i).
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 4
6.2 Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz im Normalverteilungsmodell
Beweis von
mit m = n-1 m
Jn ( f i - P ) - J. ( X - ,)I0 - - -
U Es ist
a J [C ( X , - X) 2/02] / m \lV/m 2
mit U = J n ( X - p 0 ) / 0 - ~ ( 0 , l ) nach 4.1 (3)
- 2 2 2 V = C ( X i - X ) / , - X , nach 4.1 (4). i
Nach 4.1 (2) sind U und V stochastisch unabhängig und die Behauptung folgt mit
der Definition der t -Verteilung (vgl. Exkurs V 2.1). m
Beweis von
(10) P { / ? ( X ) < p } = 1 - Q = P { p < /? ( X ) } Ol
Esist: P { X - $ a < p } = P { X - ~ ~ . ~ ~ / & < , L L } 7
= p { J n ( X - p ) / 8 < tm;,} = 1 - a
Analog: p { p < X + $ } = ~ { p < X + t m; a 8 / & }
= P{- t < J n ( X - $ a ) / a } = 1 - a m;a
Beweis von
(5) 1 @ ( Z ) < 1 - a für jedes n und 0 < a < Y
n a
(11) Za < t 1
n; a für jedes n und 0 < a < Y .
vgl. Johnson-Kotz, Sec.. 27.2. Ein direkter Beweis ist mir nicht bekannt!
vgl. (1).
vgl. (1).
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 5
Beweis von
(14) F(T(x) I fiel ,(X)) = bzw.
1 " + t,,; \r, . &(X) = p,
folgt (14). Und da F(t / ,L) streng fallend in p, ist, ergibt sich auch(l5).
Beweis von
(17) G(T(X) I fi, ,<X>) =
(18) fi,,(x) = Min { P E R I @(X) Ip,) > U ) .
Der Beweis verläuft völlig analog dem von (14) und (15).
bzw.
6.3 Asymptotische Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz in beliebigen Verteilungsmodellen
Beweis von
(1) i i r n ~ { X ( ~ ) - $ ( ~ ) < p , } n a = I - U ,
(2) iim n ~ { p , < x(~) + J ( ~ ) } a = I - U ,
(3) lim P{ ~ ( n ) - $(n) < p, < ~ ( n ) + $(n) } = lBa . n 4 2 4 2
(4) l i m t n n;a =Z a .
(4) gilt nach Exkurs Q 2 (An~endun~sbe i s~ ie l e ) , und (3) folgt aus (1) und (2), die
noch zu zeigen sind.
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 6
ad (I):
Aus &(F(n] - p ) / D L N(0,l) vgl. 1.1 (5)
und P D/&(") - 1 vgl. 3.2 (7),
folgt mit Exkurs K V 5 (3)
( 2 ) &(X(") - N(0,l).
Mit (4) und Exkurs Q 2 (eine alternative Herleitung ohne diesen Exkurs folgt) folgt
(ii) P{ - p )/An) < t n-1; a } i P { N ( o , ~ ) < z a } = I - U .
Wegen &(X - P ) / & < inPli. ¢$ X - p < 8 t n-1 ; a / & = J a
¢$ T 1 - J < p (X
ist (1) gezeigt. Alternativ ergibt sich (ii) wie folgt. Aus (i) und (4) erhält man mit Ex-
kurs K V 5 (2)
U n : = & ( ~ ( ~ ) - p ) / 8 ( " ) - t„;, + , A N(0,l)
+ P { u ~ < z , } - P { N ( o , ~ ) < z ) = ~ - U a
Wegen < a 4") < t U &(X(n) - p ) / D n-1 ; a folgt (ii).
ad (2):
Analog (ii) ergibt sich
(iii) P{ - &(x(~) - p )/An) < t n-1; a } - P { - N ( o , ~ ) < z a } = 1 - U .
Wegen - &(X - P ) / & < tnPl ;a U p - X < 8 t n-1; a / & = J a
U p < X + J a
erhält man (2).
Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 7
6.4 Konfidenzgrenzen für die Varianz
Beweis von
(2) 2 P { & ~ , ~ < D } = I-a,
= 1 - a , vgl. 4.1 (4).
Beweisezu: 7. Schätzen einer Verteilungsfunktiom 3.8.06 B 7 - 1
Beweise zu 7. Schätzen einer Verteilungsfunktion
7.1 Die empirische Verteilung der Stichprobe
Beweis von
Wegen &B) = &B n Z) genügt es, den Fall B C Z zu beweisen. Dann gilt
Beweis von
(5) ~ ( a ) = ~ ( a l x ) = I n ~ a x { l < i < n l X < U ) für a E IR. (4 - Für k = M a x { l < i < n - - 1 X < U )
(2) -
gilt X < . . . X < a < x (1) -
< . . . < X (k) - - (k+ 1) - - (n) '
also k = # { l < i < n I x . < a ) , 2 -
d.h. (5) gilt wegen (3).
Beweise zu: 7. Schätzen einer Verteilungsfunktiom 3.8.06 B 7 - 2
7.2 Eigenschaften der empirischen Verteilung
Beweise von
(starke Konsistenz),
(3) J;I(F(")(~)- P{xEB)) /~ (B) N(0,l) falls
Die Indikatoren Yi = IB(Xi) = I {X. E B) sind unabhängig und identisch B(1, p)-ver- 2
teilt mit p = P {X E B). Die Schätzung
ist daher nach 1.1 eine erwartungstreue und konsistente Schätzung von p mit
asymptotischer Normalverteilung, d.h. die Behauptungen gelten.
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 1
Beweise zu 8. Schätzen von Quantilen und Momenten
8.1 Schätzen des Median (unter Verwendung von 8.2)
Beweise von
(2) ^ ^ I ^ 1 ( = F - ( 2 1 x ) = F - ( 2 1 x ) = x (k) fallsnungerade: n = 2 k - 1 ,
(3) ^ 1 6 = 2 ( ~ ( k ) + x(k+l) 1 falls n gerade: n = 2 1% , mit
^ 1 "(k) = "(4 I X ) > = F- (2 1 X )
1 ad (2): folgt direkt aus 8.2 (2) , (3) für p =-. 2
ad (3): Aus 8.2 (2), (3) für p =L 2 ergibt sich
^ 1 ' - ( + I x ) , F - ( 2 1 x ) '
Beweis von
(4) [(n) L?+ t f ur .. n+cc
1 Vgl. 8.2 (5) für p = -. 2
(Konsistenz).
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 2
8.2 Schätzen eines Quantils
Beweise von
M (P 1 X) = mit k = ~ i n { i ~ W l p < i } ,
(3) C ( p I x ) mit m = ~ i n { i ~ W lp<i} > k ,
Aus $U) = $aIx) = ' ~ a x { l < i < n l X < U } n vgl. 7.1 (5) (4 - folgt P < B a ) - U n p < M a x { l < i < n I X < U } (4 -
U k = Min{iEW I n p < i ) - < M a x { l < i < n 1 X < U ) (2) -
Also ist F-(a) = inf { a E IR I p 5 F(a) }
= i n f ( aEIR1x < U } - (k) - - x(k)
, d.h. (2) gilt.
Undaus ~ ( a ) < p U M a x { l < i < n I x < a } < n p (2) -
M a x { l < i < n 1 X < U ) < n p < M i n { i ~ W I n p < i ) = m (2) -
U a < x (4 folgt F ( p ) = s u P { a € I R I F ( a ) < P }
= s u p { a ~ I R I a < x } = X (4 (4 , d.h. (3) gilt.
Beweis von
(5) $4 P., E f ur .. n+cc P P
Wir zeigen zunächst
(4 F - ( ~ I X ( ~ ) ) L F - ( ~ ) =
(ii) F(P I x (~) ) L F-(P) = Ep ("1 < Wegen F - ( p l ~ ) - [ ~ ) < ~ ( p l ~ ( n ) )
ergibt sich dann die Behauptung mit nachfolgendem Hilfssatz 1.
(Konsistenz).
Zum Nachweis von (i) und (ii) verwenden wir die fundamentalen Eigenschaften
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 3
der Quasi-Inversen aus Exkurs Q 1 (4)-(5):
(iii) F-(P) 5 CL U P I F(a) ,
(24 a 5 F-(P) U F(a-) 5 P .
Mit dem folgenden Hilfssatz 2 (2) folgt ( i ) , wenn für jedes a E IR gezeigt wird:
P { F - ( ~ ~ x ( ~ ) ) 5 a } G l ~ { p 5 ~ ( a l ~ ( n ) ) } - { o 1 für für a a > < f p P
Wegen F (a I = (a) F(a) vgl. 7.2
ergibt sich aus Hilfssatz 2 (3)
P { ~ ~ F ( ~ ~ X ( ~ ) ) } - i für p < ~ ( a ) 0 für p > F(a)
Wegen a < f p = F P ( p ) + P > F(a) nach (iii)
und U > f p = F-(P) + p < F(a-) 5 F(a) nach (iv)
ergibt sich (i)' aus (V).
Und zum Nachweis von (ii) mit Hilfssatz 2 (3) ist für a E IR zu zeigen:
(4 < 1 für a < f i i p { F ( p 1 L a I p{i . (a- 1 X ) - P } - { o für a > p
P P Wegen F ( ~ - I x ( ~ ) ) = ~ ( ~ ) ( - w , a ) - P(-w ,a )=F(a- ) vgl. 5.2
ergibt sich aus Hilfssatz 2 (2)
0 für p < F(a-) 1 für p > F(a-)
Wegen a < f p = F P ( p ) + p>F(a)>F(a- ) nach(i i i )
und U > f p = F-(P) + P < F(a-) nach (iv)
ergibt sich (ii)' aus (vi).
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 4
Hilfssatz 1: Für Zufallsvariablen U < X < V und a E IR gilt: n - n - n
P Beweis: Wegen (U , V ) - ( U , a) folgt n n
P U -V - 0 n n
d.h.
( 2 ) P { l V n - u n I > & } -0 für alle e > O.
Mit IV -U I > l X -U I n n n n
folgt P { l X n - U n l > & ) 5 P { l V -U I > & ) -0 d.h. n n
(ii) P X - U - 0 . n n
Also P X = U + ( X - U ) - a + O = a . n n n n
Hilfssatz 2: Für Zufallsvariablen X und c E IR sind äquivalent n
(1) P X - C
n. . U
I 0 für X < c Für jedes X E IR gilt: lim P { X n < x ) =
72-00 1 für X > c
2 bzw. X - c n
(3> Für jedes X E IR gilt: 72-00 lim P { X n > x ) = I 0 für X > c
1 für X < c
Beweis: (1) ist äquivalent zu
(1) P { X n EU)-^ für jede Umgebung U von C.
Da die Umgebungen der Form U= ( U , b ] eine Umgebungsbasis bilden ist dies wie-
der äquivalent zu
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 5
( ) ( 2 ) : Fürx<cliefert ( l ) " m i t a = x u n d b = o o
P { X < W } - P { X < X } - 1 , n - n -
u n d m i t P { X < o o } = l f o l g t P { X < X } - 0 . n - n -
Und für X > c liefert (1)" mit a = - oo und b = x-
P { X < X } - P { X < - W } - 1 , n - n -
u n d m i t P { X <-oo}=Ofo lg tP{X < X } - 1 . n - n -
(2) + ( I ) : Aus (2) ergibt sich
P (1) U (3): Zunächst ist (1) auch äquivalent zu -X - -C und - wie gezeigt - n
auch äquivalent zu (2) mit - X statt X , d.h. zu n n
0 für - X < - c Für j edesx~IRgi l t : lim P{-X,<-X} =
72-00 1 für - X > - c
Dies ist aber äquivalent zu (3).
Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 6
8.3 Schätzen von Momenten
Beweis von
(empirisches k-tes Moment)
Für die empirische Verteilung P auf Z = {X ..., X } ist der Erwartungswert einer 1' n
„Zufallsvariablen" (Funktion) U : Z+ IR gegeben durch n
k Speziell für U(z) = z ergibt sich
Die Schätzung n
k n
P;(F(- I X)) = L C Xi = C Y. mit k Y . = X . n . n . 2 2 2
2 = 1 2 =1 ist nach 1.1 eine erwartungstreue und konsistente Schätzung auf E(Y.) = E(x!).
2 2
Beweis von n
(7) 1 - k
P,(Q- I X)) = - n . C X ) (empirisches k-tes zentrales Moment). 2 = 1
Für U(z) = [z- .lk = [z- 1 x)lk vgl. (4)
ergibt sich der Erwartungswert von U unter P aus (i) im Beweis von (2) zu
Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 1
Beweise zu 9. Parametrische Modelle und Exponential-Familien
9.2 Parametrische Exponential-Familien
Beweis von
(9) K y ( t ) = h ( t + 4) - h ( 4 )
Die MGF von Y = b ( X ) lautet
My( t ) = E iI ( e x p { t T b ( ~ ) } )
= J ""P { tTb(x)l .f+(x) u(dx) Tr
= J exp { t Tb (x ) } . exp {11~b(x) - h(4) + d(x) } u(dx) Tr
= exp { h( t + 4) - h($)} . J exp { ( t + 4) Tb(x) - h( t + $1 + d(x) 1 Tr
Hieraus folgt
Ky( t ) = log My( t ) = h ( t + 4) - h ( 4 ) für t E P- 4, d.h. t + 4 E P .
Beweis von
(10) E iI (Y) = ~ h ( $ ) ~ = ~ h ( $ ) für 4 E P, bzw.
a E$(Ys) = h(4) für s = 1, ..., s ,
(11) cov iI (Y) = o2h($) für 4 E P, bzw.
Cov (YT,Ys) = d 2 $ h(4)
für r, s = 1, ..., S W , W s
Aus (9) erhält man mit Exkurs CF 7 (4) (5):
T E (Y) = D Ky(0) = D h(4)
T iI
cov (Y) = ~ ~ ( 0 ) = h(4) . iI
Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 2
Beweis der Äquivalenz von
(F3) h($) ist positiv-definit für jedes $E l.
(F3) ' Für jedes t E IRs mit t t 0 und jedes $ E l ist die Verteilung .J ( tTy) T
1i der Linearkombination t Y = tlY1 + ... + tSYS keine Einpunkt-Verteilung,
rn
d.h. es gilt Var (tlY) > 0 . 1i
Für jedes t E IRs gilt (vgl. Exkurs CF 7 (3)):
Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 3
9.3 Binomial-Verteilung
Beweis von
(4) log fp(x) = logit(p) . X + n log (1 - P) + log ( z ) = a(p) . X + ~ ( p ) + d(x) für X E Tr
~ s i s t logf(x) = x l o g ( p ) + ( n - ~ ) l o g ( l - ~ ) + l o g ( z ) P
= X logit(p) + n log (1 - p) + log ( z) .
Beweis von
(6) 4 h($) = n log(l+ e )
Es ist h($) = - e(~(a'($))
= - n log(l - logit-'($))
für E IR
Beweis von
(9) E+(X) = y(X) = hl($) = n p
Var (X) = K~(X) = hl1($) = np(l-p) + mit p = logit-'($1 .
Es ist
Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 4
9.5 Normal-Verteilung
Beweis von
(F3) ' Für jedes t E IRs mit t t 0 und jedes 4 E Q ist die Verteilung 2 (tTy) rn iI
der Linearkombination t " ~ = t Y + ... + t Y keine Einpunkt-Verteilung, rn
1 1 S S d.h. es gilt Var (tlY) > 0 .
iI Es ist Y1 = bl(X) = X ,
2 Y2 = b2(X) = X .
Angenommen, es gibt (tl, t2) t (0,O) und to E IR mit
bzw.
(ii) g(X) = 0 P -f.s. -+ mit
Für t t 0 ist g ein Polynom 2. Grades und für t = 0 ist g ein Polynom 1. Grades 2 2
(weil dann tl t 0). Also hat die Menge G der Nullstellen von g höchstens 2 Ele-
mente. Aus (ii) folgt
(2.1 X E G P -f.s. iI im Widerspruch zu P { X E G ) = 0, da X stetig verteilt ist.
iI
Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 5
9.6 Gamma-Verteilung
Beweis von
(F3) ' Für jedes t E IRs mit t t 0 und jedes 4 E Q ist die Verteilung 2 (tTy) rn iI
der Linearkombination t " ~ = t Y + ... + t Y keine Einpunkt-Verteilung, rn
1 1 S S d.h. es gilt Var (tlY) > 0 .
iI Esist Z : = Y = b ( X ) = l o g X ,
1 1
Angenommen, es gibt (tl, t2) t (0,O) und to E IR mit
(2) Z t lZ+t e = t
2 0 P -f.s.
iI bzw.
(ii) s(z) = 0 P -f.s. -+ mit
(iii) g(z) = t2 ez + tlz + t,. Wir zeigen, daß die Menge G der Nullstellen von g höchstens zwei Elemente en-
thält. Mit der Folgerung aus (ii)
ergibt sich der Widerspruch zu P {ZE G) = 0, da Z = log X stetig verteilt ist. iI
Zunächst sei 0.B.d.A t2 > 0 (sonst betrachte man -g statt 9). Wegen
ist g streng konvex.
Fall 1: t > O 1-
Dann ist g' > 0 und g hat als streng wachsende Funktion höchstens eine
Nullstelle.
Fall 2: t1 < 0
Dann hat g ein Minimum in z0 = log(- tl/t2). Für z < zo ist gl(z) < 0 und
somit g streng fallend. Und für z>zo ist gl(z) > 0 und somit g streng
wachsend. Also hat g höchstens zwei Nullstellen..
Beweise zu: 10. Maximum-Likelihood-Schätzung von Parametern 3.8.06 B 10 - 1
Beweise zu 10. Maximum-Likelihood Schätzung von Parametern
10.5 Schätzung in einparametrigen Exponential- Familien bei unabhängigen Wiederholungen
Beweis von
(2) s, (X) = exp { a(Q) . b+(x) + n c (Q) + dt (X) 1 wobei die Funktionen b und d auf ( T T ) ~ definiert sind durch
t t
(3) bt(xl, ..., xn) := C b(xJ , dt(xl, ..., xn) := C d(xJ 2 2
Es ist gg(xl, ..., X,) = I-If,(x,J i
= exp { a(Q) . b(x) 2 + (8) + d (xi)} i
= exp { a(Q) . C b ( .) + C (B) + C d (X,)} z 2 2 2
= exp{a(Q).bt(x) + nc(Q) + d+(x)}.
für X E ( ~ r ) ~ ,
Beweise von
(5) Ky(t) = h(t+$) - h($)
(6) K ~ ( Y ) = h(') ($1 für ~ E N ,
(5) ist ein Spezialfall von 7.2 (9). Weiter ist
K$)(t) = h ('1 ( t +$) * K r (Y) = K$)(o) = h(')($).
Beweise zu: 10. Maximum-Likelihood-Schätzung von Parametern 3.8.06 B 10 - 2
Beweise von
(17) PA { L(- I x ( " ) ) hat eine Maximalstelle X(" ) für fast alle n E W } = 1.
(starke asymptotische Existenz).
(18) A(") + X PA-fast sicher (starke Konsistenz für A),
(19) 8 ("1 + I9 Po-fast sicher (starke Konsistenz für 8).
ES gilt T(")+ X + Y(") E A für fast alle n X E A offen
+ A(") = T(") für fast alle n
Nach (16) gilt die Prämisse PA-fast-sicher und somit gelten auch die Folgerungen
P -fast-sicher. X
Beweise von
(20) 2 J;I ( ~ ( " 1 - X ) - N(0,02) mit o 2 = VarA(Y).
(21) J;I ( B ( " ) - 1 9 ) 2 N ( O , I - ~ ( Q ) )
(22) I(I9) : = VarO{DO log f(X I 8 ) } (Fisher-Information von X),
(23) I(I9) = ( a ' ( ~ ) ) ~ . h " ( a ( ~ ) ) .
Aus dem zentralen Grenzwertsatz ergibt sich sofort (vgl. auch 1.1 (5))
( 2 ) 2 J;I (Y'") - X ) - N(0,o2) mit o 2 = VarA(Y).
Aus T(") E A für fast alle n E W + $4 = X(") für fast alle n E W + J;I (,I(") -V(")) = o für fast alle n E W +
( A n - ) - 0 P-fast sicher +
(ii) J;I ( ~ ( 4 -Y(")) P_ 0
ergibt sich (20). mit (i). Für die Transformation F = (hloa)-' ergibt sich mit der
Beweise zu: 10. Maximum-Likelihood-Schätzung von Parametern 3.8.06 B 10 - 3
Delta-Methode (vgl. Exkurs KV 14) aus (20)
(iii) ~n ( F(x(~)) - F(X) ) N(O, 02. F ~ ( x ) ~ ) I I I I J(") 8 mit
F1(X) = [(h' o a) '(F'(x)) 1-' = [(h' o a) ' ( B ) ] ' = [h1'(a(8)) . a ' ( ~ ) ] ~
(2.1 = [hl'($) .a1(8)]-'
Wegen o2 = Var (Y) = hl'($) ii vgl. (7)
ist 2 1 o . F (X) = h ' '($)P' . a ' ( ~ ) - ~
und somit gilt (21) mit I(8) aus (23). Zu zeigen bleibt (22).
Aus log f ( ~ 1 8) = ~ ( 8 ) b(x) + ~ ( 8 ) + d(x)
folgt D, log f(x 18) = a'(8) b(x) + C'(@)
also ~ a r ( ~ * log f(x 1 8)) = var(a1(8) b(X) )
= ~ ' ( 8 ) ~ . Var( b(X))
= ~ ' ( 8 ) ~ . h"(a(8)), d.h. (22) gilt.
Beweise zu: 11. Asymptotische Eigenschaften des ML-Schätzers 3.8.06 B 11 - 1
Beweise zu 11. Asymptotische Eigenschaften des ML-Schätzers
Die Beweise liegen noch nicht in digitaler Form vor.
Beweise zu: 12. Ungleichung von Cramer-Rao und effiziente Schätzer 2.8.06 B 12 - 1
Beweise zu 12. Die Ungleichung von Cramer-Rao und effiziente Schätzer
Die Beweise liegen noch nicht in digitaler Form vor.
Beweise zu: 13. Momente-Schätzung 2.8.06 B 1 3 - 1
Beweise zu 13. Momente-Schätzung
Auf die Beweise wurde verzichtet, weil sich die Behauptungen unmittel-
bar aus dem Zusammennhang ergeben.
Beweise zu: 15. Likelihood-Quotienten-Tests 3.8.06 B15-1
Beweise zu 15. Likelihood-Quotienten-Tests
15.1 Schärfste Tests und Neymann-Pearson Lemma
Beweis von
Definition und Lemma von Ne yman-Pearson
Für das Testproblem mit den einfachen Hypothesen Ho = {Bo} und H1 = {Bl}
und ein festes X. > 0 ist der Neyman-Pearson Test d definiert durch
(5) 4x1 = 1 * f(x I B1) > X. .f(x IBO) für alle X E IR^.
Dann ist d ist ein schärfster Test zum Niveau
(6) a : = P o w d (B o ) .
Zusatz:
Sind Trk := {f(- 1 Bk) > 0) die Träger von 2 ( X ) unter der Hypothese Hk für
k E {0, I}, so liegt X unter beiden Hypothesen Po-fast sicher in Tr : = Tro U Trl.
Im nicht-trivialen Fall X o > 0 ist der Neyman-Pearson Test d der einzige
schärfste Test zum Niveau a, d.h. für jeden anderen Test d* gilt:
(7) P O W ~ * ( B ~ ) = P O W ~ ( B ~ ) und ~ o w ~ * ( B ~ ) = ~ o w ~ ( B ~ ) + ( d*(x) = d(x) für alle X E Tr ) U-fast-überall.
setze fo(x)=f(xlQo), f1(x)=f(x1Q1J,
C o = { X E I R ~ ~ ~ ~ ( X ) < X ~ ~ ~ ( X ) } = { X E I R ~ ~ ~ ( X ) = O } ,
c1 = { x E I R ~ ~ ~ ~ ( x ) > X ~ ~ ~ ( X ) } = { X E I R ~ ~ ~ ( X ) = ~ } ,
c2 = {xEIRn Ifl(x) >Xofo(x) 1 C C l ,
6 3 ={xEIRn lf1(x)=X0fo(x)} c C 1 ,
Zum Nachweis des Lemmas sei d* ein weiterer Test zum Niveau < - a, d.h.
Beweise zu: 15. Likelihood-Quotienten-Tests 3.8.06 B15-2
(2) powd*(e0) 5 = powd(e0) bzw.
Zu zeigen ist
(ii) powd*(el) 5 Powd(el 1 bzw.
E(+ d*(x) 1 a E(+ 4x1 1 bzw.
0 a EO{d(X)-d*(X)}
Nun ist Egli d(X) - d*(X) } = J [d(x) - d*(x)] . fl(x) u(dx)
Wir schätzen die Integrale über C und C einzeln ab. 1 0
F Ü r x ~ C ~ i s t : d(x)-d*(x)>O, da d(x) = 1
f1(4 2 Aofo(x) und somit
(iii) J [d(x) - d*(x)I . fl(x) @X) > Ao . J [d(x) - d*(x)] . fo(x) . Cl Cl
Für X E Co ist: d(x) - d*(x) 5 0 , da d(x) = 0
f1(4 < Aofo(x) und somit
Insgesamt ergibt sich jetzt (i) wie folgt:
Beweise zu: 15. Likelihood-Quotienten-Tests 3.8.06 B 1 5 - 3
> - 0 nach (i).
Damit ist das Lemma bewiesen. Wir zeigen jetzt (7) für X > 0 und zerlegen dazu 0
(vii) Cl = C U C3 mit c2 = { X E IRn I f1(x) > Xofo(x) 1 , 2
6 3 = { X E IRn I fl(x) = Xofo(x) 1 ,
Nach Voraussetzung in (7) gilt in (i) und (ii) sogar die Gleichheit, d.h.
(22) P P
E { d ( X ) - d * ( X ) ) = 0 . 01
Nach (vi) gilt (ii)- genau dann, wenn in (iii) und (vi) die Gleichheit gilt. Also ist -
(iii) P
P
0 = S [d(x) - d*(x)l . [il(x) - X , . fo(x)l u(dx) Cl
= S [d(x) - d*(x)l . [fl(x) - X . . fo(x)l vgl. (vii). C2
ist (iii) P äquivalent zu -
(viii) [ x € C 2 + d ( x ) = d * ( x ) ]
Analog ergibt sich aus
und [d*(x) - d(x)l > 0 , [ X o . f o ( x ) -fl(x)l > 0 für X E Co
Beweise zu: 15. Likelihood-Quotienten-Tests 3.8.06 B15-4
die Äquivalenz von (ui) P zu -
(2x1 [ x E C , + d(x)=d*(x)]
Weiter erhält man aus (i) P
-
= J [d(x) - d*(x)I . fO(x) ~ ( d x ) vgl. (uiii), (ix) C3
und mit [d(x) - d*(x)] 2 0 , für X E C3 C Cl folgt
(X) [ x € C 3 , fO(x)>O + d(x)=d*(x)] U-fast-überall
Wegen X E C3 n Tr + f0(x) > 0 oder fl(x) = X. f0(x) > 0
+ fo(x) > 0
folgt aus (X)
(xi> [ x € c 3 n T r + d(x)=d*(x)]
Wegen IRn = Co U C2 U C3 ergibt sich aus (ix), ((vii) und (xi) jetzt
(xii) [ x ~ T r + d(x)=d*(x)] U-fast-überall.
15.3 Einparametrige Exponential-Familie
Beweis zu Normal-Verteilung mit bekannter Varianz
14.3(5) Pow2(pIa) <Powl(pIa) für alle p > po
14.3 (6) Pow2(pIa) <Pow;(pIa) für alle p < po
Für vorgegebenes p > p sei y > 0 definiert durch 0
bzw. 1 r = J n ( ~ - ~ ~ ) l g ~ p = p O + - a y fi Für dieses p > p0 ist der einseitige (obere) Gauß-Test ist ein MP-Test für die einfa-
chen Hypothesen Ho = {pol vs. H; = {p}, und somit gilt
Beweise zu: 15. Likelihood-Quotienten-Tests 3.8.06 B15-5
Angenommen, in (i) gilt die Gleichheit. Dann folgt aus 13 (7) mit U = An als
Lebesgue-Maß auf IRn
dl(x) = d2(x) für alle X E IRn An-fast-überall bzw.
(ii) An{dl t d2} = O
Unter Verwendung der Indikator-Funktionen der Mengen
lassen sich die Testfunktionen schreiben als
Die beiden Indikatorfunktionen unterscheiden sich auf der Menge
- - [za ,zoli2) U (-00 >-zaI2l
und für das Urbild unter t folgt
Der offene Kern Do von D ist nicht-leer und somit enthält tP1[D] die nicht-leere
Menge t-'[D'], die offen ist (t ist stetig). Daraus folgt
o < A~(~- ' [D ' ] ) 5 A ~ ( ~ - ' [ D ] ) 5 ~ ~ { d ~ t d ~ }
im Widerspruch zu (i). Also gilt in (i) nicht die Gleichheit und (7) ist gezeigt.
(8) folgt analog oder durch Zurückführen auf (7) mit - X statt X.
Beweisezu : 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 1
Beweise zu 16. Testen eines Erwartungswertes
16.1 Einseitiger (oberer) t-Test von Student im Normal-Verteilungsmodell
Beweis von
(5) J'] $1 = trn(7) mit
(6) m : = n - 1 (Freiheitsgrad),
(7) Y(P) := J. (p-p0)
(Nichtzentralitä~ , 0
J n ( X - p o ) - - Jn (F- pol10 - -
U Es ist T =
&(X) J [C (X, - X) 2/02] /m m m 2
mit U = f i ( X - p o ) / ~ - N(7,l) nach 4.1 (3)
nach 4.1 (4).
Nach 4.1 (2) sind U und V st. unabhängig und die Behauptung folgt mit der Defini-
tion der nichtzentralen t -Verteilung (vgl. Exkurs V 2.2). m
Beweise zu: 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 2
Beweis von
(10) Powl ( y 1 a ) ist streng wachsend in y
nach (5)
Nach Exkurs V 2.2 (10) ist @ ( t ) = @ ( t . ) streng fallend in y. m,Y m;a m,71O m,a
Also gilt (10) und daraus folgt dann (12).
Beweis von
(13) dl(x) = I U ~ { t m - > t ( x ) } 5 a .
(14) ~ { t m- > t ( x ) } = rnax P { T > t ( x ) } . Y 5 0
Da die Verteilungsfunktion der t -Verteilung streng wachsend ist, gilt m
t (x ) > t m; a U ~ { t m - < t ( x ) } > P { t m - < t m;a } = l - a
U ~ { t > t ( x ) } < a . m -
Also gilt (13). Und (14) ergibt sich - analog (9) (10) (12) - aus
Es gilt P { T > t ( x ) } = P{ tm(y) > t ( x ) }
= I - @ ( t ( ~ ) ) . " 1 Y
da @ ( t ( x ) ) = @ ( t ( x ) ) streng fallend in y ist (vgl. Exkurs V 2.2 (10)) " , Y " , Y 10
nach (5)
Beweisezu : 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 3
Beweis von
Es ist 1 t < T = + ( X - , L L J / ~ U - 8 t m 7 a - fi m7a-
Beweis von
(16) P{ tm(r) 2 trn.&} < P{N(y,l) >za} 1 für y > O , a < ? .
Wir zeigen sogar
(4 P{ tm(r) 2 trn.&} < P{N(y,l) >za} 1 für y > O , a t ? .
(b) 1
P{tm(y) 2 tm.&} = P{N(y,l)>\} für y > O , a = - 2 d.h.
P{ tm(r) 2 0) = P{N(y,l) > 0)
Für vorgegebenes y > 0 sei ,LL > ,LL definiert durch 0
bzw. 1 Jn(,LL-,LLo)I~o = Y ,LL=,LL0+-gy fi Für dieses ,LL > p0 ist der einseitige (obere) Gauß-Test ist ein MP-Test für die einfa-
chen Hypothesen Ho = vs. H; = {,LL}, und somit gilt zunächst
Für die Behauptung (16) ist noch zu zeigen, daß die Gleichheit in (i) nicht gilt. Nach
15.1 (7) genügt es dafür zu zeigen, daß sich der einseitige Gauß-Test gl und t-Test dl
auf einer offenen nicht-leeren Menge A C Tr = IRn unterscheiden, weil dann
1 Fall 1: a < ? also z t > O a ' m;a
Wir definieren die offenen Mengen
und zeigen, daß die offene Menge A = Aln A2 C {gl t dl} nicht leer ist. Hierzu be-
trachten wir für beliebige a, d E IR die Realisierung X = x(a, d) mit
Beweise zu: 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 4
(ii) X = U - d , 1
X = a + d , 2
x . = a f ü r i > 2 . 2
Dann ist
(iii) - X = a , 2 2 S x x = C ( X . - % ) = 2 d ,
i
(2.1 & ( X ) = c 1 d 1 > o mit C=-.
Wählen wir jetzt a E IR mit
1 sofolgt 0 < % - P , = a-,uo < - o z d.h. X E Al f i a
sowie 0 < & ( X - , u O ) = f i ( a - , u O ) .
Und für hinreichend kleines d erhält man
f i (a - pol > C 1 d 1 tmia = " X ) tm.& > 0 d.h. X E A2.
Also ist A t 0.
1 Fall2: a>? also z t < O a ' m;a
Wir definieren die offenen Mengen
und zeigen analog Fall 1, daß die offene Menge A = Aln A2 C {sl t d l } nicht leer
ist. Hierzu betrachten wir die Realisierung X = x(a,d) und wählen jetzt a E IR mit
1 p O + - o z a < a < p O .
f i 1 - Dann ist - o z < a - , u = X- ,u0 < 0 o d.h. X E Al f i a
sowie f i (% - ,uO) = f i (a - ,uo) < 0.
Und für hinreichend kleines d erhält man
f i (a - pol < C 1 d 1 tmia = " X ) tm.& < 0 d.h. X E A2.
Also ist A t 0.
1 Fall3: a=- 2
also z t = O . a ' m;a
2 Für unabhängige U - N(y, 1) und V > 0 mit r n v 2 - X gilt m
Beweisezu : 16. Testen eines Erwartungswertes 3.8.06 B16-5
Beweis von
(17) lim n t n-l;a =Z a
Nach Exkurs V 2.1 (12) gilt
t A N(0,l) für n + CO, n
und hieraus ergibt sich die Behauptung mit Exkurs Q 2 (9)
Beweise zu: 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 6
16.2 Dualer einseitiger (unterer) t-Test von Student im Normal-Verteilungsmodell
Die Beweise verlaufen analog zum einseitig (oberen) t-Test und lasssen sich auch
formal auf diese zurückführen, indem man die Zufallsvariable X' : = - X betrachtet.
Beweis von
(7) 1
P{tm(r) i - t m . o } < p { N ( ~ > l ) i - \ J für y i ~ , a < ? .
Wegen tm(7) 5 - tmia U t m (-7) =- tm(Y) tmia
und N(Y, 1) 5 - \ U N(-~,1) = -N(Y,~) > z a
folgt die Behauptung aus 16.1 (16).
16.3 Zweiseitiger t-Test von Student im Normal-Verteilungsmodell
Beweis von
(3) Pow 2 (T) = Pow2(? la) := P O W ~ ( ~ 1;) + POW;(~( ; ) .
ES ist pow2(7 Ia) = PI I t(X) I > tm,.&/2 1
= P{ t(X) tm;@ oder - t(X) > tm;a/2 1
= P{ t(X) trn,.&/2 1 + P{-t(X) > trn,.&/2 1
= powl (Y l + Pow;(Y 1 :) .
Beweisezu : 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 7
16.4 Asymptotische Eigenschaften des t-Tests
Beweise von
(I) ~ ( 0 1 ) f ü r p = p 0 '
(2) Ijn) P_ - a? für p < p o ,
(3) Ijn) P_ + a? für p > p o .
für p < po P O W ~ ( ~ ) : = l i i W ~ o w ~ ( p ) = für p = p o
für ,LL > p0
Aus
ergeben sich nun (1) - (3) unter Berücksichtigung von Exkurs KV 11.
(5) folgt aus (1) - (3) mit Exkurs Q2 sowie
lim t =Z . n n-1;a a
Beweise zu: 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 8
16.5 Schärfe-Approximation des t-Tests bei beliebiger Verteilung
Beweise von
(1) P O W ~ ( ~ ~ ~ ) = P { T > ~ - n-l;a } = P { u + v > z ~ - Y } mit
Es ist T > - t =: t n-1; a a
Jn (X- pol > - a ta
J n ( X - p ) - a t a - > - J n ( p - p 0 )
a U - - t > 0 a - - Y
8 > U + [.,- ,ta] - Za - Y
Beweise von
(11) Pow:(pla) = P { T ~ - t n-1; a } = P { u - v < - z ~ - ~ )
Es ist T < - - t = : - t n-1; a U
Jn (X- pol < - - a t U
Jn(X-P) + a t i - J n ( p - p o ) U
Beweisezu : 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 9
16.6 Versuchsplanung beim t-Tests
Beweis zur Äquivalenz von
(1) APOW,(P~CX) := P{N(?,I) 2%) = @(?-L) I - ß bzw
Es ist APOW,(P~) > 1 - ß * 7-2, > "P
Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B 17- 1
Beweise zu 17 Test einer Wahrscheinlichkeit
17.1 Einseitiger (oberer) Test einer Wahrscheinlichkeit
17.1.1 Exakter Test zum nominellen Niveau
Beweis von
(2) P{B(n,po)<ko-1) < 1- a < P{B(n,po)< k o - 1 ) .
Esist: P{B(n,po)<ko-1) = 1-P{B(n,po)>kO} > 1 - a (11,
P{B(n,p0)< k o - 1 ) = 1- P{B(n,p0) > ko-1) < 1- a 1 (1).
Beweis von
(3) P{B(n,p0) > X ) < a U PO < - I; u,a (4 .
Fall 1: X > 0
Da die Funktion G(x1p) = P{ B(n, p) > X ) nach 2.3.2 (2) für X > 0 streng wachsend in
p ist, ergibt sich
Wegen P{B(n,p) 2 0 ) = 1 und jU(O Ia) = 0 sind beide Seiten von (6) falsch, weil
a < 1 und po > 0. Also gilt auch die Äquivalenz (6).
Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B 17- 2
17.1.2 Randomisierter Test
Beweis von
Q - P { B ( n , ~ ~ > 2 5,) Q - Q (1)
- Y = - eff P{B(n,po> = kO- l ) P{B(n,po> = 5,- 1 )
E [O,1>
Wegen Q < Q ist y > 0. Für y < 1 ist zu zeigen eff -
-
Q - P { B ( ~ , P o > 2 5,) < P{B(n,po> = kO- l ) ~ Z W .
Q < P{B(n,Po)2k0-1)
und dies ergibt sich ausa der Definition von k 0'
Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B 17- 3
17.1.3 Asymptotischer Gauß-Test
Beweis von
(2) d i (x ) = i U t(x) > z a
U X > km(u) : = npO + \oO J" 0
Esist t ( ~ ) = J " ( j - ~ ~ ) / o ~ > ~ U j - p 0 - > z a O o - 1 fi
Beweise von
(6) fi) N (o,I) für p = P o '
(7) fi) P.-, für p <po ,
(8) fi) P.+, für p >po .
Der Beweis verläuft völlig analog dem von 14.4 (1) - (3).
Mit 02(P) : = PP - P) , 2 2 0 0 = 0 (P,)
gilt J" ($(X(")) - P) J" (P - Po) +
4~) .(P)
J" (P -PO) o f ü r p = p Aus 0
-CO f ü r p < p o O(P) +CO f ü r p > p o
ergeben sich nun (6) - (8) unter Berücksichtigung von Exkurs KV 11. Und (9) ist
eine direkte Folgerung aus (6) - (8).
Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B17-4
Beweis von
(13) t(x) 2 Cr U @(- t(x)) i a
U < F ( x l a ) . P o - U
Die erste Äquivalenz ergibt sich aus der strengen Monotonie von @. Und die zweite
Äquivalenz erhält man mit 4.5 (19)
Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B 1 7 - 5
17.4 Approximation der Testschärfe und Versuchsplanung für den asymptotischen Test
Beweis von
(3) I p { ~ l , < x ) - P { N ( o , ~ ) < X ) 1
für alle X E IR I p { ~ l , > x ) - P { N ( o , ~ ) > X ) 1
mit der von p abhängigen positiven Konstanten
c.(p2+(l-p)2) c . (1-2a2(p)) (4) C(P) =
- - > 0 , C = 0.7995. 4~) .(P)
1 Die Funktion C(p) ist streng fallend in a(p) und nimmt ihr Minimum für a(p) =-, 2
1 also für p = - an. Und für a(p) + 0 (d.h. p + 0 bzw. p + 1) gilt C(p) + W. 2
Zunächst gilt (3) nach einem Satz von Berry und Esseen (vgl. Exkurs ZGS 4 z.B.
Gänssler-Stute 1977, Satz 4.2.10, Korollar 4.2.15 ff) mit
wegen E { I B ( ~ , P ) - P I ~ ) = q p 3 + p q 3 mit q = l - p
= P q (P2 + q2) = 02(p ) . (P2 + Y ) gilt die erste Darstellung in (4), und die zweite folgt aus
(ii) 2 2 ~ = ( p + q ) ~ = p + 2 p q + q .
Weiter ist C(p) = C . f(a(p)) mit
(iii) -2 f ( x ) = x p l - L X , f l ( x ) = - X - 2 < O für X > O
Also ist f streng fallend in X > 0, und C(p) wird minimal, wenn a(p) maximal wird, 1 d.h. für a(p) = -. 2
Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B 17- 6
Beweis von
Powl(p) = P{ U 2 - U +(P) } mit
Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B17-7
Beweis von
(8) Pow;(p) = P{ U 5 U-(P) } mit
Analog dem Beweis von (5):
Es ist Pow;(p) = P
Beweis von
ES ist APowl(pl) > 1 - ß U u+(pl) "P
" J~(P~-PO) > ~ a g ~ + ~ ~ g ( p ~ )
Beweise zu: 18. Likelihood-Quotienten Tests 3.8.06 B 1 8 - 1
Beweise zu 18. Likelihood-Quotienten Tests
18.1 Allgemeiner Likelihood-Quotienten Test
Beweis von
(9) X(xIHJ = min{l,X(xIHo,H1)}
Für S~ := S U ~ {L(BI X) I B E o ~ } , k = o , ~
ist ~ : = S U ~ { L ( ~ I X ) I ~ E @ = @ ~ U @ ~ } = max{s s } . 0' 1
Fall 1: so 5 sl bzw. S = S 1 '
Dannist X(xlHO,H1) = X(xlHJ 5 1 und (9) gilt.
Fall.2: s o > s l bzw. S = S 0 '
Dannist X(xlHO,H1) > 1 = X(xlHO) und (9) gilt.
Beweise zu: 19. Vergleich zweier Erwartungswerte (Normalverteilung) 3.8.06 B 19 - 1
Beweise zu 19 Vergleich von zwei Erwartungswerten bei
Normalverteilungen mit gleichen Varianzen
19. 2 Der zweiseitige t-Test als Likelihood-Quotienten-Test
Beweise von
Aus der log-Dichte
ergeben sich die einzelnen log-Likelihoods
(ii) 2 2 1 1% L(Px, 0 I X) = [(i~y, 0 I X) - 2 nx log(24
2 2 1% L(Py, 0 l Y) = [(PY, 0 l Y) - $ ny log(24
(iii) 2 1 2 1 2 [(Px, 0 I X) = - - 2 [ nxlog(. + F :<Xi- P,) I
2 2 1 2 [(PY, 0 l Y) = - + [ nylog(a + C(Yi-Py) 1.
2
Das gesamte log-Likelihood ist daher
mit
2 2 2 Für festes a is [(-, a I X) bzw. [(-, a I y) streng konkav mit (eindeutig bestimmten)
Maximalstellen
Beweise zu: 19. Vergleich zweier Erwartungswerte (N~rmalverteilun~) 3.8.06 B 19 - 2
Dies sind auch die ML-Schätzungen von px und p Zur Bestimmung der ML- Y'
2 Schätzung von a minimieren wir die Funktion
1 2 1 2 = nxlog(a2) + 7 C(Z-fix) + nylog(a2) + 7 C ( ~ ~ - f i ~ ) 0 2 0 2
1 2 2 = n log(02) + 7 [ C ( x i - ~ ) + C(yi- ~y I
2 2
2 1 = n log(o ) + 7 b mit
2 2 b = C(xi-fix) + C(yi-fiy) .
2 2
Aus 2 n b 1 b hl(a ) = 7-- - o4 - -[.-,I o2
folgt
Damit ist
8 2 - - (vii) L n 2 2
die (eindeutig bestimmte) Minimalstelle von h. Die Schätzung 8; ist nicht erwar-
tungstreu, denn nach 3.2 (5) gilt
(viii) 1 2 2 2 2 2 E{~;(x,Y)} = ---[(nx-I)a +(ny-1)" ] = a [I----I < a .
A 2 - A 2 Das zugehörige Maximum des Log-Likelihoods gilt dann, wobei abkürzend a - a L
2 = - 2 [(fix, 82 1 X) - 2 [(,Ly, 8 1 y) + n log(2ir) vgl. (iv)
= n iog(e2) + 4 [ C (xi- fiX12 + C (yi- ,Ly )2 ] + n log(%) vgl. (iii) 0 2 2
= n + n + n log(2ir) vgl. (vii).
Unter der zweiseitigen Nullhypothese Ho: px = py = p sind X und Y identisch verteilt
und die ML-Schätzungen ergeben sich wie in (7) angegeben, wobei 82 wieder nach 0 L
3.2 nicht erwartungstreu ist.. Für das zugehörige Maximum des Log-Likelihoods gilt A 2 A 2 dann analog (ix) - wobei wieder abkürzend a = a 0 OL
Beweise zu: 19. Vergleich zweier Erwartungswerte (N~rmalverteilun~) 3.8.06 B 19 - 3
(4 - 2 log L(fiox, fiOY, "- I X,Y
= n log(8,2) + & [ z(xi- z ) ~ + c ( ~ ~ - z ) ~ ] + n log(2~) Oo 2
2 1 = n ) + 7 Szz + n log(27~) Oo
= n log(#) + n + n 1og(2~)
Und (8) ergibt sich dann aus
vgl. (7).
(xi) 2 log X(x, Y I Ho)
A 2 = 2 log L(fiox, fioy, gor. I .,Y) - 2 1% L(fix, fiy, 8; I x,y)
= n - log(&:)] vgi. (ix) (X).
Beweise zu: 19. Vergleich zweier Erwartungswerte (N~rmalverteilun~) 3.8.06 B 19 - 4
Beweise von
(10) S z z = sxx + s y y + (- 2 1 1 1 X -y ) (-+-)- nx n~
(11) - 2 log ~ ( x , y 1 H ~ ) = n log ( 1 + m L t2(x, Y ) ) .
- 1 1 1 Es ist z = K C zi = - [ C X . + C y . ] = - [n x + n Y ] n i z i~ n X Y d.h. (9)
2 gilt.
Aus C ( X . - g 2 = C ( X . - X12 + nx(X- g2 vgl. 3.2 (4) 2 2
- und 1 X - Z = - [ ( n - n ) X - n Y ] n X Y vgl. (9)
1 = - n [ X - Y ] n Y folgt
( 2 ) 1
C (xi - Z) = sxx + nx [ K n - Y ) ] 2 und analog
2
(ii) C ( y i - 2 l 2 = ~ y y + n y [ i n y ( y - % ) I 2 . 2
Also 2 S z z = C ( X . - Z ) + C ( Y . - Z ) 2
i i 1
= S x x + S y y + ?nxnY(nx + n y ) ( ~ - y ) 2
1 1 1 -1 und mit - n n X n Y - ( G + F ) - folgt (10).
Zum Nachweis von (11) ergibt sich aus (8) bzw. aus (ix) des letzten Beweises
(iii) 2 2 - 2 log X(x, y I Ho) = 10g(O.~,) - log(&, ) n
S z z = 105 [ S x x + S y y
s z z 1 1 1 Nun ist - - 1 + [(sxx + S Y Y ) ( ~ + sxx +SYY
= 1 + (X-y12 [m ~.:(x,y)]', vgl. (14) (15)
1 2 = l + ; t (",Y)
und mit (iii) ergibt sich (8).
Beweise zu: 19. Vergleich zweier Erwartungswerte (N~rmalverteilun~) 3.8.06 B 19 - 5
Beweise von
(18) 2 q X - Y ) = N ( A ~ , % ) mit
Aus .d(x) = ~ ( p , 2 o 2 ) , qY) = ~ ( p ,L2) X nx Y n~
und der Unabhängigkeit von X und Y folgt (18).
Aus 2 2 S X X - D . 2 2 Xn -1
S Y Y - D . Xn - 1 , vgl. 4.1 (4)
X Y
und der Unabhängigkeit von S X X und S Y Y folgt
2 2 m & 2 ( ~ , ~ ) = ( S X X + SYY) - D . xm
und 1 1 1 1 2 2 2 2 ~&;(x ,Y) = m & 2 ( ~ , ~ ) ( - + - ) - ( - + - ) D . x m = on.xm nx n~ nx n~
d.h. (20) gilt. Zum Nachweis von (21) stellen wir T dar als
mit U = (X-Y)/oA - N(7, 1) nach (18)
2 V = m &:(X, Y ) /oA - x m 2 nach (20).
- - Nun sind U und V nach 6.1 (2) unabhängig, weil U nur von ( X , Y') und V nur von
( S X X , S Y Y ) abhängt. Also folgt (21) mit der Definition der nichtzentralen
t -Verteilung (vgl. Exkurs V 2.2). m
Beweise zu: 19. Vergleich zweier Erwartungswerte (N~rmalverteilun~) 3.8.06 B 19 - 6
19.4 Konfidenzgrenzen für die Differenz der Erwartungswerte
Beweise von
(2) B T , ) = in-, .
Der Beweis von (2) verläuft analog dem von 19.3 (21). Es ist
mit
U = ( K - ~ - A ~ ) / D , - N(0, l ) nach 19.3 (18),
2 V = m &:(X, Y ) /D, - xm 2 nach 19.3 (20).
- - U und V sind nach 6.1 (2) unabhängig, weil U nur von ( X , Y) und V nur von ( S X X ,
S Y Y ) abhängt. Also folgt (2) mit der Definition der zentralen t -Verteilung (vgl. m Exkurs V 2.2).
Beweise zu
(3) (a&= nfi-Jnia = ( X - Y ) - $ n; a bzw.
(AP) o = 4 + Jn; = ( % - Y ) + $ n; a mit
(4) $ : = t n; a .a n-2;a A '
Zu zeigen ist, daß die Grenzen die Sicherheit 1- U haben. Mit m = n - 2 gilt:
P { ( % - Y ) - t m; a .8 ,<Ap} = P{T ,<tmia} = 1-U vgl.(2).
P { ( % - Y ) + t m; a .8 ,>Ap} = P{T,>- tmia} = 1-U vg1.(2).
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 1
Beweise zu 20. Vergleich von zwei Erwartungswerten bei beliebigen
Verteilungen
20.1 Herleitung einer Teststatistik
Beweis von
Esis t V a r ( A , L ) = V a r ( X - Y ) = V a r ( X ) + Var(Y)
Beweis von
1 1 n Die zweite Darstellung folgt aus - + - = - . nx n~ n x n ~
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 2
20.2 Asymptotische Verteilung der Teststatistik
Beweise von
(6) 2 fi [nfin - AP] - ~ ( 0 , T ~ ) wobei
Aus dem zentralen Grenzwertsatz ergibt sich (vgl. auch 1.1 (5))
bzw.
Analog ergibt sich
(ii) k ~n [ Y ( ~ ) - P„] - 2 N(O , $ aJ) . Y
Da x ( ~ ) und v ( ~ ) voneinander unabhängig sind, ergibt sich aus (i) und (ii) - vgl. Ex-
kurs KV 5 -
Also gilt (6), woraus sich (8) nach Division durch T = a fi ergibt.
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 3
Beweise von
I p { ~ l , < x ) - P { N ( o , ~ ) < X ) 1 C (9) für alle X E IR
I p { ~ l , > x ) - P { N ( o , ~ ) > X ) 1
mit der positiven Konstanten
Die zentrierte Differenz Afi - Ap läßt sich darstellen als Mittelwert der zentrier- n
ten Zufallsvariablen
(ii)
Da alle X ! und Y ! stochastisch unabhängig sind folgt aus dem Theorem von Berry 2 2
und Essken (vgl. z.B. Gänssler-Stute 1977, Satz 4.2.10 und Korollar 4.2.15)
(iii) I p { ~ l , < x ) - P { N ( o , ~ ) < X ) 1 < - 6 T - ~ B für alle X E IR, wobei I p { ~ l , > x ) - P { N ( o , ~ ) > X ) 1
vgl. (ii)
1 Also ist 6 T - ~ B = - C. Jn
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 4
Beweise von
- 2 n a P 2 A n - ' T ,
an, P - 1 , n
Aus P 2 - 2 - 0 Xn X '
folgt - 2 - n a - 1 - 2 1 - 2 P l a 2 +p2= 1 2 - -
A n C~ Oxn + + D y n C~ X Y Y 7 ,
Also gilt (11) und (12) folgt aus
O n n non, 'T P 'T sowie - - - - - - = l .
an n n a n n 80n (11) 'T
Und (13) ergibt sich durch Multiplikation von
mit (12).
Beweise von
(15) P T --Co n für A p < 0 bzw. p X < p y ,
(16) P T -+Co n für A p > 0 bzw. P x > P y .
Es gilt
vgl. (13)
und 8 - 0 ~ Z W . P P
A n Co,
n
AP - W für A p < O also
n + W für Ap>O '
vgl. (11)
Addition mit (i) liefert die Behauptungen, vgl. Exkurs KV 11 (4).
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 5
20.4 Schärfe-Approximation für den einseitigen Tests
Beweise von
(3)
Es ist
Beweise von
mit
(5) Un+zaVn L N < o , ~ >
(4) folgt aus 20.2 (12), und (5) folgt direkt aus
U L N(0,l) n vgl. 20.2 (8)
mit den Rechneregeln über Verteilungskonvergenz (vgl. Exkurs KV 5).
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 6
Beweis von
(8) 2 Jnzv -
a N(0, d 2 ) falls pqX i pqY < Für 82 = gilt nach 3.2 (8)
Xn
2 2 ~;;;[8;,-.,1 - N(0 , ( P , - 0; 1)
und Multiplikation mit cy3l2 = C-' f i /J;ix liefert X
( 2 ) 1 2 2 ~ n - [ < ~ - a , ] - ~ ( 0 , ~ : ) mit a 2 = c -3 4
Cx X X ( ~ 4 x - ~ x ) .
Analog gilt für 82 = Y n
(ii) 1 - 2 2 2 -3 4 -03 - J n , N(O, ay ) mit ay = c y (p4y - a
Da und unabhängig sind, ergibt sich aus (i) und (ii) mit K V 3
2 2 2 Jn& - D,] + Jn: [ & J n - D y ] - ~ ( 0 , a2)
mit 2 2 2 a = a + a X Y
- 2 2 1 - 2 1 - 2 Wegen n a - T = - - - l a 2 - - A n
a2 C~ a ~ n n + ~ a ~ n cX X c y Y
folgt ~ n [ n 8 ; , - ~ ~ ] - ~ ( 0 , a2)
Für die Funktion F(x) = x1I2 ergibt sich daher mit der Delta-Methode (vgl. Exkurs
K V 14)
(iii) J ; I [ J ~ ~ A , - T I F N(O, b 2 ) mit
2 2 1 71/2. a2 b = F'(T) . a =
Division durch T = \/;; Q ergibt
(iu) - J" vn ~ ( 0 , b 2 y 2 )
2 2 und Multiplikation von (iu) mit - L ergibt die Behauptung für d = ( b 7 '2 , ) . a
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 7
20.5 Versuchsplanung für den einseitigen Test
Beweise zu
mit
bzw. 7-25 > z a - ß
Die Äquivalenz von (1) und (1) folgt direkt aus
Beweise zu
2 1 2 a 2 Esist T ( c ~ ) = G ~ ~ + ~ Y
Wir betrachten allgemeiner für festes a, b E IR die Funktion
f(x) = a Z + b ( l - x ) - ~ für O < X < I
mit -2 f 1 ( X ) = - . X + b ( l - q 2
Für a, b > 0 ist f " ( X ) > 0 und somit ist f streng konvex. Wegen
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 8
hat f für dieses X eine Minimalstelle.
2 2 2 Für a = ox und b = oy ist daher T (cx) streng konvex mit der Minimalstelle (6).
f l
folgt 2 2 ( C ; ) = = (ox+oY) , d.h.(7)gilt.
Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 9
20.6 Zweiseitiger Tests: Schärfe und Versuchplanung
Beweis von
(2) ergibt sich aus den Herleitungen in 20.4 mit statt a. Und (3) folgt aus (2)
durch Vertauschen von X mit Y, weil dann die Teststatistik T = t ( Y , X ) ihr Vorzei-
chen ändert und somit
20.7 Konfidenzgrenzen für die Differenz der Erwartungswerte
Beweise zu
(1) (ap) U = nfi-da = (X-Y)-da ~ Z W .
(ap) = ~ f i + d = (X-Y) + d a mit o a
(2) : = z .& a a A '
(3) nfi I $ a = (X-Y)
Esgilt P { ( A ~ ) ~ < A ~ ) = ~ { ~ f i - z ~ . & ~ < A ~ )
Analog P { ( A ~ ) ~ < A ~ ) = ~ { ~ f i + Z ~ . & ~ < A ~ )
1 = ~ { ~ ( n f i - a p ) < - z a } - I - ~ ~ 1 . 20.2 (13). On
Folglich haben die Konfidenzgrenzen (1) - und damit auch das Konfidenzintervall
(3) - die asymptotische Sicherheit 1 - a.
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B21-1
Beweise zu 21. Vergleich von zwei Wahrscheinlichkeiten
21.2 Herleitung einer Teststatistik
Beweis von
Es ist var( Ap) = var( X - I) = var( X) + Var(Y)
21.3 Asymptotische Verteilung der Teststatistik
Beweise von
(5) ~n [njn - ~ p ] -i N ( o , T ~ ) wobei
(8) I p{un < x)-P{N(o,~) < X ) I C(px' für al le X E IR I p{un > x)-P{N(o,~) > X ) I
mit der positiven Konstanten
Es genügt, (8) zu zeigen, weil dann (7) folgt, woraus sich (5) nach Multiplikation mit
T = 4 ergibt. Die zentrierte Differenz A j - Ap läßt sich darstellen als Mittel- n wert der zentrierten Zufallsvariablen (Achtung bei Y!: Differenz umgekehrt LU X!)
2 2
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B21-2
(ii) - 1 ,(X;+Y;) = -C(Xi-P,) + L c ( p y - ~ . ) 1
nx i n~ i 2
Da alle X! und Y! stochastisch unabhängig sind mit 3. absoluten Moment (vgl. Be- 2 2
weis von 17.4 (3)(4))
(iii) -3 -3 2 2 E{1x:l3} = cx E { I B ( ~ , P ~ ) - ~ ~ I ~ } = ox(1-20x))
-3 -3 2 2 E { I Y ~ ! I ~ } = E{IB(~ ,P , ) -P , I~ ) = o Y ( 1 - 2 0 Y ) .
folgt aus dem Theorem von Berry und Essken (vgl. z.B. Gänssler-Stute 1977, Satz
4.2.10 und Korollar 4.2.15)
I p {~ l , < x)-P{N(o,~) < X ) 1 (2.1 < - c s-3 B für alle X E IR, wobei I p {~ l , > x)-P{N(o,~) > X ) 1
(4 2 2 2 s = Var(X1 + Y I ) = n2 v ~ ~ ( A ~ ( x , Y ) ) = n o t t
vgl. (ii)
( ~ ~ 1 B = n x ~ { ~ ~ 2 ! 1 3 ) + n y ~ { ~ ~ ~ 1 3 )
-2 2 2 -2 2 2 = n [cX o x ( l - 2 o x ) + C, 0, ( 1 - 2 o y ) ] , vgl. (iii)
1 Alsoist c sP3B=-C(p p ) fi X ' Y '
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 3
Beweise von
P Aus P Pxn - p X , P ~n - PY
folgt P P n = cxPxn + cY Pxn - c X p x + c Y p y = P 7 d.h. (10) gilt,
und na2 = 1 P 1 2 2 - ."Pn) - On c X c y - 0 ( P ) = >
d.h. (11) gilt, Cx C~
O n O n 'T P 'T sowie - - - - -
80n 80n 80n (11) 'TO
7
Und (13) ergibt sich durch Multiplikation von
mit
d.h. (12) gilt.
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 4
Beweise von
(15) P T --Co
n
(16) P T -+Co
n
Es gilt
und
also
f ü r A p < O bzw. p x < p y ,
für A p > 0 bzw. Px>Py.
vgl. (11)
a On 1 +CO für A ~ > o
Addition mit (i) liefert die Behauptungen, vgl. Exkurs KV 11 (4).
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 5
21.5 Schärfe-Approximation für den einseitigen Tests
Beweise von
(1) Pow,(Px,PylQ) = P{T>z,} - = ~ { u + ~ a ~ > - u ( ~ x , ~ y ) }
Es ist
mit
1 U = - [np - ap] , 0
Die letzte Darstellung von V folgt aus
mit
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 6
Beweise von
(5) Un+zaVn L N(0,l)
Die zweite Darstellung von V folgt aus n
(2) 0 On f i = = , O n & = =
und die Konvergenz in (4) ergibt sich aus der Konsistenz der Schätzung 8 0
(ii) 80n -
- " n h p
1 , vgl. (i) und 21.3 (11). 00 =o
Und (5) folgt mit (4) direkt aus
1 U :=-[njn-aP] L N(0,l) vgl. 21.3 (7) On
mit den Rechneregeln über Verteilungskonvergenz (vgl. Exkurs KV 5).
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B21-7
Beweis von
(8) 2
J n z v - a ~ ( 0 , d2) für ein d>O .
ES ist j = i (X?) + ~ ( ~ 1 ) t mit
1 ,) = (nxpx + nypy) = CXPX + CyPy = P
1 2 2 2 1 2 2 U n : = V a r ( j n ) = (X) ( n x o X + n Y Y D ) = - (C n x x D + C Y Y D )
nach dem zentralen Grenzwert asymptotisch normalverteilt
(2) -112 2
[@',-P] I N(o,1) bzw. n
(ii) 2 J n [ P n - p ] I N(0,u2) mit
(iii) 2 2 V = C D + C D 2 > 0.
X X Y Y
Für die Funktion ~ ( p ) = [p(l-p)]1/2 ergibt sich daher mit der Delta-Methode (vgl.
Exkurs KV 14)
(4 Jn [D<@',> - 4 ~ ) I 2 - N(O, a2u2) mit
I 1 -112 = D (P) = 2 [P(~-P)] (1 -2p)> 0.
Man beachte, daß auch a = 0 zugelassen ist. Wegen
4 ~ ) = oOn J-, ~ ( $ 1 = J-, vgl. 21.2 (IO)(II)
läßt sich (U) wie folgt schreiben
(4 I 2 n J l i C y [ & O n - ~ O n l i N(O, a2u2)
und Division durch
T J% = D n \/;; J% liefert
(V;) -1 2
- J n n = Jn - oon] 0, - N(0, b2) mit
b2 = a2 u2 72 (cX cJ1 .
2 Multiplikation von (ui) mit -L ergibt die Behauptung für d = (ba12. a
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 8
21.6 Versuchsplanung für den einseitigen Test
Beweise zu
mit
mit
Ap-z a Mit a o - - J n A p za7o
u(PX,PY) = 0 7 7
folgt APowl(pl) 2 1 - ß u(px, py) > "P
Beweise zu
(2) 1
7 < für C = C =- X Y 2
bzw.
2 2 2 2 2 0 X + 2 a Y = 7 < ~ ~ = 4 a ~ ( p ) für = 1 py) bzw.
1 2 1 2 2 1 1 2 a (px) + 2 a (pu) < a ( 2 p x + 2 p y ) da a2(-) konkav ist.
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 9
21.7 Zweiseitiger Tests: Schärfe und Versuchplanung
Beweis von
(2) ergibt sich aus den Herleitungen in 21.5 mit statt a. Und (3) folgt aus (2) durch
Vertauschen von X mit Y, weil dann die Teststatistik T = t(Y,X) ihr Vorzeichen
ändert und somit
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 21 - 10
21.8 Konfidenzgrenzen für die Differenz der Wahrscheinlichkeiten
Beweise von
(2) P 2 n 2 - T ,
n
(3) "n P - 1 (Konsistenz) . On
Aus der Konsistenz der Schätzungen
P P Pxn - PX X P ~n ' PY für n + CO , für n +CO
Y
ergibt sich
Also gilt (2) und somit auch
und Division durch T = fi 0 ergibt (3). Und (4) erhält man durch Division von (1) n und (3).
Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 21 - 11
Beweise zu
(5) ( ~ p ) u = ~ j - d a =@',-@',-da bzw.
(Ap) o = ~j +da = jx -P, + da mit
(6) :=z .4. a a
(7) np k d = px - pu +d - a/2.
Esgilt P{(Ap) U <np} = P{A~- za.4<np} 1
= ~{:(np-Ap)<~} - 1-a vgl.(4). 0
Analog P{(Ap) o >np} = P{A~ + z;b>np} 1
= P{~(A~-A~)>-Z,} - 1 - vgl.(4).
Folglich haben die Konfidenzgrenzen (5) - und damit auch das Konfidenzintervall
(7) - die asymptotische Sicherheit 1- a.
Beweise zu: 22. Anpassungstests bei Multinomialverteilungen 3.8.06 B 22 - 1
Beweise zu 22. Anpassungstests bei Multinomialverteilungen
Die Beweise liegen noch nicht in digitaler Form vor.
Beweise zu: 23. Chiquadrat-Anpassungstests für Verteilungen 3.8.06 B 23 - 1
Beweise zu 23. Chiquadrat-Anpassungstests für Verteilungen
Die Beweise liegen noch nicht in digitaler Form vor.
top related