Page 1
UNIVERSIDAD POLITECNICA DE MADRID
FACULTAD DE INFORMATICA
DEPARTAMENTO DE METODOS ESTADISTICOS, INVESTIGACION OPERATIVA E
INTELIGENCIA ARTIFICIAL
ESTIMADORES BAYESIANOS DE LA FIABILIDAD CON MUESTREO CENSURADO
Autor: Jose Villon Altamirano. Licenciado en Ciencias Matematicas
Memoria Presentada para la obtencion del Grado de Doctor en
Informatica.
Director: Antonio Insua Negrao
Codirector: Jan Hurt
Junio de 1988
Page 2
TESIS DOCTORAL
ESTIMADORES BAYESIANOS DE LA FIABILIDAD CON MUESTREO CENSURADO
Autor: D. Jose Villen Altamirano
Director: D. Antonio Insua Negrao
TRIBUNAR CALIFICADOR
Presidente: D. Luis Laita Larrica
Vocales:
D. Sixto Rios Insua
D. Emilio Prieto Saez
D§. Maria Jesus Rios Insua
D. Eugenio Martinez Falero
Madrid de Junio de 1988
Page 3
PLANTEAMIENTO Y RESUMEN DE LA TESIS
El estudio de la fiabilidad de componentes y sistemas tiene
gran importancia en diversos campos de la ingenieria, y muy
concretamente en el de la informatica.
Al analizar la duracion de los elementos de la muestra hay
que tener en cuenta los elementos que no fallan en el tiempo que
dure el experimento, o bien los que fallen por causas distintas a
la que es objeto de estudio.
Por ello surgen nuevos tipos de muestreo que contemplan
estos casos. El mas general de ellos, el muestreo censurado, es
el que consideramos en nuestro trabajo. En este muestreo tanto el
tiempo hasta que falla el componente como el tiempo de censura
son variables aleatorias.
Con la hipotesis de que ambos tiempos se distribuyen
exponencialmente, el profesor Hurt estudio el comportamiento
asintotico del estimador de maxima verosimilitud de la funcion de
fiabilidad.
En principio parece interesante utilizar metodos Bayesianos
en el estudio de la fiabilidad porque incorporan al analisis la
informacion a priori de la que se dispone normalmente en
problemas reales. Por ello hemos considerado dos estimadores
Bayesianos de la fiabilidad de una distribucion exponencial que
son la media y la moda de la distribucion a posteriori.
Hemos calculado la expansion asint6tica de la media, varianza
y error cuadratico medio de ambos estimadores cuando la
distribuci6n de censura es exponencial.
Hemos obtenido tambien la distribucion asintotica de los
Page 4
estimadores para el caso m3s general de que la distribucion de
censura sea de Weibull. Dos tipos de intervalos de confianza para
muestras grandes se han propuesto para cada estimador.
Los resultados se han comparado con los del estimador de
maxima verosimilitud, y con los de dos estimadores no
parametricos: limite producto y Bayesiano, resultando un
comportamiento superior por parte de uno de nuestros estimadores.
Finalmente nemos comprobado mediante simulacion que nuestros
estimadores son robustos frente a la supuesta distribuci6n de
censura, y que uno de los intervalos de confianza propuestos es
valido con muestras pequenas. Este estudio ha servido tambien
para confirmar el mejor comportamiento de uno de nuestros
estimadores.
Page 5
SETTING OUT AND SUMMARY OF THE THESIS
When we study the lifetime of components it's necessary to
take into account the elements that don't fail during the
experiment, or those that fail by reasons which are desirable to
exclude from consideration.
The model of random censorship is very usefull for analysing
these data. In this model the time to failure and the time censor
are random variables.
We obtain two Bayes estimators of the reliability function
of an exponential distribution based on randomly censored data.
We have calculated the asymptotic expansion of the mean,
variance and mean square error of both estimators, when the
censor's distribution is exponential.
We have obtained also the asymptotic distribution of the
estimators for the more general case of censor's Weibull
distribution. Two large-sample confidence bands have been
proposed for each estimator.
The results have been compared with those of the maximum
likelihood estimator, and with those of two non parametric
estimators: Product-limit and Bayesian. One of our estimators has
the best behaviour.
Finally we have shown by simulation, that our estimators are
robust against the assumed censor's distribution, and that one of
our intervals does well in small sample situation.
Page 6
Agradezco a la Facultad de Informdtica, en especial en
la persona de su Decano D. Luis Mat6, y al Departamento de
Estadistica, Investigaci6n Operativa e Inteligencia Artificial
haberme brindado la posibilidad de realizar esta tesis.
Quiero expresar mi agradecimiento al Dr. Jan Hurt, profesor
del Departamento de Estadistica en la Facultad de Fisica y
Matematicas de la Universidad Carolina de Praga por su eficaz
labor de orientaci6n y ayuda tanto a travel de la extensa
correspondencia entre Madrid y Praga mantenida estos anos como
del contacto directo en ambas capitales.
Agradezco igualmente al Dr. D. Antonio Insua Negrao su apoyo
para establecer el contacto con la Universidad de Praga, y sus
sabios consejos a lo largo de la realizacidn del trabajo.
Agradezco tambien a la Directora de la E.U. de Informatica
Da. Araceli Lorenzo las facilidades dadas para la utilizaci6n de
los ordenadores personales IBM-AT de su centro de calculo.
Finalmente quiero agradecer a mis companeros del Departamento
de Matematica Aplicada el aliento y apoyo que me nan prestado
durante este periodo.
Page 7
INDICE
Pag.
1.- Introducci6n
1.1. Definici6n de fiabilidad. Campos de aplicacion . . .1
1.2. Perspectiva historica 3
1.3. Medidas de fiabilidad 5
1.4. Tipos de censura 8
2.- Estimadores de la fiabilidad
2.1. Estimadores no parametricos 14
2.2. Estimadores de maxima verosimilitud 23
2.2.1. Tiempo de vida exponencial 26
2.2.2. Tiempo de vida Weibull 33
3.- Estimadores Bayesianos de la fiabilidad
3.1. Interes de los metodos Bayesianos para el estudio
de la fiabilidad 37
3.2. Estimacion Bayesiana 39
3.3. Estimacion Bayesiana de la fiabilidad con tiempo
de vida exponencial 46
3.4. Transformacion de los estimadores Bayesianos . . .50
3.5. Expansion asintotica de la esperanza, varianza
error cuadratico medio del estimador R4 59
3.6. Expansion asintotica de la esperanza, varianza
error cuadratico medio del estimador Rs 68
3.7. Distribucion asintotica de los estimadores R4 y R5 72
3.8. Intervalos de confianza 77
3.9. Comparacion con otros estimadores de la fiabilidad 78
Page 8
4.- Simulacion
4.1. Robustez de los estimadores frente a la
distribucion de censura supuesta 92
4.2. Intervalos de confianza con muestras pequenas . .106
5.- Conclusiones y perspectivas de futuro 113
Bibliografia 117
Apendice 1 : Obtencion de la f6rmula 3.4.1 122
Apendice 2 : Programas y ejecuciones 126
Programa DEFICIENCIA 127
Programa COMPARA 136
Programa ECUACION . , 146
Programa SIMULA 148
Programa COBERTURA 152
Page 9
1.-INTRODUCTION
I.l.-Definici6n de Fiabilidad. Campos de aplicaci6n.
El an&lisis estadistico de la fiabilidad se ha convertido en
una materia de considerable interes para personas que trabajan en
distintas areas, especialmente en ingenieria, medicina, ciencias
biol6gicas, y por supuesto en estadistica. Las aplicaciones
comprenden desde la investigacion en la duracion de productos
manufacturados hasta el estudio de enfermedades humanas. Con el
diseno y producci6n de equipos cada vez mas complejos, este
interns se ha acrecentado ya que todos los componentes y
subsistemas que forman parte del equipo deben realizar
adecuadamente su funcion para que el sistema cumpla su objetivo.
Utilizaremos el termino fiabilidad para indicar la
probabilidad de que una parte de un equipo (componente,
subsistema o sistema) realice adecuadamente su funcion durante un
periodo dado de tiempo bajo condiciones especificadas. Por
ejemplo si la variable X indica el tiempo hasta que falle (tiempo
de vida) una bombilla dada de 60 W, entonces la funcion de
fiabilidad, R(x), de la bombilla en funcion del tiempo de
funcionamiento x, sera:
R(x) = Pr (X > x)
El estudio estadistico de la fiabilidad comprende una serie
de metodos y tecnicas para analizar variables aleatorias que
toman valores positivos. En nuestro caso el valor de la variable
aleatoria representa el tiempo de vida de un componente o
sistema. En otra area importante de aplicacion de estas tecnicas,
1
Page 10
el valor de la variable aleatoria es el tiempo de vida de una
unidad biologica (paciente, animal, celula, etc.)- En este campo
se utiliza el termino supervivencia, en vez de fiabilidad, para
indicar la probabilidad de que la unidad biologica sobreviva a un
tiempo x dado.
Dentro del area de la informatica los estudios de fiabilidad
se han referido tradicionalmente a los componentes hardware. En
la ultima decada se ha comenzado a medir y predecir la fiabilidad
del software. No hay duda de que en el futuro aumentaran
substancialmente estos estudios entre otras razones porque cada
vez se disenan sistemas mas complicados para ser controlados
mediante software. La necesidad del estudio de la fiabilidad de
componentes hardware esta muy clara, pero quizas no parezca muy
intuitivo que un software que funcione bien pueda fallar al cabo
del tiempo, pues las sentencias de los programas no se deterioran
con su uso. Sin embargo, un error logico en alguna instruccion se
detecta solamente como resultado de una combinacion particular de
datos de entrada. Por ello, mientras mas tiempo este el programa
funcionando, es mas probable que encuentre un conjunto de datos
de entrada para los cuales falle por un error logico, por lo que
la fiabilidad tambien sera una funcion decreciente del tiempo.
Actualmente se considera que la principal cualidad que debe
tener un sistema informatico es la fiabilidad, incluso mas que la
eficiencia. Daremos dos razones para ello: En primer lugar, a
medida que los equipos se van haciendo mas rapidos y mas baratos,
hay menos necesidad de maximizar su uso. Resulta mas rentable
duplicar algunos componentes para aumentar la fiabilidad del
2
Page 11
sistema, aunque disminuya su eficiencia. Por otra parte, hay
muchas aplicaciones como el sistema de control de un avion por
ejemplo, en las que el coste de fallar el sistema es mucho mayor
que el coste del sistema en si mismo, por lo que la fiabilidad es
esencial.
1.2 Perspectiva hist6rica
Aunque los origenes del analisis de supervivencia se pueden
atribuir a los primeros trabajos sobre tablas de mortalidad hace
varios siglos, el origen de los estudios de fiabilidad es
relativamente reciente. Antes de 1940, los trabajos concernientes
a control de calidad y a fiabilidad no se identificaban como un
campo especifico. La Segunda Guerra Mundial estimulo el interes
en la fiabilidad de los equipos militares, y este interes se
extendio tambien en la posguerra a los productos industriales.
A principios de los cincuenta varios grupos de ingenieros
iniciaron estudios formales sobre problemas de fiabilidad, que
tuvieron influencia durante mucho tiempo sobre el tratamiento
estadistico de estos temas. Quizas el mas conocido de estos
grupos sea el AGREE, formado por el departamento de defensa de
EE UU en 1952, que desarrollo especificaciones estandars para la
fiabilidad de componentes electrdnicos ampliamente utilizadas
durante muchos anos. El uso de la distribucion exponencial fue
mayoritario en los primeros trabajos. Davis (1952) escribio un
influyente articulo sobre el uso de la distribucion exponencial
como distribucion del tiempo de vida, y Epstein y Sobel
(1953,1954) desarrollaron metodos estadisticos para datos sin
3
Page 12
censura. Estos trabajos fueron adoptados por los ingenieros de
fiabilidad: El informe AGREE de 1957, en el que presentaron el
conocido test estandar de fiabilidad MIL-STD-781 consideraba todo
en terminos de la distribuci6n exponencial.
A partir de los sesenta se nan desarrollado numerosos
procedimientos de estimaci6n y contraste de hipotesis para varias
familias de distribuciones parametricas, tanto para datos sin
censura como para datos censurados. Se han realizado numerosos
estudios sobre las distribuciones exponencial, Weibull, gamma y
lognormal. A partir de los setenta quizas haya sido la
distribucion de Weibull la mas utilizada como distribucion del
tiempo de vida.
La mayor parte de la investigacion estadistica en
aplicaciones a la ingenieria se ha concentrado en los modelos
parametricos. Estos ofrecen varias ventajas entre las que se
incluyen un analisis sencillo de datos censurados y la
posibilidad de hacer extrapolaciones en el tiempo. Aunque se han
desarrollado diversas tecnicas para asegurar la bondad del ajuste
a una distribucion determinada, muchas veces se han utilizado en
las aplicaciones practicas procedimientos estandar para un
modelo determinado, fundamentalmente el exponencial, sin que los
datos fueran adecuados para ello.
Por otra parte la investigaci6n medica en analisis de
supervivencia se ha centrado fundamentalmente en los metodos no
parametricos. A partir del aho 1958 en que Kaplan y Meier
desarrollaron el estimador limite-producto de la funcion de
supervivencia para datos censurados, se han hecho grandes avances
4
Page 13
para extender los procedimientos no parametricos a los datos
censurados. En particular Breslow y Crowley (1974) han examinado
el comportamiento asintotico de este estimador.
1.3 Medidas de Fiabilidad
Como los diferentes objetos que queremos estudiar pueden
tener diferentes usos y objetivos, necesitamos diferentes medidas
de fiabilidad para aplicar la mas util en cada caso. Por ejemplo
la medida de fiabilidad que se toma habitualmente para el reactor
de una central nuclear es la tasa de fallo, pues el fallo de un
reactor es lo que interesa fundamentalmente. Sin embargo para un
motor de un lanzador de cohetes espaciales, lo importante es que
no falle durante todo el lanzamiento y por ello la probabilidad
de que sobreviva a la mision, la fiabilidad, es la medida que nos
interesa. En un tercer ejemplo un fabricante de automoviles desea
encontrar un periodo de garantia durante el cual espere reparar
un 5% de los vehiculos vendidos. En este caso la vida fiable sera
la medida m£s adecuada. Veamos a continuacion la definicion de
estos conceptos, y la relacion entre los mismos.
Sea X una variable aleatoria que indica el tiempo de vida de
un objeto bajo unas condiciones de funcionamiento dadas, y sea
f(x) su funcion de densidad. Como hemos indicado antes, la funcion
de fiabilidad, R(x), se define del siguiente modo
R(x) = Pr (X > x) f(t) dt = 1 - F(x) x
El tiempo medio de vida es el tiempo durante el que se
5
Page 14
espera que el objeto funcione adecuadamente. Es por tanto
E(X) = x f(x) dx o
Si lim x R(x) = 0 , entonces se puede demostrar facilmente, X oo
integrando por partes que
E(X) = R(x) dx o
La tasa de fallo o funcion de fallo se define como
h(x) = f(x)
R(x) (1.1)
En Epidemiologia a h(x) se le llamo historicamente la fuerza de la
mortalidad. La definicion de tasa de fallo se puede dar tambien
de la siguiente forma:
h(x) = lim AX-»0
Pr(x < X < x+Ax | X > x)
A X
que es la probabilidad de que el objeto falle en el intervalo (x,
x + Ax) sabiendo que funcionaba en el tiempo x. La equivalencia
de las dos definiciones es inmediata. Para ver la relacion entre
la tasa de fallo y la funcion de fiabilidad, integramos en ambos
miembros de (1.1):
x h(u) du =
x f(u)/R(u) du = - In R(u) o
x = - In R(x)
6
Page 15
Por tanto
R(x) = exp(-x h(u) du) o
Asi pues f(x), R(x) y h(x) estan relacionadas entre si, y
conociendo una de ellas podemos calcular las otras dos.
El proceso de fallo suele ser bastante complejo, y es
dificil elegir una distribucion estadistica para el tiempo de
vida de un objeto. Si intentamos utilizar los tiempos de fallo
observados para distinguir entre varias distribuciones
asimetricas nos encontramos con el problema de que debido al
pequeno tamano de las muestras, las observaciones son dispersas
principalmente en las colas de la distribucion. Estas
dificultades se pueden superar mediante el concepto de tasa de
fallo que permite distinguir entre varias distribuciones sobre la
base de consideraciones fisicas.
La tasa de fallo puede variar a lo largo de la vida de un
objeto. La tipica tasa de fallo tiene generalmente la forma de
curva de banera. Se distinguen tres regiones: La primera se
caracteriza por una tasa de fallo decreciente y representa los
fallos iniciales debidos a los defectos de fabricaci6n o de los
materiales. La segunda tiene una tasa de fallo casi constante y
representa los fallos al azar causados por algun shock repentino
o por condiciones de funcionamiento inusualmente severas. La
tercera region se caracteriza por una tasa de fallo creciente y
que resulta del deterioro del componente debido al desgaste
sufrido con el tiempo. Como senalamos anteriormente suele ser mas
7
Page 16
conveniente seleccionar una distribucion basandose en la forma de
la tasa de fallo, que en la forma de la funcion de densidad.
Como ultima medida de la fiabilidad de un objeto,
definiremos la vida fiable como el tiempo XR en el que la
fiabilidad sera R. Intuitivamente la vida fiable es el tiempo
para el que el 100R% de la poblacion sobrevive. Xr se calcula
como el percentil 100(1-R) de la distribucion del tiempo de
vida.
Observar que todos los conceptos anteriores se pueden
generalizar para el caso en que X no sea una distribucion
continua.
1.4.-Tipos de censura
Todo lo que hemos dicho hasta ahora se podria estudiar con
los metodos estadisticos conocidos. Lo que distingue
fundamentalmente el analisis de la fiabilidad de otros campos de
la estadistica es la censura. En la estadistica clasica cuando
tomamos una muestra, podemos observar el resultado completo de la
misma. Sin embargo cuando tomamos una muestra para observar el
tiempo de vida de unos componentes o de unas personas, puede
transcurrir demasiado tiempo hasta que fallen o mueran todos los
elementos de la misma, por lo que los elementos que no hayan
fallado se dice que son censurados. Por otra parte podemos estar
interesados en estudiar unas causas de fallo determinadas. Si el
objeto falla por causas distintas a las que nos interesan, es
tambien otro elemento censurado. Podemos distinguir los
siguientes tipos de censura:
8
Page 17
Censura tipo I
Fijamos un valor T > 0, que es el tiempo que dure el
experimento. Tomamos una muestra de tamano n: Xi , ... , Xn que
son v.a. independientes e identicamente distribuidas (iid), cada
una de ellas con funci6n de distribucion F. Estas variables
representan el tiempo de vida de los elementos de la muestra.
Solo podremos observar los valores Xi < T. Llamemos X{1> , ... ,
X(n) a la muestra ordenada. Los resultados del experimento son
los primeros r valores de Xi, ... , Xn y la informacion de que
los n-r restantes objetos tienen una duracion mayor que T. En
este tipo de censura la duracion del experimento es fija (T) pero
el numero de objetos que fallan (r) es una v.a. con distribucion
Binomial de parametros n y p = P r ( X i < T), i = l , ... , n.
Censura tipo II
Ahora fijamos r < n, el numero de objetos que fallan. Sea
X(i), ... , X(n) el estadistico ordenado de Xi, ... ,Xn. El
experimento termina despues de fallar el r-simo objeto, de forma
que podemos observar X( 1) , ... ,X(r) . En este caso el numero de
objetos que fallan es fijo, mientras que la duracion del
experimento (X<r)) es una v.a..
Muestreo Censurado
Junto a las variables Xi , ... , Xn que representan el tiempo
9
Page 18
de vida consideramos Ti , ... , Tn que son v.a. i.i.d. cada una de
ellas con funci6n de distribucion G. Ti es el tiempo de censura
asociado a Xi y representa el tiempo de fallo del objeto por
causas distintas a la que nos interesa estudiar. En este modelo
solo podemos observar los pares:
(Wl,Il), ... , (Wn,In)
donde
Wj = min(Xj ,Tj )
Ij = I(Xj < Tj ) = 1 si Xj < Tj , esto es si
Xj esta sin censurar
= 0 si Xj > Tj , es decir si
Xj esta censurada
En este modelo hacemos la importante suposicion de que Xj y
Tj son independientes, pues de otro modo se podrian obtener pocos
resultados. Esta hipotesis esta justificada en la mayoria de las
aplicaciones ya que se eligen al azar los elementos que entran en
el estudio, y las perdidas por censura tambi<§n se producen al
azar.
El muestreo censurado se puede considerar un caso particular
del modelo de riesgo multiple con dos causas de muerte que son el
fallo y la censura. En el modelo general un elemento puede fallar
por p causas distintas, y solo podemos observar el tiempo hasta
que se produce el primer fallo. Los tiempos de fallo para las
demas causas estan censurados por el fallo del sistema con la
primera causa.
Observar que la censura tipo I es un caso particular del
10
Page 19
muestreo censurado en el que la distribuci6n de censura es
degenerada en el punto T.
El muestreo censurado creemos que es el que modeliza mejor
la realidad tanto en analisis de supervivencia como en
fiabilidad. En aplicaciones medicas la censura puede ocurrir por
alguna de las causas siguientes: a) El paciente decide dejar la
terapia o marcharse a otro lugar. No volvemos a saber mas de el.
b) El paciente muere por otra causa independiente. Por ejemplo
podemos estar estudiando una terapia contra el cancer, y el
paciente muere de infarto de corazon. c) La terapia puede tener
efectos contraproducentes y es necesario terminar el tratamiento.
d) Termina> el estudio. En fiabilidad ademas de la ultima causa,
la principal es que el objeto falle por un motivo distinto al que
estemos estudiando.
Un caso particular importante de muestreo censurado es el
modelo de tasa de fallo proporcional. Este modelo lo supondremos
en alguno de nuestros resultados, y ha sido utilizado por
numerosos autores. Decimos que el par (X,T) sigue el modelo de
tasa de fallo proporcional si existe un numero real positivo 13
tal que
13 1 - G(t) = [1 - F(t)] para t 6 [0,*)
Observar que si esta relacion es cierta, entonces las tasas de
fallo de las distribuciones de fallo y censura son
proporcionales. La constante 13 se puede interpretar como el
parametro de censura: 13 = 0 corresponde a muestreo sin censura, y
la proporcion esperada de observaciones censuradas aumenta al
hacerlo (3. Una caracterizacion de este modelo viene dada por el
11
Page 20
siguiente teorema demostrado por Allen (1963):
"El par (X,T), 0 < Pr(X < T) < 1 sigue el modelo de tasa de
fallo proporcional si y solo si las variables aleatorias W =
min (X,T) y I = I(X < T) son independientes".
Por tanto con este modelo, Wj y Ij son independientes, j =
1, ... , n. Como los pares aleatorios (Xj,Tj), j = 1, ... ,n son
i.i.d. concluimos que las variables aleatorias Ii , ... , In,
Wi, ... , Wn son independientes.
Una forma de comprobar graficamente si la utilizacion de
este modelo es adecuada consiste en dibujar en ordenadas
H(x)/S(x) y en abcisas x; el resultado debe ser aproximadamente
una linea recta. Se define H(x) = Pr(W > x, I = 1) y S(x) =
Pr(W > x, 1 = 0 ) .
Otros tipos de censura
Los tipos de censura que nemos considerado hasta ahora, y
que son los de mayor interes, son del tipo de censura a la
derecha. Se puede considerar tambien censura a la izquierda. Por
ejemplo en el muestreo censurado a la izquierda el resultado del
experimento son los pares de valores:
(Wl,Il), ... , (Wn,In)
donde
Wj = max (Xj ,Tj )
Ij = I(Xj > Tj )
Ambos tipos de censura, a la izquierda y a la derecha, se
12
Page 21
pueden considerar casos particulares del intervalo de censura
(llamada tambien doble censura), en el que la v.a. de interes cae
en un intervalo. Si Xi esta censurado a la derecha, observamos
que Xi cae en el intervalo [Ti,<»).
13
Page 22
2.- ESTIMADORES DE LA FIABILIDAD
En este capitulo estudiaremos los principales estimadores de
la fiabilidad utilizados hasta ahora, asi como sus propiedades
mas interesantes. Una vez que veamos las propiedades de los
estimadores Bayesianos, realizaremos un estudio comparativo.
2.1 Estimadores no param^tricos
Estimador limite producto
Este estimador fue propuesto en 1958 por Kaplan y Meier y
desde entonces ha habido una abundante literatura sobre el mismo
en las revistas especializadas. En realidad se trata de una
generalizacion para el muestreo censurado de la funcion de
fiabilidad empirica en muestras completas.
Sea W(i) < ... < W(n) el estadistico ordenado de Wi , .. ., Wn
y abusando de la notacion, llamamos I(i) al valor de I asociado a
W(i) , es decir, I( i) = Ij si W(i) = Wj . Logicamente I<i> , ... ,
I(n) no estan ordenados.
Definimos:
m = numero de elementos que no han fallado en el intervalo
[0,W(i)]
di = numero de fallos en W(ij = 1 si I(i) = 1
= 0 si I( i) = 0
Pi = Pr (sobrevivir a W( ±) | ha sobrevivido a W( »-i> ) =
Pr (X > W(i) | X > W(i-i))
Pi se puede estimar de la siguiente forma:
14
Page 23
Pi = 1 - d i / n i = 1 - 1/ni s i I (± ) = 1 ( s i n c e n s u r a r )
= 1 s i I ( i > = 0 ( c e n s u r a d o )
Ten iendo en c u e n t a que
Pr (X > W(k)) = Pk • Pr (X > W ( k - i ) ) = Pk • Pk - I • k
P r (X > W ( k - 2 ) ) = . . . = re Pi i s 1
el estimador limite producto de la fiabilidad es:
R(X) = % Pi Si X < W(n) i:Wi <x
= 0 Si X > W(n)
Como
Pi = 1- 1/ni = 1 - l/(n-i+l) = (n-i)/(n-i+l) si I(i) = 1
el estimador lo podemos escribir asi:
n-i Ia)
R(X) = K ( ) Si X < W(n)
i:W(i)<x n-i+1
= 0 si x > W(n)
Algunas propiedades basicas de este estimador fueron
estudiadas por Breslow y Crowley en 1974. Mencionaremos solamente
los resultados mas importantes:
Si F y G son continuas en [0,T] y F(T) < 1 , entonces
Zn (t) = /n (R (t) - R (t) )
converge debilmente a un proceso Gaussiano, Z(t), con momentos
E (Z(t)) = 0
15
Page 24
cov (Z(s),2(t)) = R(s)-R(t) s -2 [R(x) (l-G(x))] dPr(X<x,I=l)
0
s<t
Burke, Csorgo y Horvath (1981), dieron una demostracion
correcta de esta convergencia, ya que aunque el resultado de
Breslow y Crrowley era correcto, la demostracion tenia algun
fallo. Ademas observaron que se necesitaban muestras muy grandes
para que la aproximacion fuese buena.
Como caso particular del teorema anterior, tenemos que
2 Vrn (R (t) - R (t) ) —*- N ( 0 , R (t)
t -2 [R(x) (l-G(x))] dPr(X<x,I=l))
0
La varianza asint6tica de R(t) se puede aproximar por
"2 I(i) A Var ( R ( t ) ) = R ( t ) £
W(i)<t (n-i)(n-i+l)
que se conoce con el nombre de formula de Greenwood.
Peterson (1977) obtuvo algunos resultados importantes
sobre la consistencia de este estimador. En concreto demostro que
es consistente de orden 0(n_1) desde el punto de vista del error
cuadratico medio, y que es fuertemente consistente de orden
o(n-1/2/log n).
Propiedades asintoticas de este estimador han sido
estudiadas por muchos autores. Sin embargo resultados para
muestras pequenas no se demostraron hasta 1982 en que Chen,
Hollander y Langberg obtuvieron una expresion exacta para el
momento de orden a (a > 0) con la suposici6n de que la censura
16
Page 25
sigue el modelo de tasa de fallo proporcional:
Sea Kn(x) la funcion de distribucion empirica de los W's,
1 n Kn(x) = - S I(Wq < x); sea (l-K(x) = (l-F(x)) (l-G(x)) y
n q=l
sea Ii = Pr (Xi < Ti), entonces:
E [{R} ]
n-1 n q n-q q n-i a S ( ) {K(x)} {l-K(x)} 7c {Ii ( ) + (l-Ii)} q=0 q i=l n-i+1
En consecuencia:
n - 1 n q n - q q 1 E {R(x)} = S ( ) {K(x)} { l - K ( x ) } 7C { l - I i ( )}
q=0 q i = l n - i + 1
y
n - 1 n q n - q q 1 2 Var{R(x)} = E ( ) {K(x)} { l - K ( x ) } % { l - I i ( ) ( 2 n - 2 i + l }
q=l q i = l n - i + 1
n - 1 n q n - q q 1 2 - [ £ ( ) (K(x )} { l - K ( x ) } % { l - I i ( )} ]
q=0 q i = l n - i + 1
Aplicando estas formulas obtuvieron la Esperanza y Varianza del
estimador limite producto en un modelo con tiempo de vida
exponencial de parametro 1, y distribucion de censura tambien
exponencial de parametro 8, para diversos valores de 6 y diversos
tamanos muestrales. Posteriormente compararemos estos resultados
con los obtenidos por nuestros estimadores Bayesianos.
Finalmente indicaremos que un incoveniente del estimador de
Kaplan-Meier es que falla en la cola derecha de la distribucion,
en concreto para estimar la fiabilidad en puntos del tiempo x >Wn
17
Page 26
Estimador Bayesiano
Susarla y Van Ryzin obtuvieron en 1976 un estimador
Bayesiano no parametrico de la funcion de fiabilidad con muestreo
censurado. Este estimador tiene una forma similar al estimador
limite-producto. Para verlo vamos a escribir este ultimo de la
siguiente forma:
n-i x(i)
R(x) = n ( ) i:W(i)<x n-i+1
n-i+1 -I(i> 1 n n-1 N(x)+1 n ( ) - { ... } N(x)
W(i)<x n-i n n-1 n-2 N(x)
N(x) n-i+1 1_1(i) = n ( )
n W(i)<x n-i
donde N(x) = Numero de elementos Wi > x.
El estimador Bayesiano para muestreo censurado obtenido por
Susarla y Van Ryzin (1976) utiliza la nocidn de proceso Dirichlet
a priori, introducida por Ferguson (1973), que tiene la propiedad
de que la distribucion a posteriori es tambien un proceso
Dirichlet.
Supongamos que F = 1-R es un proceso Dirichlet con parametro
a sobre el a-Algebra de Borel en (0,oo), siendo a una medida
finita no negativa en (0,°o). Entonces el estimador Bayesiano de R
con funcion de perdida
L(R,R) = 00 ~ 2
[R(u) - R(u)] dg(u) 0
18
Page 27
siendo g una funci6n peso, no negativa y no decreciente, es:
a(x,<°)+N(x) r a[W(i) ,w) + (n-i + l) -I1-1 (i)
Ra (x) = % a(0,oo)+n W( i ) <x •- a[W( i ) ,« ) + (n-i)
Se puede demostrar que
a(A) Pr(X € A) =
a(0,oo)
Esta ecuacion da una interpretacion del parametro a. El cociente
a(A)/a(0,») es nuestra creencia a priori sobre la probabilidad
del conjunto A. Por ejemplo si pensamos que X sigue una
distribucion exponencial de media 9, entonces
a(t,») -9t = e
a(0,»)
Observar que el estimador limite-producto se puede
considerar un caso particular de este estimador Bayesiano; el
caso en el que el peso dado a la curva de supervivencia a priori
es nulo.
Susarla y Van Ryzin (1978) demostraron que el estimador
obtenido por ellos es consistente de orden 0(n-1) desde el punto
de vista del error cuadratico medio, y que es fuertemente
consistente de orden o(n~*/2/log n). Demostraron tambien el
siguiente teorema sobre convergencia asintotica:
Sea T < co y F y G continuas en [0,T], entonces
Zn (t) = /n [ Ra (t) - R ( t ) ]
19
Page 28
converge debilmente a un proceso Gaussiano, Z(t), con momentos
E(Z(t)) = 0
cov (Z(s),Z(t)) = R(s)-R(t) s -2 [R(x) (l-G(x))] dPr(X<x,I=l)
0 s<t
Hemos visto que desde el punto de vista asintotico el estimador
limite-producto y el estimador Bayesiano son equivalentes. Ray,
Susarla y Van Ryzin (1980) estudiaron, mediante simulacion, el
comportamiento con muestras pequenas de ambos estimadores y el de
maxima verosimilitud que veremos despues. Suponiendo tiempo
exponencial y siendo cierta esta hipotesis comprobaron que el
error cuadratico medio del estimador Bayesiano era menor que el
del limite-producto pero mayor que el de maxima verosimilitud.
Con la misma hipotesis exponencial, pero siendo la verdadera
distribucion una Gamma, el estimador Bayesiano era el de menor
error cuadratico de los tres. Ademas las diferencias entre Ra y R
aumentaban a medida que se incrementaba la proporci6n de
elementos censurados, y esto lo explicaban por el hecho de que el
primero hace mas uso de los datos censurados que el segundo.
Dong Ho Park (1987) obtuvo la expresion exacta del momento
de orden a (a > 0) del estimador Bayesiano suponiendo que la
censura sigue el modelo de tasa de fallo proporcional. Utilizando
la misma notaci6n que para los momentos del estimador limite-
producto, tenemos:
E [{Ra } ] =
n-1 n q n-q q n-i a E ( ) {K(x)} U-K(x)} 7t { Ii ( ) + q=0 q i=l n-i + 1
20
Page 29
(1 - la) n-i n-i+2
L n-i+1 n-i+1 ->
a }
En consecuencia:
n-1 n q n-q q -2 E{R(x)} = £ ( ) {K(x)> (l-K(x)} % {l-[l+Ii(n-i)](n-i+l) }
q=0 q i = l
2 n-1 n q n-q q -1 E{R(x) } = 2 ( ) {K(x)} {l-K(x)} % {1-21! (n-i+1) +
q=0 q i=l
-2 -4
(3Ii-2) (n-i+1) + (l-Ii) (n-i+1) }
Estas formulas las aplic6 a un modelo con tiempo de vida
exponencial de parametro 1, y censura tambi^n exponencial de
parametro 13. Obtuvo la esperanza, varianza y error cuadratico
medio para diversos valores de 6, x y n. Comparando estos
resultados con los obtenidos por Chen, Hollander y Langberg para
el estimador limite-producto, confirmo las conclusiones obtenidas
mediante simulacion por Rai, Susarla y Van Ryzin en el sentido de
que el error cuadratico medio del estimador Bayesiano es
significativamente menor, especialmente cuando x crece. El sesgo
es mayor, aunque se acercan cuando x crece. Este estimador tiene
por tanto mejor comportamiento en la cola de la distribucion.
Estimador de Ebrahimi
Citaremos tambien un estimador no parametrico de la funcion
de fiabilidad propuesto por Ebrahimi (1985) para el caso de que
la censura est6 relacionada con la distribuci6n del tiempo de
Page 30
vida segun el modelo de tasa de fallo proporcional:
1 - G(x) = [R(x)3B, para todo x
l-Pr(I=l) _ 1 Teniendo en cuenta que 13 = —: , y que I = - E Ii es un
Pr(I=l) n
estimador de Pr(I=l), utiliza como estimador de (3; (1-I)/I .
Por otra parte demuestra que
1 (3 + 1 1 log R(x) = log + Pr (W>x,I=0)
13+1 13 (3 + 1
Esta ecuaci6n le lleva a dar el siguiente estimador de R
R(x) = T exp {T log (1/T) + T log H(x) } +
(1-T) exp {T log (1/1-T) + T log S(x) } 1 1
siendo H(x) = - E I(Wi>x,Ii=l) y S(x) = - E I(Wi>x,Ii=0) n i n i
En el caso de que no haya censura este estimador coincide con la
funcion de distribucion empirica.
En el mismo articulo demuestra que este estimador es
fuertemente consistente, y que converge d§bilmente a un proceso
Gaussiano de media cero y con una determinada covarianza.
Justifica la introduccion de este estimador porque con tasa
de fallo proporcional cualquier estimador de R deberia dar un
salto en los tiempos de fallo observados y en los tiempos de
censura observados. El estimador limite-producto no tiene esta
propiedad, pero 6ste si.
22
Page 31
2.2 Estimadores de maxima verosimilitud
Vamos a deducir las funciones de verosimilitud para los tres
tipos de censura mas importantes. Comenzaremos por el caso mas
sencillo.
Censura tipo II
Supongamos que X = (X(x>, ... , X<r)) son los tiempos de
vida observados, ordenados de menor a mayor, (r fijo). Sea 0 <
x< i) < ... < X(r > , y x =(X(i) , ... , X(r) ). Sea 8 > 0 tal que
X( i) + 8 < X(i + i), i = 1, ... ,r-l (definimos x<o> = 0). Sea A el
vector r-dimensional con todos sus componentes iguales a 8. Sea E
el suceso aleatorio
{ x < X < x + A }
el suceso E ocurre si no hay ninguna observaci6n menor que x<i> ,
exactamente una observaci6n en el intervalo [X( i) , X(i) + 8)
solo una en el intervalo [x(2), x< z > + 8 ) , ... , y fina'lmente
(n-r) observaciones son mayores o iguales que X{ r) + 6 . Por tanto
n! r n-r p(E) = % [F(x(i) + 8) - F(x(i))] R (X(r) + 8)
(n-r)! i=l
La funcion de densidad conjunta de X es simplemente el limite:
f (X(i>, ... , X ( D ) = lim 8~rPr(E) =
8->0 n! r n-r
% f(X(i)) R (X(r)) (n-r)! i=l
0 < X ( l ) < . . . < X ( r ) < »
23
Page 32
Censura tipo I
En este caso el resultado del experimento son los primeros r
tiempos de vida ordenados x< 1) , ... , x< r) , y la informaci6n de
que X(r+i)) > T, ... , X(n> > T. Mantenemos la misma notaci6n que
en el tipo anterior de censura. Supongamos que x< r ) + 8 < T. De
forma similar tenemos:
Pr ( X < X < X + A , X(r+1) > T, ... ,X(n) > T •) =
Pr ( no haya ninguna observacion menor que x< 1) , haya
exactamente una en [x<i), X(1)+5), ... , solo una en
[X(r),x<r)+5) y (n-r) observaciones mayores que T ) =
ni r n-r % [ F(x ( i )+S) - F(x ( i )) ] R (T)
(n-r)! i=l
Por tanto la funcion de densidad conjunta del resultado del
experimento es
n! r n-r
f (X(l), ... , X(r)) = K f(X(i)) R (T) (n-r)! i=l
0 < X ( 1 ) < . . . < X ( r ) < T
Muestreo censurado
Suponemos que X y T son v.a. independientes con funciones de
distribucion F(x;8i) y G(t;62) respectivamente, ambas
absolutamente continuas. Queremos obtener la funcion de densidad
del par
(W,I) = ( min (X,T) , I (X<T) )
24
Page 33
Pr (W < w, I = 1) = Pr(X < w, X < T) =
dF(x) dG(t) = w [1 - G(x)] dF(x) = F(w) -
w f(x) G(x) dx
x<w x<t
Ancilogamente
Pr (W < w, I = 0) = G(w) w F(x) g(x) dx 0
Derivando
dPr(W<w,I=l)
dPr(W<w,I=0)
aw
= f(w) [1 - G(w)]
g(w)[l - F(w)3
Por tanto
h(w,i) = {f(w) [1-G(w)]}i {g(w) [l-FCw)]}!-1 , w>0, i = 0,l
es la funci6n de densidad del par (W,I).
La funcidn de verosimilitud de la muestra es
n L = L (Wi , ... , Wn; II, ... , In ) = % h (Wj , Ij )
j = l
Esta funcion se puede escribir tambien de la siguiente forma
L = % f(Xj) * (l-F(Tj)) % g(T3) % (l-G(Xj)) jeU jeC jeC jeU
donde C = {j: Ij = 0} es el conjunto de indices de las
observaciones censuradas y U = {j: Ij = 1} es el conjunto de
indices de las observaciones sin censurar.
Teniendo en cuenta que no hay dependencia funcional entre 6i
y 82 (ya que hemos supuesto que los tiempos de vida y de censura
25
Page 34
son independientes), los dos ultimos factores no contienen el
parametro desconocido 81, por lo que pueden tratarse como
constantes al maximizar L. Asi pues el estimador de maxima
verosimilitud 61 se obtiene maximizando
% f(Xj } % (l-F(T!j )) jeU jeC
Por ello el valor de 81 no depende de la distribucidn de censura,
aunque la distribucidn del estimador si depende de G.
A continuacidn vamos a obtener los estimadores de maxima
verosimilitud, asi como algunas de sus propiedades para el caso
de que el tiempo de vida siga las distribuciones mas utilizadas
en la estimaci6n de la fiabilidad: Exponencial y Weibull.
Justificaremos tambien la elecci6n de estos modelos, que ser£n
fundamentalmente los que utilizar^ con los estimadores
Bayesianos.
2.2.1. Tiempo de vida Exponencial
La distribucidn exponencial de parametro 8 tiene como
funci6n de fiabilidad R(x) = exp(-x/8) y como tasa de fallo h(x)
= 1/8. El hecho de que la tasa de fallo sea constante indica que
la probabilidad de fallo en un intervalo de tiempo de longitud
especificada es la misma, independientemente del tiempo que lleve
funcionando ese objeto. Esta propiedad se conoce con el nombre de
carencia de memoria, y la distribucidn exponencial es la unica
distribucidn continua que la posee.
26
Page 35
Se pueden dar varias justificaciones teoricas para la
elecci6n del modelo exponencial como distribucion del tiempo de
vida. Por ejemplo, supongamos que una sobrecarga de un componente
ocurre segun los postulados de un proceso de Poisson, y que el
objeto falla la primera vez que se encuentra tal sobrecarga y no
falla por otra causa. El numero de sobrecargas X(x) que ocurren
en un intervalo de tiempo de longitud x es
exp(-Xx) (Xx)n
Pr[ X(x) = n ] = n=0,l,2, ... n!
donde X es la tasa de ocurrencia de la sobrecarga. Sea T una v.a.
que indica el tiempo de vida del objeto. De este modo
R(x) = Pr (objeto tenga una duracion > x)
= Pr (no haya sobrecargas en (0,x))
= Pr (X(x) = 0) = exp(-Xx)
que es la funci6n de fiabilidad de la distribuci6n exponencial.
Otra justificacion teorica para la utilizacion de este
modelo es la siguiente: Supongamos que hay muchas causas
independientes de fallo, de forma que el tiempo de fallo
observado es el mas pequeno entre un gran numero de v.a.
independientes no negativas (cualquier mecanismo complejo tiene
muchos componentes independientes, de forma que cuando uno falla,
falla el mecanismo. Por ejemplo un automovil tiene mas de diez
mil piezas de las que alrededor de trescientas son
imprescindibles para su funcionamiento). Bajo algunas restricciones
en las v.a. de las componentes, la distribuci6n del tiempo de
fallo observado es aproximadamente exponencial. En concreto se
puede demostrar que si Xi , ... , Xn es una muestra aleatoria
27
Page 36
simple de una distribuci6n con funcion de fiabilidad R(x) y que
si
R(x) = 1 - x/6 + o(x) cuando x->0 , 9 > 0
entonces cuando n->», la funci6n de fiabilidad de
Tn = n min (Xi, ... , Xn)
converge a la funci6n de fiabilidad de una exponencial de media
6.
Una forma empirica de comprobar si la distribucidn
exponencial es adecuada para un conjunto de datos consiste en
representar en ordenadas el logaritmo del estimador de la funcion
de fiabilidad, y en abcisas el tiempo. El dibujo debe aproximarse
a una linea recta que pase por el origen.
Con muestreo censurado y tiempo de vida exponencial, la
funci6n de verosimilitud queda
L = (1/6)1 exp (- 1/8 E Xj - 1/6 E Tj ) u c
n = (l/e)1 exp (- i/e s Wj )
3 = 1
con lo que el estimador de maxima verosimilitud es
n n 9 = 2 Wj / E Ij
3=1 3=1
suponiendo que I = E Ij , el niimero de elementos no censurados
sea mayor que cero, pues en caso contrario no estara definido 9.
De forma analoga se comprueba que para la censura tipo I el
estimador es
28
Page 37
r 8 = l/r [ 2 X(j > + (n-r) T ]
j = l
y para la censura tipo II
r 6 = l/r [ E X(j) + (n-r) X<r) ]
j=l
Para la construccion de Intervalos de Confianza y Test de
Hipdtesis, necesitamos la distribucion de estos estimadores. Se
puede demostrar (ver Miller 6 Kalbfleisch) que con censura tipo
II, la distribuci6n de 2r8 / 8 sigue una distribucion X2 con 2r
grados de libertad. Comparando esta distribuci6n con el caso de
que no haya censura ( 8 = EXi/n , 2n8/8 ~ X2 2 n ), vemos que
con datos exponenciales se obtiene la misma eficiencia en la
estimacion observando r objetos hasta que fallen que observando
un numero mayor, n, hasta que fallen r.
Para muestreo censurado, o censura tipo I no es posible
obtener la distribucion de los estimadores de maxima
verosimilitud. La unica posibilidad es estudiar la distribucion
asintotica de los mismos. Con muestreo censurado Hurt (1982)
demostro que
D 1 /n (8 - 8) 3> N (0 , Var (W - 81) ) (2.1)
Pr2(X<T)
El denominador de la varianza asintotica es la proporcion
esperada de observaciones sin censurar. En el caso de censura
tipo I se tiene
Pr( X < T ) = 1 - exp (-T/8)
29
Page 38
Distribucion de censura exponencial
Si las distribuciones de fallo y censura estdn relacionadas
segun el modelo de tasa de fallo proporcional, entonces la
distribucidn de censura es exponencial. Si el parametro de la
misma es a, entonces
G(t) = 1- exp(-t/a) , t > 0
= 0 t < 0
W = min (X,T) se distribuye por tanto exponencialmente con
parametro 6 que cumple
1 1 1
6 8 a
La f6rmula (2.1) se reduce a la siguiente
D 3 /n (6-9) > N (0 , 6 /6 )
Los resultados anteriores se pueden aplicar al estimador de
maxima verosimilitud de la funcion de fiabilidad. Para cualquier
valor real fijo x > 0, dicho estimador, que llamaremos Ri es
Ri = exp (-x/6)
Sin ninguna perdida de generalidad, realizando un cambio adecuado
en la escala del tiempo nos podemos restringir al valor x = 1, de
forma que la funcion de fiabilidad sera
Ri = exp (-1/6)
si quisieramos estimar la fiabilidad en el tiempo x y la
verdadera media de la distribucion fuera 9, considerariamos un
30
Page 39
modelo con esperanza 8X = 6/x. Hurt (1982) demostro que
Vn (Ri - R) 3- N(0, R2 (8S)-i )
En 1986 estudi6 la expansi6n asint6tica de la media, la varianza
y el error cuadratico medio del estimador Ri, y obtuvo las
siguientes formulas:
1 1 1 E Ri = R [ 1 + - ( + ) +
n 8 298
1 1 1 3 1 1 1 — ( + — + + ) ] + o ( n " 3 ) n 2 6 8 2 288 8 2 S 6 8 8 2 8 8 2 8 2
1 Var Ri = R2 [ +
n88
1 1 3 5 1 3 — ( + + ) ] + 0 ( n - 3 ) n 2 8 2 88 8 2 8 8 8 2 2 8 2 S 2
1 ECM Ri = R2 [ +
n88
1 2 3 6 1 7 — ( — + + )] + 0(n-3) n2 82 88 828 882 48282
Basandose en el estimador de maxima verosimilitud, obtuvo
otros dos estimadores de la funcion de fiabilidad. El primero de
ellos, que llamaremos R2, se obtiene restando a Ri un estimador
del termino en n-1 de la f6rmula de la esperanza:
1 1 1 R2 = Ri Ri - { -3 - 1)
n W 2W
con lo que se elimina el sesgo de primer orden. Esta correcci6n
31
Page 40
es interesante para muestras pequerias.
El otro estimador, que llamaremos R3, tambi^n corrige el
sesgo del estimador de maxima verosimilitud. Miller (1981)
realiza un desarrollo en serie de Taylor para obtener el sesgo de
primer orden del estimador de maxima verosimilitud de la funci6n
de fiabilidad en muestreo sin censura, a partir del cual realiza
una correcci6n de dicho estimador. Con un m6todo analogo para
muestreo censurado, se obtiene R3:
I I -1 R3 = Ri [ 1 + — ( -_ _ i) ]
nW 2W
Antes de terminar el estudio del modelo exponencial vamos a
realizar alguna advertencia sobre su utilizaci6n. Esta
distribucion es muy adecuada para el estudio del tiempo de vida
en muchos problemas reales, y los procedimientos de inferencia
basados en ella son ampliamente utilizados. Sin embargo el mayor
inconveniente que presenta este modelo es que dichos
procedimientos son poco robustos, es decir que sus propiedades se
alteran considerablemente con pequerias desviaciones sobre el
modelo supuesto. Por tanto solo solo deber£n hacerse inferencias
basadas en el modelo exponencial cuando los datos observados se
ajusten bi6n a esta distribucion. Con el metodo gr^fico indicado
anteriormente no podemos asegurar totalmente que el ajuste sea
bueno. Adem&s de los metodos generales de contrastar la bondad de
un ajuste, existen test especificos para la distribucion
exponencial. Lawless (1982) considera tres tipos de
procedimientos. El primero supone la distribuci6n exponencial
como un caso particular de los modelos Weibull o Gamma; estos
32
Page 41
test son efectivos para detectar desviaciones de la exponencial
dentro del modelo mas general, pero pueden no ser efectivos para
otro tipo de desviaciones. El segundo tipo considera test que
tienen buena potencia frente a distribuciones alternativas con
tasa de fallo mon6tonas. Finalmente considera test de ajuste
formulados sin alternativas especificas, utilizando una versi6n
especial de los test generales.
2.2.2. Tiempo de vida Weibull
La distribucion de Weibull de parametro de escala 8 y
parametro de forma 13 tiene como funci6n de fiabilidad
R(x) = exp [ - (x/9)8 ]
La funci6n de densidad es
f(x) = (3/6 (x/G)'3"1 exp [ - (x/8)« ]
y la tasa de fallo
h(x) = 13/e {x/Q)*-1
Vemos que el modelo exponencial es un caso particular del de
Weibull con 13 = 1. Este caso corresponde a tasa de fallo
constante. Si (3 > 1, la tasa de fallo es creciente, lo cual nos
permite modelizar el tiempo de vida de los componentes en periodo
de desgaste, en los que la probabilidad instantanea de fallo
(sabiendo que no ha fallado hasta ese momentq) crece con el
tiempo. Si 13 < 1, h(x) es decreciente y podemos modelizar el
33
Page 42
periodo infantil del tiempo de vida de los componentes.
Una justificacion teorica de la utilizaci6n de este modelo,
es que la distribuci6n de Weibull se puede obtener como la
distribucion limite del menor de un gran niimero de v. a.
independientes no negativas. En concreto se puede demostrar lo
siguiente: "Sean Xi , ... , Xn v.a. i.i.d. continuas y no
negativas tales que cuando x -> 0 las funciones de densidad y de
fiabilidad son asint6ticamente xB-1/8 y 1 - xB/8i3
respectivamente, donde 8 > 0 y i 3 > 0 . SiW = min (Xi , ... , Xn ) y
T = (1/86)1/8 n1 /B W, entonces cuando n —> °°, T tiene como
distribuci6n limite la distribuci6n de Weibull de parametro de
forma 13". El teorema que dimos para justificar la distribucion
exponencial es un caso particular de este con 0 = 1 .
Tenemos que
log [-log (R(x)] = 13 (log x - log 9)
de modo que una forma empirica de comprobar si el modelo Weibull
es adecuado, consiste en representar en ordenadas log [-log R(x)]
y en abcisas log x, donde R(x) es un estimador muestral de la
funcion de fiabilidad, por ejemplo el de Kaplan-Meier. El dibujo
debe dar aproximadamente una linea recta, cuya pendiente nos dara
un estimador grosero de (3. Existen test mas potentes para
estudiar la bondad del ajuste a una distribucion de Weibull.
Lawless (1982) recoge algunos test especificos para esta
distribuci6n.
Con muestreo censurado y tiempo de vida Weibull, la funci6n
de verosimilitud queda
34
Page 43
13 l 13 -1 1 fl 13 1 R a L = ( — ) ( K Xj ) e x p [ - ( - ) 2 Xj ) e x p [ - ( - ) 2 Tj )
&B j e U 9 U 9 C
(3 i ( 3 - 1 1 B n 13 = ( — ) ( n Xj ) e x p [ - ( - ) 2 Wj )
9S j eU 9 j = l
I B 0 l o g L = I l o g 13 - I 13 l o g 9 + (13 - 1 ) 2 l o g Xj - ( - ) 2 Wj
j eU 9 j
a 113 1 B + 1 13 — l o g L = + S ( - ) 2 Wj 39 9 9 j
-j I 1 B 13 Wj — l o g L = I l o g 9 + 2 l o g Xj - ( - ) 2 Wj l o g (—•) di3 13 j eU 9 j 9
Si 13 se especifica, el estimador de maxima verosimilitud de 9 lo
obtenemos explicitamente igualando a cero la primera ecuacion
1 13 i/8 9 = ( - 2 Wj )
I j
resultado que se podia haber obtenido teniendo en cuenta que si X
tiene una distribucion de Weibull, entonces X6 sigue una
exponencial de parametro 9s. Sustituyendo en la segunda derivada
e igualando a cero queda la siguiente ecuacion
13 I 2 Wj log Wj — + 2 log Xj - I = 0 13 U 2 WjG
de la cual obtenemos el estimador de maxima verosimilitud de 13.
Esta ecuacion no contiene a 9 y se resuelve por el metodo de
35
Page 44
Newton-Raphson unidimensional. Como valor inicial de las
iteraciones se puede tonvar el valor de 6 obtenido graf icarnente, o
simplemente tomar Bo = 1, ya que se ha comprobado
experimentalmente que con este valor converge casi siempre la
ecuaci6n.
36
Page 45
3.- ESTIMADORES BAYESIANOS DE LA PIABILIDAD
3.1 Interns de los ®6todog Bayesianos para el estudio de la
fiabilidad.
Hemos estudiado en el capitulo anterior tres estimadores no
parametricos de la funcion de fiabilidad, y otros tres
estimadores parametricos. La pregunta que surge de forma natural
es si son necesarios nuevos estimadores, y si nos aportan alguna
ventaja. En este apartado pretendemos explicar el interns a
priori que tiene el estudio de estimadores Bayesianos de la
fiabilidad. Posteriormente cuando obtengamos propiedades de los
mismos veremos que son mejores en muchos aspectos que los
existentes actualmente.
Lo que distingue fundamentalmente a la inferencia Bayesiana
es que tiene en cuenta explicitamente en el analisis la
informacion que se tenga a priori. En la inferencia clasica esta
informacion se considera solamente de manera informal, si es que
se tiene en cuenta: El analisis se basa solamente en los datos
muestrales. El uso Bayesiano de la experiencia pasada, que se
cuantifica mediante la distribucion a priori, produce inferencias
mas informativas en aquellos casos donde la distribucion a priori
refleja acertadamente nuestra informaci6n sobre el parametro.
Una consecuencia de lo anterior es que los metodos
Bayesianos requieren normalmente menos datos muestrales para
conseguir la misma calidad en las inferencias que los
correspondientes metodos cl&sicos. En muchos casos esta es una
motivaci6n pratica para utilizar metodos Bayesianos especialmente
37
Page 46
en aquellas dreas de aplicacion, como la fiabilidad, donde los
datos muestrales son dificiles de obtener o son muy caros. La
insistencia creciente en la relaci6n coste-efectividad en los
prograraas de estudio de fiabilidad, hace que normalmente no halla
suficientes recursos disponibles para obtener un tamafio muestral
compatible con el grado de precision requerido para estiraar la
fiabilidad con los m^todos clasicos. De manera similar tendremos
problemas de escasez de datos cuando estudiemos equipos o
sistemas que por naturaleza deban ser muy fiables como por
ejemplo un reactor nuclear. Aqui el problema principal es el
tiempo que tiene que transcurrir hasta que se produzca un numero
suficiente de falios. Esta limitacion en el tamano de la muestra
hard que las estimaciones sean imprecisas o tengan un bajo nivel
de confianza. La aproximaci6n Bayesiana es mas adecuada para
estos casos.
Por otra parte es bien sabido que la mayoria de los avances
tecnologicos no son procesos revolucionarios, sino mas bien una
evoluci6n en la que los equipos actuales se modifican para
mejorar algunos aspectos o para adecuarlos a nuevas necesidades.
Podemos poner como ejemplo la evolucion de los ordenadores
personales de las principales marcas del mercado. En estos casos
es bastante razonable que lo que conocemos sobre la fiabilidad de
los equipos actuales sea utilizado para intentar mejorar la
calidad de las estimaciones de la fiabilidad de los nuevos
modelos. Los metodos clasicos son inadecuados para incorporar esa
informacion, mientras que los Bayesianos proporcionan una forma
satisfactoria de introducir esos conocimientos a traves de la
38
Page 47
distribucion a priori. Mediante el teorema de Bayes unimos esa
informacion con la que nos proporciona los datos de la muestra
para realizar la inferencia estadistica sobre los par&metros de
interns.
Adem£s de la informacidn proporcionada por equipos similares
o anteriores, los ingenieros siempre suelen tener un conocimiento
previo del problema y una opinion sobre el mismo. Es inconcebible
que se disene un sistema, y no se tenga una idea sobre la
fiabilidad del mismo. El hecho de que esas nociones sean
personales y de que cada ingeniero pueda no estar de acuerdo con
la cuantificacion de su conocimiento subjetivo no es una raz6n
para desacreditar los procedimientos Bayesianos. En este caso el
analisis Bayesiano muestra hasta que punto se pueden obtener
diferentes resultados segun las diferencias sostenidas en las
opiniones a priori. En el caso de que varios ingenieros tengan
creencias similares, ese acuerdo servirci para confiar en que los
resultados de la inferencia ser&n correctos.
3.2. Estimacidn Bayesiana
Sea 9 el parametro desconocido de una distribucion con
funci6n de densidad f(x), y q(9) la funcion de densidad a priori
que se supone que recoge toda la informacion disponible sobre el
parametro 9 antes de observar los datos de la muestra. Llamamos
(*) al resultado del experimento, esto es X( i > , ... , X(r) en el
caso de censura tipo II, (Wi,Ii), ... , (Wn,In) en caso de
muestreo censurado, etc. Sea L(9) la funcion de verosimilitud.
L(9) = % f(Xi|e) representa la informacion sobre el parametro 9
39
Page 48
contenida en la muestra. Sea q(6 j(*) ) la funcion de densidad a
posteriori. El teorema de Bayes establece que el modelo a
posteriori esta relacionado con el modelo a priori y con la
funcidn de verosimilitud de la siguiente forma:
L(6) q(6) q(6|(*)) = -
L(t) q(t) dt
Esta densidad a posteriori representa una modificaci6n del
conocimiento subjetivo sobre 9, expresado por el modelo a priori,
a la vista de los datos muestrales observados. Si estos datos
apoyan nuestra opinion sobre 9, esta quedara reflejada en el
modelo a posteriori. En caso contrario, el modelo reflejar3 un
resultado ponderado de ambas valoraciones.
Sea 1(9,9) la funcion de perdida ,que indica las
discrepancias entre el valor de 9 y el del estimador 6. Vamos a
considerar dos tipos:
li (9,9) = w(9) (9 - 9)2
que es una funcion de perdida cuadratica con funcion peso w(9) >
0, y
12 (8,8 ) = ko (8-8) si e - e > 0
= k i ( 9 - 9 ) si e - e < o
donde ko, ki son constantes positivas. En caso de que ko = ki la
funci6n de perdida quedaria k |9 - 8|. En el caso de que ki > ko,
le damos mas peso a una sobrestimacion del pardmetro.
40
Page 49
La funcion de p<§rdida es una v.a. que depende de los
valores de la muestra. Definimos funci6n de riesgo como la
esperanza de la funcidn de p^rdida:
R(9,9) = E [ 1(6,9) 3 = 1(9,9) L(9) dx
El riesgo Bayesiano se define como el valor esperado de la
funcion de riesgo con respecto a la distribucidn a priori q(9):
r(q,9) = q(t) { l(t,9) L(t) dx } dt (3.1)
El estimador Bayesiano optimo 9 es el que minimiza el riesgo
Bayesiano, esto es :
r(q,9) < r(q,9) para cualquier otro estimador 9
Para obtener dicho estimador, suponemos que se puede cambiar el
orden de integraci6n de (3.1), con lo que el riesgo Bayesiano
queda
r(q,9) = f(x) { l(t,9) q(t|<*)) dt } dx
donde
f(x) = L(t) q(t) dt
Por tanto para minimizar el riesgo Bayesiano bastara con
minimizar la integral
41
Page 50
l(t,8) q(tjo ) dt = B(8)
que es la esperanza de la funcion de perdida con respecto a la
distribucion a posteriori, y se conoce con el nombre de riesgo a
posteriori. Vamos a obtener los estimadores Bayesianos optimos
con las funciones de perdida indicadas anteriormente.
Teorema X.
Supongamos que
0 < t* w(t) q(t|(*)) dt <
Entonces el estimador Bayesiano optimo 8 con respecto a la
funcion de perdida li es
t w(t) q(tj(*)) dt
w(t) q(t|(*)) dt
Demostraci6n
Tenemos que demostrar que 8 minimiza a B(8). Para todo 8
tenemos
(t - 8) (8-8) w(t) q(t|(*> ) dt
42
Page 51
(8 - 9) t w(t) q(t|(*)) dt - 9 w(t) q(t|(*)) dt
la primera igualdad es cierta porque 8 y 9 son estimadores y por
tanto dependen solamente de (*). La segunda se deduce de la
definicion de 9. Tenemos:
B(6) = (t - 9) 2 w(t) q(t|(*)) dt
(t - 8 + 8 - 8) 2 w(t) q(t|(*)) dt
(t - 8 ) 2 w(t) q(t|(* > ) dt + (8 - 6) 2 w(t) q(t|(*)) dt
(t - 8) 2 w(t) q(t|(*)) dt = B(8)
c.q.d.
Considerando la funcion peso w(t) en su forma general, no es
posible obtener una formula explicita para el estimador
Bayesiano. Si tomamos w(t) = a, entonces el estimador Bayesiano
es la media de la distribucion a posteriori:
8 = t q(t|(*) ) dt = E (8|(*) )
El riesgo a posteriori asociado a este estimador, es decir el
riesgo a posteriori minimo es
B(8) = a (t - 9) 2 q(t|(*> ) dt = a Var (8|(*) )
43
Page 52
Teorema 2
Supongamos que
0 < |t| w(t) q(t|(*) ) dt < oo
Sea 8 el percentil 100 ko/(ko + ki) de la distribucion a
posteriori q(S|(*)). Entonces 8 es el estimador Bayesiano 6ptimo
con respecto a la funci6n de perdida I2.
Demostraci6n
Sea 8 un estimador arbitrario de 9. Si 8 > 8 para alguna
muestra entonces
12(8,8) - 12(9,6) =ko (8 - 8) Si 8 - 8 > 0
= ki (8 - 8) si 9 - 6 < 0
= k i ( - 8 + 8 ) - k o ( 6 - 8 )
si e - e < 0 < e - e
Por tanto
[ l2(t,8) - l2(t,9) ] q(t|(*) ) dt =
ko (8 - 8 ) '8
q(t|(*> ) dt q(t|(*)) dt -
q(t|(*)) dt + [ki 8 + ko 8] 6 - q(tj(*)) dt 8
44
Page 53
(ko + ki ) t q ( t | ( * > ) d t + ki (9 - 8 ) q ( t | ( * ) ) d t
( 3 . 2 )
ut i l izando la desigualdad
t q ( t | ( * > ) d t < 8 q ( t | ( * > ) d t
y sumando las integrales entre 8 y 8 que aparecen en el miembro
de la derecha de la igualdad (3.2) obtenemos que la suma de estas
integrales es no negativa. Aun mas: De la definicidn de percentil
se tiene que
6 q(t|(*)) dt >
ko q(t|(*> ) dt
ko +ki
Esto asegura que la suma de las restantes integrales en (3.2) es
tambien no negativa. Por tanto queda demostrado el teorema para 6
> 8. El caso 8 < 8 se demuestra de forma analoga.
Observar que si ko = ki, es decir si la funcion de perdida
es
12 (8,8 ) = k |8 - 8| k > 0
el estimador que se obtiene es la mediana de la distribucion a
posteriori.
Otros estimadores
Otro estimador Bayesiano es el valor del par£metro que
45
Page 54
maximiza la distribucion a posteriori, esto es la moda de esta
distribuci6n. A este estimador, si existe se le suele llamar el
estimador de maxima verosimilitud generalizado. Aunque este
estimador puede no ser un estimador Bayesiano para ninguna
funci6n de p^rdida estandar, es un estimador razonable, pues es
una medida de posicion de la la distribucion a posteriori analoga
a la media y la mediana.
3.3. Estimadores Bayesianos de la fiabilidad con tiempo de vida
exponencial.
Vamos a obtener dos estimadores Bayesianos de la funcion de
fiabilidad para el caso de que el tiempo de vida siga una
distribucion exponencial y el tipo de muestreo sea censurado.
Suponemos que -A. = 1/8 sigue una distribucion a priori gamma de
parametros a y p, con lo que la funcion de densidad sera
aP -aX p-1 q( X ) = e X si X> 0
T(P)
= 0 resto
La distribuci6n a priori de R = exp (- X) tiene como funcion de
densidad
aP a-1 p-1 s(r) = r (-In r) si 0 < r < 1
T(P)
= 0 resto
La distribucion gamma es la mas utilizada como distribuci6n a
46
Page 55
priori del parametro -A- de una esponencial. Entre las razones que
justifican su uso est3n su fdcil tratamiento matematico, y la
versatilidad disponible con las distintas elecciones de los
par&metros a y p. Como E.A = p/a y var js. = p/a2 la informaci6n
a priori sobre la localizaci6n y variabilidad de la tasa de fallo
se pueden tener en cuenta para una elecci6n adecuada de los
par&metros a y p. En el analisis que hagamos de los resultados
consideraremos la posibilidad de que la informaci6n a priori sea
correcta, y tambi^n de que nos lleve a infravalorar o sobrestimar
la tasa de fallo.
Por el teorema de Bayes, la distribuci6n a posteriori sera:
L(r) s(r) q(r|(Wi,Ii), ... , (Wn,In) ) = q(r|W,I) =
ri L(r) s(r) dr
, 0
Como vimos en el apartado 2.2.1. la funcion de verosimilitud para
la distribuci6n exponencial es
I - W I W L(r) = % f(Xj ) % [1 - F(tj)] e (-In r) r
jeU jeC
'1 [1 aP a-l+W p-l+I L(r) s(r) dr = r (-In r) dr
.0 JO r(p)
aP r(p+I)
F(p) (W+a)P+I
con lo que la distribucion a posteriori queda
47
Page 56
(W+a)I+p a+W-1 l+p-1 q(r|W,I) = r (-In r) si 0 < r < 1
r(I+p)
0 resto
Para obtener el primer estimador Bayesiano, que llamaremos R4,
consideramos funci6n de perdida cuadratica con funci6n peso
constante. Hemos visto en el apartado anterior que en este caso
el estimador es la esperanza de la distribucion a posteriori. Por
tanto
R4(a,p) = 1 (W+a)I+P a+W-1 I+p-1 r r (-In r) dr
0 r(l+p)
W+a I + P
= ( ) W+a+1
El riego a posteriori de este estimador es, considerando la
funcion peso igual a 1, la varianza de la distribucion a
posteriori:
B(R4) = E (r2|W,I) - (R 4)
2 =
W+a I + P
( ) W+a+2
W+a I + P
( ) W+a+1
Aunque la funci6n peso mas usual es la que hemos considerado
nosotros, es posible tomar funciones peso de la forma
-a -13
W a , e ( r ) = r {- In r ) a > 0 , i 3 > 0 c o n s t a n t e s
0 < r < 1
que pueden tener interes para algun problema particular. A medida
48
Page 57
que a crece le damos m3s peso a valores de r pr6ximos a cero, y
si B aumenta, a los valores de r pr6ximos a uno, con lo que
podemos fijar a y e dependiendo de que interese estudiar. La
funci6n W tiene forma de U.
El estimador Bayesiano con esta funcidn peso sera
R =
r w ( r ) q ( r | W , I ) d r
w ( r ) q ( r | W , I ) d r
1 1-oc -13 W+a-1 I + p - 1 r ( - I n r ) r ( - I n r ) d r
0
1 -a -13 W+a-1 I + p - 1 r ( - I n r ) r ( - I n r ) d r
0
W+a-a I + P - B ( )
W + a + l - a W + a > a , I + p - l 3 > 0
El estimador Bayesiano R4 se puede considerar un caso particular
de este con a = 8 = 0.
Para p > 1 otro estimador Bayesiano, que llamaremos R5, se
puede obtener como la moda de la distribucion a posteriori.
Maximizando la funcion de densidad de dicha distribucion tenemos:
I + P - 1 R5 ( a , p ) = e x p ( )
W+a-1 s i W + a - l > 0
r e s t o
49
Page 58
3.4. Transformaci6n de los estimadores Bayesianos
Pretendemos obtener la expasi6n asint6tica de la Esperanza,
Varianza y Error Cuadratico Medio de los estimadores R4 y Rs. Con
las expresiones obtenidas de los mismos s61o es posible
conseguir, y de forma muy laboriosa, que los terminos restantes
sean del orden 0(n~2). Los estimadores son funciones de las
variables I y W. Vamos a realizar una serie de transformaciones
para que sean funci6n de la variable Y = I/W. Estas
transformaciones nos seran tambien utiles para demostrar la
normalidad asintotica de los estimadores.
Queremos demostrar que
R4 = exp(-Y) { 1 + (l/2nW) [-2p + Y (2a + 1) +
(l/2n2W2) [p2 + p (2a + 1) - Y/3 (6a2 + 6a + 2 + 6ap +
3p) + Y2/4 (4a2 + 4a + 1)] } + 0P(n~3) (3.4.1)
La definicion de 0P (Rao (1973) 6 Serfling (1981) ) es la
siguiente:
"Sea {rn} una sucesion de numeros positivos y {xn} una
sucesi6n de variables aleatorias. Decimos que Xn = 0P (rn) si
para todo e > 0 existen Me y Ne tales que Pr [|Xn|/rn > Me] < 6
para n > Ne".
Para la demostracion de la formula 3.4.1 necesitamos probar
previamente algunos lemas
50
Page 59
Lema 1
Sea {rn} una sucesion de numeros positivos, y {Xn} una p
sucesion de v.a. tales que Xn/rn — > c , entonces Xn=0P(rn).
Demostracion
Sea c* tal que c* > c. Entonces Pr (Xn/rn > c* •) = Pr (Xn/rn
c > c* - c) < Pr ( | Xn/rn - cj > c* - c) > 0 n-> a> c . q. d.
Lema 2
I+P Sea A = I + p, y X = . Entonces para j < k
W+a+1
X3 — = 0P (n~ k). Ak
Demostracion
I+p I+p/n p Eli Es obvio que = _ 3»
W+a+1 W+(a+l)/n EWi
p De forma que XJ > (EIi/EWip .
p Ademas A/n 3* Eli > 0 , de forma que (n/A)k ^l/(EIi) k
Por tanto X3 p Ell 3 1
• * - ( )
(A/n)k EWi (EIi)k
51
Page 60
De la definicion de 0P (n_k) se obtiene el resultado que
queriamos demostrar.
Lema 3.
Para 0 < z < -J- se cumple
z - — - — - 2z4 < In (1-z) < -z - — - — 2 3 2 3
Demostraci6n
z2 z3
Llamemos H i ( z ) = l n ( l - z ) + z + — + — + 2 iz* , i = 0 , 1 2 3
Tenemos que Hi(0 ) = 0 y
H i ' ( z ) = - ( 1 - z ) " 1 + 1 + z + z2 + 8 i z 3 = - z3 - z4 - . . . + 8 i z 3
= - z 3 / ( l - z) + 8 i z 3 = ( - z 3 + 8 i z 3 - 8 i z 4 ) / . ( l - z)
Por t a n t o
H o ' ( z ) = - z 3 / ( l - z) < 0
H i ' ( z ) = (7z 3 - 8 z 3 ) / ( l - z) = z3 (7 - 8 z ) / ( l - z) > 0
p a r a 0 < z < l c . q . d .
Lema 4
x2 x3 2 i x 4
Sea z = x / a ; Q i ( x , a ) = - — - - , i = 0 , 1 2a 3a2 a3
52
Page 61
entonces exp(-x) exp(Qi(x,a)) < (1 - z)a < exp(-x) exp(Qo(x,a)).
Demostracion
Multiplicando ambos miembros de la desigualdad del lema
anterior por a, y tomando exponenciales se obtiene este
resultado.
Llamando Z = X/A, siendo X y A las expresiones definidas en
el lema 2 ,tenemos que
Z = (W + a + l)-i y
R4 = (1 - Z)A
Definimos
R4* = R4 si Z < 1
= exp(- X) exp (Qi(X,A)) si Z > ±
Obviamente tenemos
exp (- X) exp (Qi(X,A)) < R4 * < exp (- X) exp (Qo(X,A)) (3.4.2)
Lema 5
Con la definicion de R4* dada anteriormente, se tiene que:
R4 = R4* + Op (n~k) para cualquier k natural.
Demostraci6n
R4 - R4* = 0 si Z < i
= (1 - Z)A - exp (- X) exp (Qi(X,A)) si Z > ±
53
Page 62
Basta con demostrar que
p nk (R4 - R4* ) 5* 0 cuando n — > »
Sea e > 0. Entonces Pr( nk (R4 - R4 * ) > e ) =
Pr (n* ( (1 - Z)A - exp (- X) exp (Qi(X,A))) > e, Z > * ) <
Pr (Z > i) = Pr (W + a + 1 < 2)
Demostraremos que esta probabilidad converge a cero. En primer
lugar observemos que si Xi , Ti son v.a. independientes no
negativas y absolutamente continuas, la variable aleatoria Wi =
min(Xi, Ti) es tambien una v.a. no negativa y absolutamente
continua. Por tanto existe T > 0 tal que 1 > Pr(Wi > x) = v > 0.
Tomemos c > 0 y definimos
Wj* - x siWj > x
= 0 en caso contrario
n n De esta forma la desigualdad S Wj* > c implica E Wj > c y por
1 1 n n n
tanto Pr ( 2 Wj* > c) < Pr( S Wj > c). El suceso { S Wj* > c } 1 1 1
ocurre si al menos [C/T] + 1 valores de Wi *, ... , Wn* son
iguales a x. Se deduce por tanto que
n n n k n-k P r ( S W j * > c ) = 2 ( ) v (1-v) o bien
1 k=[c/T]+l k
n [C/T] n k n-k Pr ( E Wj* < c) = S ( ) v (1-v)
1 k=0 k
Debido a la forma de la distribuci6n binomial, para n
54
Page 63
suficientemente grande, el mayor sumando de la ultima igualdad es
el correspondiente al indice k = [C/T] y por tanto
n e n [C/T] n-[c/x] Pr ( E Wj* < c) = [-] ( ) v (1 - v)
1 T [C/T]
c v [C/T] n(n-l) ... (n-[c/T]+l) n [_] ( ) (1 - v) < T 1-v [C/T] ([C/T]-1) ... 1
[C/T] n const - n (1-v) > 0 . Por tanto
n —><»
Pr(W < c) —=> 0 c.q.d.
Lema 6
Qi (X,A) = - X 2 / 2 A + 0 P ( n - 2 ) i = 0 , 1
Qo2 (X,A) = Op ( n - 2 )
Demostracion
Es inmediata a partir de los lemas anteriores.
Lema 1_
R4 = exp (- X) (1 - X2/2A + 0P (n~2) )
Demostracion
De la desigualdad de Hardy-Littlewood-Polya se tiene que 55
Page 64
para x < 0
1 + x < exp(x) < l + x + x 2 / 2
Utilizando esta desigualdad, la de la fdrmula (3.4.2) y los lemas
anteriores se obtiene el resultado de este lema.
Teorema 1
Con las definiciones establecidas anteriormente, se tiene:
R4 = exp(-Y) { 1 + (l/2nW) [~2p + Y (2a + 1)] } + 0P (n~2)
Demostraci6n
I+p I+p/n l+p/(nl)
X = = _ = Y _ W+a+1 W+(a+l)/n l+(a+l)/(nW)
ya que Y = I/W = I/W
_ 2 [1 + (a+l)/nW]-i = 1 - [(a+l)/nW] + [(a+l)/nW] -
_ 3 _ _ 2 o o _ j C(a+l)/nW] + ... = 1 - [(a+l)/nW] + [(a+l)/nW] S [-(a+l)/nW]
j=0 _ 2 _ -1
= 1 - [(a+l)/nW] + [(a+l)/nW] [1 + (a+l)/nW]
1 - [(a+l)/nW] + 0P (n-2)
_ p
ya que C(a+1)/W] —.x> (a+l)/EWi
P y [1 +(a+l)/nW]"1 —-> 1 . Por tanto
X = Y (1 + p/nl) [1 - (a+l)/nW] + 0P (n"2)
= Y [l+~p/nl - (a+l)/nW] + 0P (n~2)
Utilizando la desigualdad HLP mencionada anteriormente, tenemos
56
Page 65
exp (- X) = exp (- Y) exp {- Y [p/nl - (a+l)/nW ] + 0P (n"2) } =
exp (- Y) [1 + Y ((a+l)/nW - p/nl) ] + 0P (n~2)
Por otra parte
X2/A = ( I + p ) / ( W + a + l ) 2 = ( I + p / n ) / n [ W + ( a + l ) / n ] 2
= T/nW2 + 0P ( n - 2 )
Por t a n t o
R4 = exp ( - Y) [1 + Y ( ( a + l ) / n W - p / n l ) ] [ 1 - I /2nW 2 ] + 0P ( n ~ 2 )
= exp( -Y) { 1 + ( l /2nW) [ -2p + Y (2a + 1 ) ] } + 0P ( n ~ 2 )
c . q . d .
Nota
La formula 3.4.1 tiene un termino mas en el desarrollo de IU
que la de este teorema. En la demostracion de la misma se
utilizan los cuatro primeros lemas vistos aqui, y para el resto
de la demostracion las ideas son similares. Como los calculos son
bastante mas laboriosos, se ha dejado para el apendice 1.
Las transformaciones que hay que realizar para el estimador
Rs son mas sencillas. Vienen dadas por el siguiente teorema
Teorema 2
Con las definiciones establecidas anteriormente, se tiene:
R5 = exp (-Y) {1 + (1/nW) [~p + 1 + Y(a - 1)3 +
57
Page 66
(l/2n2W2) C(p - l)(2a + p -3) - 2Y(a - l)(a + p - 2) +
Y2(a2 - 2a + 1) ] } + 0P (n~3 )
Demostracion
I+p-1 l+(p-l)/nl = I/W _
W+a-1 l+(a-l)/nW
Por un razonamiento analogo al realizado en la demostracion del
teorema 1, tenemos que
[ 1 + (a-l)/nW ]-i = 1 - (a-l)/nW + C(a-l)/nW]2 + 0P (n~3)
Sustituyendo
I+P-1 = Y [1 + (p-l)/nl ] [1 - (a-l)/nW + (a-l)2/n2W2 ] +
W+a-1
0P (n-3) = Y + (1/nW) [p-1 - Y(a-l) ] +
(l/n2W2) [(a-l)2Y - (p-l)(a-l) ] + 0P (n"3)
Teniendo en cuenta que W + a - 1 > 0, y que p > 1, podemos
aplicar la desigualdad LHP:
1 + x + x2/2 + x3/3! < exp(x) < 1 + x + x2/2
que es valida para cualquier x < 0. Por tanto llamando X a
(1/nW) [p-1 - Y(a-l) ] + (l/n2W2) [(a-l)2Y - (p-l)(a-l) ]
tenemos que
58
Page 67
X2 = (l/n2W2) [p-1 - Y(a-l) lz + Op (n-3)
X3 = 0P (n- 3 )
Aplicando estos resultados y simplificando, obtenemos la
expresion de Rs.
3.5 Expansi6n asint6tica de la Esperanza, Varianza y Error
Cuadr£tico Medio del estimador R4.
Para la expansion asintotica de momentos de los estimadores
R4 y R5 utilizaremos como herramienta de analisis el teorema 5 de
Hurt (1986), cuyo enunciado escribimos a continuacion:
Teorema 1
Sea {X(t)}teT un proceso estocastico r-dimensional y g =
g(x,t) una funcion real definida en Rr x T. Supongamos que
a) Para todo teT g es (q+1) veces totalmente diferenciable
con respecto a las x±s en el intervalo
r K = % [Si - 6, 9i + 8]
i = l
donde 8 > 0 es independiente de t y 8 = (81, ..., 6r) es un
vector parametro,
b) Existen enteros p,u, p > q+1, 0 < u < p tales que
max i<i<r E |Xi (t) - 8i j« + 1
| g ( x , t ) | < Ci + C2 S ) X i | u
max i < i < r E |X± ( t ) - 8i JP
p a r a t o d o xeRr , t e T , donde Ci y C2 son i n d e p e n d i e n t e s de x y t ,
59
Page 68
c) Todas las derivadas de g hasta el orden q+1 est&n
acotadas en K x T. Llamando
3 3 mi mr
D g(mi , ... , ir; B) s ( 3 g / dYi . • -dYr ) y = e
q + 1 s i max 1 <± < r E | X i ( t ) - 6± I 5=~ 0 c u a n d o t —>• to e n t o n c e s
q 1 J E g ( X ( t ) , t ) = g ( 8 , t ) + 2 — 2 . . . 2 D g ( m i , . . . , rar; 9 )
j = l j ! mi + . . . + m r = j
mi , . . . , m r >0
mi mr q+1 E ( X i ( t ) - 6 ) . . . ( X r ( t ) - 8 ) + 0 ( m a x i < i < r E I X i ( t ) - 9 i I )
q+2 s i max i <i < r E | X i ( t ) - 8 i | s> 0 c u a n d o t — > t o e n t o n c e s
v a r ( g ( X ( t ) , t ) =
q q i j 2 2 2 . . . 2 2 . . . 2 D g ( m i , . . . , m r ; 8 ) -
j = l k=l j ! k ! mi + . . .+m r =j m + . . . + n r = k
m i , . . . , m r >0 m + . . . + n r >0
k mi mr
D g ( m , . . . , nr ; 8) cov [ ( X i ( t ) - 8i ) . . . (Xr ( t ) - 8r ) ,
n i n r q+2 ( X i ( t ) - 9 i ) . . . ( X r ( t ) - 8r ) ] + 0 ( m a x i < i < r E | Xi ( t ) - 8 i | )
Utilizando este teorema obtendremos la expansion asintotica
de la esperanza, varianza y error cuadr&tico medio (ECM) del
estimador R4 con terminos en el resto de orden 0 (n-3). Lo vamos
a hacer suponiendo que las distribuciones de fallo y censura
60
Page 69
esten relacionadas segun el modelo de tasa de fallo proporcional,
que en nuestro caso implica que la distribucion de censura sea
tambien exponencial. En este modelo Wj = min (Xj,Tj) se
distribuye exponencialmente con parametro S que cumple
1/8 = 1/9 + 1/cr
siendo 8 y a los parametros de las distribuciones de tiempo de
vida y censura respectivamente.
Necesitamos calcular los momentos de I , 1/W e Y = I/W.
Ij es una v.a. que toma los valores cero-uno con Pr (Ij = 1) =
8/8. Por tanto I = Ii + ... + In sigue una distribucion Binomial
de parametros n y 8/8. Sus tres primeros momentos respecto al
origen son:
E I = n 8/8
E I2 = n (n-1) (6/8)2 + n 6/8
E I3 = n (n-1) (n-2) (8/8)3 + 3n (n-1) (8/8)2 + n (8/8)
W = Wi + ... + Wn sigue una distribucion Gamma de parametros n y
8, por lo que E W-k existe para k < n y
-k E W
co -k (l/8)n -x/8 n-1 -k r(n-k) x e x dx = 8
0 r(n) r(n)
En particular,
E W"1 = [8 (n-1)]"1
E W-2 = [S2 (n-1) (n-2)]"1
E W-3 = [83 (n-1) (n-2) (n-3)]"1
Teniendo en cuenta la independencia de I y W, y realizando las
61
Page 70
operaciones correspondientes, obtenemos: I
1 1 1 -3 E Y = - ( 1 + - + —) + 0 (n )
2 1 1 2 1 1 4 3 -3 EY = — + - ( — + —) + — (— + —) + 0 (n )
e2 n e2 es n2 e2 es
3 1 1 3 3 1 9 15 1 - 3 E Y = — + - ( — + ) + — ( — + + ) + 0 (n )
e3 n e3 e2s n2 e3 e2s es2
Finalmente nos interesa calcular :
1 1 1 1 -3 E (Y - - ) = - ( - + _ ) + 0 (n )
6 9 n n2
1 2 1 1 1 2 3 - 3 E (Y - - ) = - ( — ) + — ( — + — ) + 0 ( n )
9 n 86 n 2 6 2 8S
1 3 1 6 1 - 3 E (Y - - ) = — ( + ) + 0 (n )
6 n2 6 2 S 9 8 2
1 1 E ( Z ' ) = — + 0 ( n - 2 )
S nS
1 1 1 E [ ( Y - - ) ( Z ' - - ) ] = + 0 ( n - 2 )
e s nes
Notacion
Llamaremos:
Z = 1/W; Z' = 1/W;
gi (Y,Z') = exp (-iY) (Z'/2) (Y (l+2a) - 2p)
hi (Y,Z') = exp (-iY) (Z,2/2) [p2 + p (2a + 1) - Y/3 (6a2 +
6a + 2 + 6ap + 3p) + Y2/4 (4a2 + 4a + 1) ]
Recordamos que
R = exp (-1/8); Ri = exp (-Y):
62
Page 71
Con esta notacion el estimador Bayesiano IU es
R4 = Ri + (1/n) gi (Y,Z') + (1/n2) hi (Y,Z') + 0P (n~3)
Lema 1
Con las hipotesis establecidas anteriormente se tiene:
2a+l p i p 6a+3+4ip E gi (Y,Z') = exp (-i/9) [ + - ( - - +
298 S n 6 296
(2a+l)i (2a+l)i+pi2 (2a+l)i2
+ ) 1 + 0 (n-2 ) 928 2982 49282
Demostracion
La funcion gi (y,z) = exp (-iy) (z/2) (y (l+2a) - 2p)
cumple las hipotesis del teorema 1. Es suficiente tomar q = 2
porque todos los momentos de mayor orden de (Y - 1/9) y (Z1
1/8) son ya 0 (n - 2). Tenemos por tanto que
1 1 d9i 1 E (gi (Y,Z')) = gi (-,-)+ E (Y - -) +
9 8 dy 9
dgi 1 dz9i 1 2
E (Z* ) + 1 E (Y ) + dz 8 QY2 e
a2gi i i a2gi i 2
E [(Y - -) (Z' - - ) ] + ! E (Z1 - -) + 0(n-2) ay^z 9 8 dz2 8
1 1 donde todas las derivadas se toman en el punto (— , —)
9 8
Las derivadas de gi son
63
Page 72
agi/dY = exp ( - i y ) ( z /2 ) C ( l - i y ) ( l+2a) + i2p]
a 2 gi /3Y 2 = - i exp ( - i y ) ( z /2 ) [ ( 2 - i y ) ( l+2a) + i2p]
d29i/dYdz = exp ( - i y ) * C ( l - i y ) ( l+2a) + i2p]
dg i /dz = exp ( - i y ) £ [y ( l+2a) - 2p]
a 2 g i / 3 z 2 = 0
Sustituyendo estos resultados y los valores de las Esperanzas
vistos anteriormente tenemos
E gi (Y,Z') = exp (-i/8) { (1/2S) [ (l+2a)/8 - 2p] + (1/28)
[ (l-i/9) (l+2a) + i2p] 1/en + £ [(l+2a)/8 - 2p] l/n6 - (i/2)
(1/28) [ (2-i/G) (l+2a) + i2p] l/n98 + i [ (l-i/8) (l+2a) +
i2p] 1/nes } + 0(n-2) =
2a+l p i p 6a+3+4ip
exp (-i/8) [ + - ( + -288 8 n 8 288
(2a+l)i (2a+l)i+pi2 (2a+l)i2
+ ) ] + 0 (n-2 ) 82S 28S2 49282
c. q. d.
Lema 2
Con las hipotesis establecidas anteriormente se tiene:
64
Page 73
E hi (Y,Z') = exp (-i/G) { [p2 + p (2a + 1)]/2S2 - (6a2 +
6a + 2 + 6ap + 3p)/6682 + (4a2 + 4a + l)/89282 } + 0 (n"1)
Demostraci6n
La funcion h cumple las hipotesis del teorema 1. Basta con
tomar q = 1 porque todos los momentos de mayor orden de (Y - 1/9)
y (2' - 1/8) son ya 0 (n - 1). Por tanto
E hi (Y,Z*) = h (1/e , 1/6) + 0 (n-1 )
con lo que obtenemos el resultado buscado.
Lema 3.
Con las hipotesis establecidas anteriormente se tiene:
E.gi2 (Y,Z«) = exp (-2/6) (1/452) [ (l+4a2+4a)/82 + 4p2 -
(4p/8) (l + 2a)] + 0 (n-i )
Demostracion
La demostracion es an&loga a la del lema 2.
Teorema 2
Con las hipotesis establecidas anteriormente se tiene:
a) E R4 = R { 1+ (1/n) [ -1/6 - p/8 + (a+l)/8S ] +(l/n2) [ -1/9 +
1/62 - p/8 + (p2+2ap+p)/282 + (3a+3+2p)/8S -(2a+2)/928 -
65
Page 74
(a2+2a+l+ap+p)/882 + (a2+2a+l)/292S2 ] } + 0 (n~3) (3.5.1)
b) Var R4 = R2 { 1/nBS + (1/n2) [ 1/92 + 3+2p)/98 - (2a+6)/926
- (2a+2+2p)/882 + (4a+5)/29282 ] } + 0 (n~3) (3.5.2)
c) ECM R4 = R2 { l/n8S + (1/n2) [ 2/92 + p2/82 + (3+4p)/9S -
(4a+8)/828 - (2a + 2pa + 4p+2)/882 + (2a2+8a+7)/292S2] } + 0 (n~3)
(3.5.3)
Demostracion
De la expresion transformada del estimador R4 obtenemos:
E R4 = E Ri + (1/n) E gi (Y,Z') + (1/n2) E hi (Y, Z')
Aplicando la formula de E Ri vista en el apartado 2.2.1, y las de
E gi (Y,Z') y E hi (Y,Z') vistas en los lemas anteriores,
tenemos:
E R4 = R { 1 + (1/n) [ -1/9 - p/8 + (a+l)/98 ] +
(1/n2) [ -1/9 + 1/92 - p/8 + (3a+3+2p)/98 - (2a+2)/828 -
(6a+4+3p)/68S2 + (4a+3)/892S2 ] + (1/n2) [p2 + p (2a+l)]/282 -
(6a2+6a+2+6ap+3p)/69S2 + (4a2+4a+l)/892S2 ] } + 0 (n~3)
Operando y simplificando obtenemos la formula (3.5.1)
Var R4 = E [ Ri + (1/n) gi (Y,Z') + (1/n2) hi (Y,Z') -
66
Page 75
E Ri - (1/n) E gi (Y,Z') - (1/n2) E hi (Y,Z') ] 2 =
Var Ri + (1/n2) Var gi (Y,Z') + (2/n) cov [Ri , gi (Y,Z')] +
(1/n4) Var hi (Y,Z') + (2/n3) cov [ gi (Y,Z'), hi (Y,Z')] +
(2/n2) cov [Ri, hi (Y,Z')]
Var Ri = R2 { l/n95 + (1/n2) [1/62 + 3/9S - 5/92S - 1/682 +
3/26252 ] } + 0 (n"3)
segun vimos en el apartado 2.2.1
Var gi (Y,Z') = E gi2 (Y,Z*) - [E gi (Y,Z*)]2 = 0 (n"1)
aplicando los lemas 1 y 3 de este apartado
Cov [Ri, gi (Y,Z')] = E [Ri gi (Y,Z*)J - E Ri E gi (Y,Z') =
E g2 (Y,Z* ) - E Ri E gi (Y,Z' ) =
R2/n [p/9S - (2a+l)/2626 - (2a+l+2p)/26S2 + (2a+l)/29282 ] +
0 (n-2 )
Aplicando el lema 1 con i=l,2 y la fdrmula de ERi vista en 2.2.1
Cov [Ri, hi (Y,Z*)] = E h2 (Y,Z') - E Ri E hi (Y,Z') = 0 (n"1)
por el lema 2
Tenemos por tanto que
Var R4 = var Ri + (2/n) Cov [Ri, gi (Y,Z')] + 0 (n~3)
Sustituyendo los valores obtenidos y simplificando se deduce la
67
Page 76
formula (3.5.2).
Finalmente la formula (3.5.3) para el error cuadratico medio
se deduce de la identidad:
ECM R4 = E (R4 - R)2 = Var R4 + (E R4 - R)
2
teniendo en cuenta que
(E R4 - R)2 = (R2/n2) [ 1/62 + p2/62 + 2p/98 - (2a + 2)/828 -
(2pa+2p)/6S2 + (a2+2a+l)/82S2 ] + 0 (n"3)
3.6 Expansi6n asintbtica de la Esperanza,' Varianza y Error
Cuadratico Medio del estimador Rs.
Rs = exp [- (I+p-l)/(W+a-l) ]
Utilizando la transformacion de este estimador vista en el
apartado 3.4, podemos escribir
R5 = Ri + (l/n) gi (Y,Z') + (l/n2) hi (Y,Z*) + 0P (n~3 )
donde
Ri = exp (-Y) es el estimador de maxima verosimilitud
gi (Y,Z') = exp (-iY) Z' [Y (a-1) - p+1]
hi (Y,Z') = exp (-iY) Z'2 {(p-l)(a-l) + (p-l)2/2 -
Y [(a-1)2 + (a-l)(p-l)3 + Y2 (a-l)2/2 }
Lema 1
68
Page 77
Con la hipotesis establecida anteriormente sobre la
distribucion de censura se tiene
E g± (Y,Z') = exp (-1/9) { (l-p)/S + (a-l)/8S + (1/n) [(l-p)/6 +
(3a-3+2ip-2i)/95 + (2i-2ia)/928 - (2a-2+ip-i)/29S2 +
(ia-i)/29252 ] } + 0 (n~2)
Demostracion
La funcion gi (y,z) = exp (-iy) z (y (a-1) - p+1) cumple
las hipotesis del teorema 1. Es suficiente tomar q = 2 porque
todos los momentos de mayor orden de (Y - 1/9) y (Z' - 1/8) son
ya 0 (n-2). Tenemos por tanto que
1 1 3gi 1 E (gi (Y,Z')) ~ g± (-,-)+ E (Y - -) +
9 5 3y 9
agi i a2gi 1 2
E (Z1 ) + 1 E (Y ) + dz S 3y2 9
32gi l l 32gi l 2
E C(Y - -) (Z' - -)] + i- E (Zf - -) + 0(n-2) dYdz 9 8 dz2 8
1 1 donde todas las derivadas se toman en el punto (— , —)
8 8
Las derivadas de gi son
dgi/dY = exp ( - i y ) z [ ( l - i y ) (a -1) + ip - i ]
d2gi/3Y2 = - i exp ( - i y ) z [ ( 2 - i y ) (a -1) + ip - i ]
a 2 g i /dydz = exp ( - i y ) [ ( l - i y ) (a -1) + ip - i ]
69
Page 78
d g i / d z = exp ( - i y ) [y ( a -1 ) - p +1]
3 2 g i / d z 2 = 0
E (Y - 1/6), E (Z' - 1/8), etc. han sido calculadas en el
apartado anterior. Sustituyendo en las derivadas Y por 1/8 y Z
por 1/8, realizando las operaciones indicadas y simplificando se
obtiene el resultado del lema.
Lema 2
Con las hip6tesis establecidas anteriormente se tiene:
E hi (Y,Z') = exp (-1/9) [ (p2+2pa-4p-2a+3)/2S2 +
(-a2+3a-2-ap+p)/9S2 + (a2-2a+l)/29282 ] + 0 (n~i)
Demostracidn
La funcion h cumple las hipotesis del teorema 1. Basta con
tomar q = 1 porque todos los momentos de mayor orden de (Y - 1/8)
y (Z1 - 1/8) son ya 0 (n"1)- Por tanto
E hi (Y,Z*) = h (1/8 , 1/8) + 0 (ir1)
con lo que obtenemos el resultado buscado.
Teorema 1,
Con las hipotesis establecidas anteriormente se tiene
70
Page 79
a) E Rs = R { 1+ (1/n) [ -1/6 + (l-p)/S + (2a-l)/286 ] +
(1/n2) [ -1/9 + 1/82 + (l-p)/S + (p2+2ap-4p-2a+3)/2S2 +
(6a-7+4p)/268 + (l-2a)/92S + (-6a2+12a-4-6ap+3p)/69S2 +
(4a2-4a+l)/89282 ] } + 0 (n~M (3.6.1)
b) Var R5 = R2 { l/n98 + (1/n2) [ 1/82 + (l+2p)/9S - (2a+3)/626
- 1/9S2 + 3/29262 ] } + 0 (n-3) (3.6.2)
c) ECM Rs = R2 { l/n8S + (1/n2) [ 2/92 + (l-2p+p2)/82 +
(4p-l)/0S - (4a+2)/828 + (2a-2pa+p-2)/982 +
(4a2-4a+7)/48262] } + 0 (n~3) (3.6.3)
Demostracion
De la expresion transformada del estimador R5 se tiene:
E Rs = E Ri + (1/n) E gi (Y,Z') + (1/n2) E hi (Y, Z')
Aplicando la formula de E Ri vista en el apartado 2.2.1, y las de
E gi (Y,Z') y E hi (Y,Z') vistas en los lemas anteriores, se
obtiene la exresion (3.6.1) tras realizar las correspondientes
simplificaciones.
Por un razonamiento analogo al del teorema 2 del apartado
anterior tenemos que
Var Rs = Var Ri + (2/n) Cov [Ri , gi(Y,Z')] + 0 (n~3)
Cov [Ri , gi(Y,Z')] = E g2(Y,Z') - E Ri E gi(Y,Z')
71
Page 80
= (R2/n) [(p-lJ/96 + (l-a)/92S] + 0 (n-2)
Sustituyendo este valor, el de Var Ri visto anteriormente y
simplificando, obtenemos la expresion (3.6.2).
Finalmente la f6rmula (3.6.3) para el error cuadratico medio
se deduce de la identidad:
ECM Rs = E (R5 - R)2 = Var R5 + (E Rs - R)
2
3.7 Distribuci6n asintotica de los estimadores R4 y Rs
La distribucion asint6tica de los estimadores la vamos a
estudiar para un modelo con tiempo de vida exponencial, y con
distribucion de censura Weibull de parametros ke y 13, esto es con
funcion de distribucion
G(t) = 1 - exp [- (t/ke)'3 ] t > 0
= 0 resto
Este modelo es mas general que el estudiado anteriormente ya que
la distribucion exponencial es un caso particular de la de
Weibull con 13 = 1.
El estimador de maxima verosimilitud de la tasa de fallo X=
1/8, nemos visto que es Y - I/W. Para la convergencia de este
estimador podemos utilizar el resultado de Miller (1981):
Y " N ( X , \*/E Ij )
donde I = numero de observaciones sin censurar se puede sustituir
por E I , si este ultimo lo podemos calcular. (La notaci6n
72
Page 81
indica "se distribuye asintoticamente corao"). El resultado
anterior lo podemos escribir :
yn (Y -X ) 5> N (0, \a/E I3 ) (3.7.1)
En nuestro modelo:
E I = n E I j = n 1/8 exp (-x/8) exp [ - (x/k8)B ] dx
= n exp (-t) exp [ - (t/k)!3 ] dt
Para (3 = 1 obtenemos el resultado de Hurt (1986)
V'n (Y -X) s- N (0, 1/86) siendo 1/8 = 1/8 + 1/kS
ya que en este caso E Ij =6/8.
Para 13 * 1 hay que calcular E I mediante integracion numerica.
Para cada valor de (3 podemos elegir k para conseguir la
proporcion esperada de elementos sin censurar que queramos.
Teorema 1
Para n —> <» tenemos
Vn (Ri - R) > N ( 0 , X 2 R 2 / E I j )
rn (R4 - R) > N ( 0 , X 2 R 2 / E I j )
rn (R5 - R) > N ( 0 , X 2 R 2 / E I j )
( 3 . 7 . 2 )
( 3 . 7 . 3 )
( 3 . 7 . 4 )
73
Page 82
Demostracion
Para la demostracion de (3.7.2) necesitamos el siguiente
teorema, Rao (1973)
"Sea (Tn) n = 1,2, ... una sucesi6n de estadisticos tal que
4n (Tn - 0) £» N (0, a2 (9) )
Sea g una funci6n de una variable que admite la derivada primera.
Entonces
Vrn (g(Tn) - g(8) ) > N (0, [g'(9)a(9)]2 ) " (3.7.5)
En nuestro caso Tn = Y, y su convergencia a la normalidad es la
expresi6n (3.7.1). Poniendo g(t) = exp (-t); g'(t) = - exp (-t),
tenemos que [g'(8)a(8)]2 = X2R2/E Ij , con lo que queda demostrado
(3.7.2). Si la distribucion de censura es tambien exponencial (13
= 1), esta formula coincide con la obtenida por Hurt (1982). En
este caso la varianza de la distribucion limite es R2/9S, ya que
E Ij = 6/8 .
Para la convergencia de los estimadores Bayesianos daremos
dos demostraciones distintas. En ambos casos utilizaremos las
transformaciones de estos estimadores vistas en el apartado
3.4.
Vimos entonces la siguiente desigualdad
exp (-X) exp (Qi(X,A)) < R4* < exp (-X) exp (Qo(X,A))
donde
Qi(X,A) = - Xa/2A - X3/3A2 - 2iX4/A3 i = 0,1
74
Page 83
I+p X = , A = I+p
W+a+1
Tenemos que
I+p/n X = _
W+(a+l)/n
Como
P P p/n > 0 , (a+l)/n => 0
el comportamiento asintotico de X es el mismo que el de I/W = Y,
que ya hemos visto en (3.7.1).
Por otra parte, para k = 2,3,4 tenemos
k X I+p I+p/n p
= = v> 0 k-1 k k-1 _ a+1 k
A (W+a+1) n (W+ ) k
Por tanto
P Qi (X,A) >• 0 i = 0,1
Y P
exp (Qi (X,A) ) 5> 1 i = 0,1
por lo que R4* (y tambien R4) tienen la misma distribucion
asintotica que exp (-X), y por tanto la misma que exp (-Y) = Ri ,
con lo que queda demostrado (3.7.3).
La demostracion de (3.7.4) es sencilla, ya que por un
razonamiento andlogo al visto anteriormente la distribucidn
asint6tica de (I+p-l)/(W+a-l) es la misma que la de Y = I/W, por
75
Page 84
lo que Rs y Ri tienen tambi^n el mismo comportamiento asintdtico.
Veamos una demostracion alternativa de los dos ultimos
resultados. La formula (3.7.5) no se puede aplicar en general, si
la funcion g depende explicitamente de n, como es el caso de los
estimadores R4 y Rs (una vez realizadas las transformaciones del
apartado 3.4). Utilizaremos el siguiente teorema de Rao (1973):
"Sea (Tn) n = 1,2, ... una sucesion de estadisticos tal que
/n (Tn - 8) 2> N (0, a2 (6) )
Sea g una funcion de dos variables (x,y) y supongamos que fig/ dx
existe y >• 6(8) * 0 cuando y —=> 00 , x —5> 8 , entonces
/n (g(Tn,n) - g(8,n) ) > N (0, [G(8)a(8)]2 ) "
Si hacemos g(Y,n) = R4, tenemos que dg/dY existe y converge a exp
(-X) cuando n —5> 00 , y —-j>\ . Utilizando la formula (3.7.1)
tenemos:
yn (R4 - g( X ,n) ) — > N (0, X2R2/E Ij )
Por otra parte g ( X,n) se puede sustituir por R = exp (- X) Ya
que
yn (g( X,n) - R) —$>• 0 cuando n —>> <»
con lo que queda demostrado (3.7.2).
La demostracion alternativa de (3.7.3) es totalmente
an&loga.
76
Page 85
3.8 Intervalos de confianza
Consideraremos dos clases de intervalos de confianza de R;
con cada uno de los estimadores Ri , R4 y Rs. Los primeros se
construyen utilizando la transformacion log (-log) que suele
mejorar la convergencia a la normalidad porque la varianza
asintotica no depende del parametro desconocido. Hemos visto que
Y ~ N ( \ , V/EI)
Poniendo g(t) = log t y aplicando (3.7.5) tenemos
log Y ~ N (logX , 1/E I)
Por tanto el intervalo de confianza de R = exp (- X) sera
exp (-exp (log Y ± Za/2 (E I)-*/*) )
donde Za / 2 es el cuantil de orden 1 - a/2 de la distribucion
Normal estandar.
E I = n E Ij = n veces la proporcion esperada de elementos
sin censurar.
Para R4 aplicamos en primer lugar (3.7.5) con g(t) = - log t
a la formula (3.7.3), y tenemos
/n (- log R4 -X) > N (0, \2/E Ij )
Aplicando de nuevo (3.7.5) con g(t) = log t a este resultado,
tenemos
(n [log (-log R4 ) - log X] > N (0, 1/E Ij )
Por tanto el intervalo de confianza de R es
77
Page 86
exp (-exp (log (-log R4 ) ± Za / 2 (n E Ij)"1/2) )
Con R5 obtenemos de forma analoga el siguiente intervalo
exp (-exp (log (-log R5) ± Za / 2 (n E Ij)"1/2) )
La otra clase de intervalos de confianza de R estct basada
directamente en la normalidad asintotica de Ri (i =1,4,5). Los
intervalos son:
Ri ± Za/2 Ri Y (n E Ij)1'2 i =1,4,5
donde en lugar de R y A que son parametros desconocidos, ponemos
sus estimadores Ri e Y respectivamente.
Posteriormente mediante simulacion compararemos las dos
clases de intervalos y estudiaremos su comportamiento con
muestras pequenas y medianas. A los primeros intervalos los
llamaremos Ri, R4 y Rs, y a los segundos Ri(b), R4(b) y Rs(b).
3.9 Comparaci6n con otros estimadores de la fiabilidad
Una vez que hemos estudiado las propiedades de nuestros
estimadores, parece conveniente comparar los resultados obtenidos
con los de los demas estimadores de la fiabilidad existentes. De
esta forma podremos analizar si esta justificado o no la
introduccion de nuestros estimadores. Haremos la comparacion para
el modelo de tasa de fallo proporcional, con distribucion de
fallo y censura exponenciales.
78
Page 87
Eficiencia asintotica
El comportamiento asint6tico del estimador de maxima
verosimilitud Ri, y el de los estimadores Bayesianos R4 y Rs es
el mismo, ya que para los tres casos
Vn (Ri - R) > N (0, X2R2/E Ij ) s H (0, R2/8S)
Para demostrar que son asintoticamente eficientes, vamos a ver
que la varianza de esta distribucion limite alcanza la cota
inferior [g'(9)]2/i , siendo i la informaci6n de Fisher sobre el
parametro 8 en una observacion. En efecto derivando dos veces el
logaritmo de la funcion de verosimilitud
32 log L/ d\2 = - 1/ X2
La informacion de Fisher sobre toda la muestra es
- E ( d2 log L/ 3X2 ) = 1/ X2 E I = 1/ X2 n E Ij
y para una observaci6n
1/ X2 E Ij
como g( \) = exp (- \ ) = R , [g'( X)] 2 = R 2
la cota inferior es por tanto
R2 X2/E Ij
que en el caso de censura exponencial queda R2/88. c.q.d.
Vamos a ver ahora que la eficiencia asintdtica del estimador
limite producto R, y del estimador Bayesiano no parametrico Ra es
79
Page 88
menor que 1. En primer lugar calcularemos la varianza asint6tica
(Var as) de R (que es la misma que la de Ra) utilizando la
formula (2.1.1). Tenemos:
P (X < x, I = 1) = P (W < x, I = 1) = P (W < x) P (X < T)
= 5/8 [1 - exp (-y/S) ]
Por tanto
Var as R(x) = - R2 (x) n
x -2 8 [R(y) (l-G(y))] d - [l-exp(-x/S)]
0 6
- R2(x) n
x 1 exp (2y/S) - exp (-y/S) dy
0 8
1 S - R2 (x) - [exp (x/8) - 1] n 9
Ya vimos que sin perdida de generalidad podiamos tomar x = 1. La
eficiencia asintotica de los estimadores R y Ra es por tanto:
1/n R2/8S ef =
1/n R2 6/8 [exp (1/S)-1] S2 [exp (1/S)-1]
Como S > 0, se tiene que ef < 1, y por tanto los estimadores
limite producto y Bayesiano no parametrico no son asintoticamente
eficientes.
Deficiencia
Para comparar los estimadores Ri, R< y R5 utilizamos el
concepto de deficiencia asint6tica introducido por Hodges y
80
Page 89
Lehmann (1970), ya que como nemos visto los tres son
asintoticamente eficientes.
Supongamos que el error cuadratico medio del estimador A
basado en n observaciones es Vn A, y el de B VnB. Entonces la
deficiencia de B con respecto a A es el numero dn tal que
B A V = V n + dn n
Intuitivamente dn es el numero de observaciones adicionales que
deben obtenerse para conseguir el mismo error cuadratico medio de
ambos estimadores. Cuando n — oo,tenemos la deficiencia
asintotica. En dicho articulo los autores demuestran que si
A a bi V = — + + o (n-(
r + 1> ) n nr nr +!
y
B a b2 V = — + + o (n-<r + 1> ) n nr nr + 1
entonces la deficiencia asintotica de B con respecto a A es
b2 - bi d = BA ar
A la deficiencia asintotica de Ri con respecto a Rj le llamaremos
dij , i,j = 1,4,5.
Teorerna 1
Con la hip6tesis de distribucion de censura exponencial se
81
Page 90
tiene:
p26 4a+2 2a+2pa+4p+l 4a2+16a+7 d4i = + 4p - - +
8 6 8 488
{l-2p+p2)8 4a-4 2a-l~2ap+p a2-a d51 = + 4p _ 4 _ + +
8 8 8 86
(l-2p)8 6 4a+5p 20a+7 Cl54 = - 4 + — + -
8 8 8 488
Demostraci6n
Probaremos solamente la f6rmula d4i porque los calculos de
las restantes deficiencias es an&logo. Tenemos r =1; a = R2/68;
2 p2 3+4p 4a+8 2a+2pa+4p+2 2a2+8a+7 b2 = R
2 ( — + — + + ) 82 82 88 626 8S2 28262
2 3 6 1 7 bi = R2 ( — + + )
82 88 828 882 482S2
p2 4p 4a+2 2a+2pa+4p+l 4a2+16a+7 d41 = 8 8 (— + — - - + ) c . q. d.
S2 88 828 6S2 48282
En las tablas 3.1,3.2 y 3.3 se obtienen los resultados de
d4i, dsI y ds4 respectivamente para diversos valores de los
par£metros. Hemos considerado anteriormente fijo el tiempo de
fallo x = 1 sin perder generalidad, ya que si queremos estimar la
fiabilidad en el tiempo x y la verdadera media es 8, consideramos
82
Page 91
un modelo con media 8X = 8/x. Desde un punto de vista pr£ctico
parece util considerar tiempos de vida correspondientes a
determinados percentiles elegidos. El parametro 8q
correspondiente al tiempo de vida igual al percentil de orden q,
cumple la relacion:
1 - exp (- 1/8) = q
o bien
8 = - 1/ln (1-q)
Tomaremos valores de q = 0.05, 0.5, 0.90 y 0.99 que cubren la
parte de la distribucion con fiabilidad alta (R = 0.95), asl como
la cola de la misma (R = 0.1, 0.01). La proporcion esperada de
observaciones sin censurar se tomara sucesivamente u = E Ij =8/8
= 1, 4/5, 2/3, 1/2, 1/5. Los parametros a priori de los
estimadores Bayesianos se han elegido a = 46, a = 88, a = 28; p =
4 de acuerdo con dos principios: i) La desviacion tipica de la
distribucion a priori debe ser la mitad del valor esperado a
priori; ii) La primera distribucion a priori tiene un valor
esperado igual a la tasa de fallo 1/8, la segunda igual a la
mitad de ella, y la tercera igual al doble de la misma.
Los calculos se han realizado mediante el programa
DEFICIENCIA que adjuntamos en el apendice. El lenguaje utilizado
en este programa y en los restantes ha sidoel Pascal.
En las tablas podemos observar que si la eleccion de los
parametros a priori es perfecta (a = 48, p = 4) el estimador
Bayesiano se comporta mejor que el estimador de maxima
verosimilitud Ri , y que el otro estimador Bayesiano Rs excepto al
83
Page 92
Tabla 3.1 j_ Def iciencia asint6tica d4i
u q
0.05
0.5
0.9
0.99
0.05
0.5
0.9
0.99
0.05
0.5
0.9
0.99
1
- 8.15
- 9.24
- 5.63
15.30
7.44
1.22
- 8.05
- 5.54
-15.33
- 6.15
23.21
80.98
4/5
a = 49
- 10.16
- 11.20
- 5.89
21.42
a = 29
7.33
- 0.13
- 10.91
- 6.63
a = 89
- 15.14
- 3.34
34.17
107.53
2/3
p = 4
- 12.17
- 13.16
- 6.14
27.55
p = 4
7.21
- 1.48
- 13.77
- 7.71
p = 4
- 14.94
- 0.53
45.12
134.08
1/2
- 16.20
- 17.09
- 6.65
39.81
6.98
- 4.18
- 19.50
- 9.88
- 14.55
5.09
67.03
187.17
1/5
- 40.34
- 40.65
- 9.73
113.33
5.61
- 20.37
- 53.83
- 22.88
- 12.23
38.80
198.48
505.74
final de la cola de la distribuci6n (q = 0.99). Las diferencias
son significativas, especialmente en los valores centrales de la
distribution (q = 0.5). Por su parte Rs y Ri tienen un
comportamiento similar, Rs algo mejor en la zona de alta y media
fiabilidad ( q= 0.05, 0.5) y Ri algo mejor en la de baja y muy
baja fiabilidad (q = 0.9, 0.99).
84
Page 93
Tabla 3.2 Deficiencia asintotica dsi
u
0.05
0.5
0.9
0.99
0.05
0.5
0.9
0.99
0.05
0.5
0.9
0.99
1
- 2.85
- 0.92
3.91
10.82
5.26
8.47
16.51
28.03
4.95
4.31
2.70
0.39
4/5
a = 46
- 2.61
- 0.84
3.58
9.91
a = 29
5.52
8.89
17.34
29.43
a = 89
11.13
9.69
6.07
0.89
2/3
p = 4
- 2.37
- 0.77
3.26
9.01
p = 4
5.78
9.31
18.16
30.83
p = 4
17.32
15.07
9.44
1.38
1/2
- 1.90
- 0.61
2.61
7.21
6.31
10.16
19.82
33.63
29.69
25.84
16.18
2.37
1/5
0.95
0.31
- 1.30
- 3.61
9.46
15.24
29.72
50.45
103.92
90.44
56.65
8.19
Si sobreestimamos la tasa de fallo (a = 29, p = 4), el
estimador R4 sigue teniendo un comportamiento muy bueno. Es
significativamente mejor que Ri y Rs en todas las partes de la
distribucion del tiempo de vida excepto en la zona de alta
fiabilidad (q = 0.05) donde es ligeramente peor que Ri y similar
a Rs. A su vez Rs es peor que Ri en todas las zonas de la
distribucion especialmente cuando q aumenta.
Sin embargo si subestimamos la tasa de fallo en la
distribucion a priori (a = 89, p = 4) R4 empeora ostensiblemente.
85
Page 94
Tabla 3. 3 Deficiencja asint6tica d5 4
u q
0.05
0.5
0.9
0.99
0.05
0.5
0.9
0.99
0.05
0.5
0.9
0.99
1
5.30
8.32
9.54
- 4.48
- 2.18
7.25
24.56
33.57
20.28
10.46
- 20.51
- 80.59
4/5
a = 48
7.55
10.36
9.47
- 11.51
a = 26
- 1.81
9.02
28.25
36.05
a = 88
26.27
13.03
- 28.10
-106.64
2/3
p = 4
9.80
12.40
9.40
- 18.54
p = 4
- 1.43
10.79
31.94
38.54
p = 4
32.26
15.60
- 35.68
-132.69
1/2
14.3
16.48
9.26
- 32.60
- 0.68
14.34
39.31
43.51
44.25
20.75
- 50.84
-184.80
1/5
41.28
40.95
8.42
-116.94
3.85
35.61
83.55
73.52
116.16
51.64
-141.83
-497.45
Sigue siendo mejor que Ri y Rs para q = 0.05, y similar para q =
0.5. Pero en la cola de la distribuci6n (q = 0.9, 0.99) es
bastante peor. Por su parte Ri sigue siendo mejor que R5 en todas
las zonas de la distribucion, siendo las diferencias mas grandes
cuando q disminuye.
Finalmente al crecer el numero esperado de observaciones
censuradas, es decir al disminuir u, los valores |d4i|, |ds1j,
Ids4 J crecen significativamente, salvo alguna excepcion. Esto
86
Page 95
quiere decir que a mayor censura suele haber mas diferencias a
favor del estimador que es mejor cuando no hay censura.
De todo lo anterior podemos concluir que el estimador
Bayesiano R4 es el mas recomendable de los tres, siempre que
tengamos la precaucidn de no subestimar la tasa de fallo en la
distribuci6n a priori. Hemos visto que no importa sobreestimar
dicha tasa, pues incluso tomando el doble de su valor, R4 tiene
buen comportamiento. Con la informacion que se suele tener a
priori en muchas aplicaciones reales creemos que no habria
problema para elegir de forma adecuada los parametros. En
concreto senalabamos en la introduccion de este capitulo que una
de las aplicaciones mas interesantes de los estimadores
Bayesianos era cuando se disenan equipos que perfeccionen modelos
existentes anteriormente. Suponemos que el nuevo modelo tendra
mas fiabilidad que el actual; por ello se podrian elegir los
parametros de forma que la media y la varianza de la distribucion
a priori coincidieran con las del modelo actual, ya que de esta
forma no subestimamos la tasa de fallo.
Sesqfo v. Error cuadratico medio con muestras peguenas
Chen, Hollander y Langberg (1982) aplicaron las f6rmulas de
la Esperanza y Varianza del estimador limite—producto R a un
modelo con tiempo de vida exponencial de parametro 1 y
distribucion de censura exponencial de parametro 6. Realizaron
los calculos para los tiempos 0.5, 1 y 2, que corresponden a
percentiles de orden q = 0.3935, 0.6321 y 0.8647 respectivamente.
Consideraron tambien tres valores del parametro B: 0.5, 1 y 2,
87
Page 96
que suponen una proporcion esperada de elementos sin censurar de
u = 2/3, 1/2, y 1/3 respectivamente. Tomaron tamanos de muestra n
= 10, 15 ,20, 25 y 30.
Don Ho Park (1987) aplic6 las f6rmulas correspondientes al
estimador Bayesiano no parametrico Ra al mismo modelo con los
mismos valores de los parametros, y comparo el sesgo y el error
cuadrdtico medio de ambos estimadores.
Para hacer homologables nuestros resultados con los de estos
autores, vamos a comparar tambien el sesgo y el error cuadr&tico
medio de los estimadores Bayesianos R4 y Rs con los de estos dos
estimadores, y tambien con los del estimador de maxima
verosimilitud Ri , para los valores de los parametros elegidos por
ellos, y para tamanos de muestra n = 25 y 30. Los c&lculos, en
los que aplicamos las formulas obtenidas en los apartados 3.5 y
3.6, los nemos realizado con el programa COMPARA que adjuntamos
en el ap^ndice. Los resultados del sesgo, en valor absoluto, de
todos los estimadores estan en la tabla 3.4, y los del error
cuadratico medio en la tabla 3.5.
En cuanto al sesgo podemos decir que para n y u fijos, al
aumentar q aumenta el sesgo de todos los estimadores, pero
fundamentalmente el de R, que se comporta bastante mal en la cola
de la distribucion. Por ello aunque para q = 0.3936, R es
claramente el estimador con menos sesgo, para q = 0.6321 es
similar a otros, y para q = 0.8647 tiene mayor sesgo que los
estimadores parametricos. El estimador Bayesiano no parametrico
Ra es el que tiene mayor sesgo en casi todos los casos. Con una
elecci6n perfecta de los parametros a priori (a = 48), el sesgo
88
Page 97
Tabla 3.4: Valor del |sesao| de diferentes estimadores de R
R4 Rs
q u n R Ra Ri a=49 a=28 a=88 a=48 a=26 a=86
3935 1/3 25 .0004 .0563 .0027 .0050 .0452 .0268 .0110 .0447 .0437
30 .0001 .0469 .0023 .0043 .0407 .0397 .0097 .0390 .0527
1/2 25 .0000 .0208 .0059 .0023 .0375 .0469 .0065 .0357 .0560
30 .0000 .0174 .0049 .0016 .0328 .0461 .0054 .0307 .0532
2/3 25 .0000 .0090 .0075 .0002 .0324 .0446 .0030 .0055 .0505
30 .0000 .0075 .0063 .0006 .0280 .0406 .0023 .0261 .0454
6321 1/3 25 .0601 .1466 .0080 .0109 .0386 .0462 .0027 .0626 .0698
30 .0447 .1306 .0066 .0116 .0349 .0607 .0029 .0547 .0740
1/2 25 .0027 .0464 .0005 .0100 .0324 .0665 .0005 .0490 .0711
30 .0012 .0389 .0003 .0090 .0286 .0646 .0003 .0422 .0657
2/3 25 .0001 .0171 .0033 .0067 .0286 .0614 .0020 .0413 .0607
30 .0000 .0142 .0028 .0057 .0250 .0559 .0019 .0353 .0539
8647 1/3 25 .1125 .1211 .0221 .0156 .0156 .0780 .0130 .0520 .0650
30 .1096 .1194 .0183 .0183 .0123 .0797 .0105 .0466 .0616
1/2 25 .0458 .0710 .0110 .0173 .0104 .0728 .0098 .0410 .0525
30 .0398 .0662 .0091 .0165 .0087 .0671 .0083 .0360 .0470
2/3 25 .0290 .0290 .0055 .0143 .0091 .0611 .0091 .0344 .0416
30 .0254 .0254 .0046 .0129 .0078 .0544 .0078 .0299 .0364
de los estimadores R4 y Rs es similar al de Ri. Sin embargo si
sobreestimamos (a = 26) o subestimamos (a = 88) la tasa de fallo,
el sesgo aumenta significativamente, y por tanto es mayor que el
de Ri . Finalmente senalaremos que al aumentar el tamafio de la
muestra y/o la proporcion de observaciones sin censurar,
89
Page 98
Tabla 3.5: Valor del error cuadr^tico medio de estimadores de R
R4 Rs
q u n R Ra Ri a=48 a=28 a = 88 a=46 a=28 a=89
3935 1/3 25 .0184
30 .0150
1/2 25 .0129
30 .0107
2/3 25 .0110
30 .0092
6321 1/3 25 .0586
30 .0485
1/2 25 .0200
30 .0160
2/3 25 .0130
30 .0107
8647 1/3 25 .0224
30 .0222
1/2 25 .0206
30 .0187
2/3 25 .0114
30 .0095
Nota: Los estimadores comparados son:
R: limite-produto
Ra: Bayesiano no parametrico
Ri: Maxima verosimilitud
R4, Rs: Bayesianos parametricos
0204
0164
0130
0107
0110
0091
0502
0429
0191
0157
0127
0105
0182
0179
0139
0128
0088
0075
.0112
.0093
.0076
.0063
.0058
.0048
.0162
.0135
.0106
.0089
.0079
.0066
.0112
.0090
.0063
.0052
.0044
.0036
.0001
.0016
.0026
.0028
.0029
.0028
.0000
.0023
.0033
.0038
.0038
.0037
.0039
.0041
.0032
.0031
.0026
.0024
.0066
.0063
.0063
.0055
.0055
.0046
.0040
.0052
.0060
.0058
.0058
.0052
.0011
.0019
.0021
.0023
.0021
.0021
.0080
.0030
.0001
.0017
.0018
.0023
.0032
.0023
.0042
.0055
.0049
.0050
.0153
.0140
.0101
.0086
.0068
.0057
.0109
.0091
.0073
.0061
.0055
.0046
.0161
.0135
.0106
.0089
.0079
.0066
.0115
.0092
.0068
.0055
.0048
.0039
.0146
.0118
.0097
.0078
.0073
.0059
.0227
.0183
.0147
.0119
.0109
.0088
.0155
.0123
.0093
.0074
.0066
.0052
.0092
.0094
.0081
.0073
.0063
.0054
.0158
.0153
.0122
.0108
.0090
.0077
.0128
.0110
.0076
.0064
.0050
.0042
90
Page 99
disminuye el sesgo de todos los estimadores, aunque en mayor
proporcion el de los estimadores no parametricos.
En cuanto al error cuadratico medio la conclusidn principal
es que es muy superior en los estimadores no parametricos E y Ra
para todos los valores de q, u y n. Es superior incluso al de los
estimadores Bayesianos con una elecci6n inadecuada de los
parametros de la distribuci6n a priori. La comparacion de los
estimadores parametricos entre si confirma todo lo que nemos
dicho anteriormente al compararlos mediante el concepto de
deficiencia asintotica.
Podemos concluir por tanto que siempre que se ajusten los
datos del tiempo de vida a una distribucion exponencial son
mejores los estimadores parametricos.
91
Page 100
4.- SIMULACION
4.1.- Robustez de los estiraadores frente a la distribucidn de
censura supuesta.
En el modelo de tasa de fallo proporcional que nemos
supuesto para deducir las f6rmulas de la Esperanza, Varianza y
Error cuadratico medio de los estimadores Bayesianos R4 y R5, la
distribucion de censura seguia el modelo exponencial. Queremos
estudiar la validez de estas formulas cuando la distribucion de
censura es Weibull, que como nemos visto anteriormente es un
modelo m£s general que permite tasas de fallo crecientes y
decrecientes, y que tiene como caso particular a la distribucion
exponencial. El estudio de la robustez lo vamos a hacer tambien
para el estimador de maxima verosimilitud, cuyas formulas fueron
obtenidas por Hurt (1986) para el mismo modelo.
Con distribuci6n de censura Weibull no esposible obtener
analiticamente formulas para la Esperanza, Varianza y Error
cuadrdtico medio de los estimadores, por lo que las calcularemos
mediante simulaci6n para diversos valores de los par&metros.
Diseno de la simulaci6n
Como indic^bamos al estudiar la deficiencia, es util desde
un punto de vista practico considerar tiempos de fallo
correspondientes a determinados percentiles elegidos. Dado el
percentil q, el parametro 6 de la distribuci6n exponencial cumple
la relacidn
92
Page 101
9 = -l/ln (1-q)
Tomaremos valores de q = 0.05, 0.5 y 0.95 que cubren las partes
de la distribuci6n con alta, media y baja fiabilidad
respectivamente. La distribuci6n de censura es Weibull de
pardmetros k6 y 13 respectivamente, esto es:
G(t) = 1 - exp (- t/k9)B t > 0
Utilizamos cuatro valores para el parametro de forma de esta
distribuci6n: 13 = 0.5, 1, 1.5y2 que corresponden a tasas de
fallo decreciente, constante (distribuci6n exponencial) y
crecientes respectivamente. La proporci6n esperada de
observaciones sin censurar se ha tornado sucesivamente u = 1/5,
1/2, 2/3, y 4/5. Para obtener estas proporciones hay que calcular
la integral
1 f» B u = E Ij = — exp (- x/8) exp (- x/k9 ) dx
e Jo
Para B = 1 se tiene que u = k/(k+l), y por tanto k = u/(l-u).
Para B $ 1, u hay que calcularlo por integraci6n numerica. Para
cada valor de 8 hemos aplicado el metodo de Gauss-Laguerre, y la
ecuacion resultante la hemos resuelto para los valores de u
indicados anteriormente, obteniendo el parametro k
correspondiente. Estos calculos los hemos realizado mediante el
programa ecuaci6n que adjuntamos en el ap^ndice.
Se nan tornado tamanos muestrales n = 30, 50. Los parametros
de la distribucion a priori de los estimadores Bayesianos se han
93
Page 102
elegido a = 46, a = 28, a = 88; p = 4 de acuerdo con los dos
principios que indic&bamos al estudiar la deficiencia.
Para cada combinacion de las diferentes especificaciones el
numero de replicas ha sido de 400. Como consecuencia del teorema
central del limite, observamos que el error maximo al 95% en el
c^lculo de la esperanza de Ri es de 0.014, en el de la esperanza
de Rs de 0.010 y en el de la esperanza de R4, de 0.0089, aunque
en la gran mayoria de los c&lculos el error es bastante mas
pequeno. El error maximo en el calculo de la varianza no lo
sabemos con exactitud, puesto que no nemos calculado la varianza
de la varianza. No obstante creemos que debe ser bastante m&s
bajo que para la esperanza. Esto lo comprobamos en parte al hacer
las ejecuciones, ya que la varianza de Ri la calculamos tres
veces con los mismos parametros (al variar los parametros a
priori que no afectan a Ri ) y casi siempre coinciden los tres
primeros decimales, y en la mayoria de los casos los cuatro
primeros.
El estudio se ha realizado con el programa SIMULA que
adjuntamos en el apendice. Comentaremos brevemente los distintos
modulos que lo componen: El primer procedimiento IW Simula
tiempos de vida exponenciales Xj , y tiempos de censura con
distribuci6n de Weibull Tj, y calcula los valores de yo = Ii +
(Xj < Tj ). Se parte como siempre de un generador de numeros
aleatorios de la distribuci6n uniforme [0,1].
Los procedimientos RI, R4 y R5 calculan respectivamente la
esperanza, varianza y error cuadrdtico medio de los estimadores
Ri, R4 y Rs. El programa principal lee los datos de entrada,
94
Page 103
explicando el significado de cada una de las variables. A
continuacion llama m (niimero de replicas, en nuestro caso 400)
veces al procedimiento IW, generando los vectores i = (Ii , ...
Im ) y w =' (Wi , .. , Wm ) donde cada Ij = y0 = Iji + . . . + Ijn y
cada Wj = v0 = Wj 1 + ... + Wjn. Finalmente el programa llama a
los procedimientos Rl, R4 y R5 que utilizan los vectores i, w
como parametros de entrada.
Con las diversas combinaciones de parametros de entrada se
han realizado 288 ejecuciones. En cada una de ellas se han
generado 24000 0 40000 numeros aleatorios, segun el tamano de la
muestra fuera de n = 30 6 n = 50. En el primer caso el tiempo de
ejecucion era aproximadamente de 7 minutos y en el segundo de 10
minutos, por lo que es factible mejorar la precision de los
resultados aumentando el niimero de replicas. Los resultados,
recogidos en las tablas 4.1 a 4.8 ocupan mas de 120 hojas de
papel continuo, por lo que solamente adjunto en el apendice una
pequena parte de las mismas.
Nota: Al escribir en las tablas los valores de la varianza y
el error cuadratico medio se ha omitido el punto decimal por
razones de espacio.
Conclusiones
La conclusion principal deducida de los resultados obtenidos
por la simulacion es que los estimadores Ri , R4 y Rs son muy
robustos frente a los cambios en la supuesta distribuci6n de
censura. Los valores de la esperanza, la varianza y el error
95
Page 104
Tabla 4.1: Momentos de los estimadores con J3 = 0.5 y n = 30
q
u
E Ri
Varl
ECM1
E R4
Var4
ECM4
E Rs
Var5
ECM5
E R4
Var4
ECM4
E Rs
Var5
ECM5
E R4
Var4
ECM4
E Rs
Var5
ECM5
0.05
0.2 0.5 2/3 0.8
0.5
0.2 0.5 2/3 0.8
0.95
0.2 0.5 2/3 0.8
a = 49 p = 4
.947 .947 .947 .949
0004 0002 0001 0001
0004 0002 0001 0001
.949 .948 .948 .949
0001 0001 0001 0001
0001 0001 0001 0001
.953 .951 .950 .951
0001 0001 0001 0001
0001 0001 0001 0001
.497 .491 .497 .490
0163 0081 0059 0048
0163 0082 0059 0049
.509 .500 .503 .496
0061 0049 0039 0034
0061 0049 0039 0034
.509 .500 .503 .496
0074 0055 0043 0037
0074 0055 0043 0037
.075 .058 .055 .053
0063 0015 0013 0009
0068 0016 0014 0009
.080 .067 .062 .060
0023 0011 0010 0007
0032 0014 0012 0008
.033 .041 .042 .042
0012 0008 0008 0006
0015 0009 0009 0006
a = 29 p = 4
.937 .943 .943 .945
0003 0001 0001 0001
0004 0002 0002 0001
.942 .946 .946 .947
0002 0001 0001 0001
0003 0001 0001 0001
.435 .464 .471 .471
0072 0063 0048 0042
0115 0076 0056 0051
.426 .461 .469 .469
0090 0072 0053 0046
0146 0087 0062 0056
.051 .051 .051 .051
0014 0010 0008 0007
0014 0010 0008 0007
.014 .027 .032 .034
0005 0007 0006 0006
0017 0012 0009 0008
a = 89 p = 4
.963 .958 .956 .955
0001 0001 0000 0001
0002 0001 0001 0001
.966 .960 .958 .956
0001 0001 0000 0000
0003 0002 0001 0001
.603 .557 .549 .550
0043 0031 0030 0025
0150 0063 0054 0050
.611 .559 .550 .551
0050 0034 0033 0027
0173 0068 0058 0053
.141 .103 .091 .085
0035 0018 0012 0009
0118 0045 0028 0021
.090 .074 .068 .065
0030 0015 0011 0008
0047 0021 0014 0011
96
Page 105
Tabla 4.2: Momentos de los estimadores con 13 - 1 y n = 30
q
u
E Ri
Varl
ECM1
E R4
Var4
ECM4
E Rs
Var5
ECM5
E R4
Var4
ECM4
E R5
Var5
ECM5
E R4
Var4
ECM4
E Rs
Var5
ECM5
0.05
0.2 0.5 2/3 0.8
0.5
0.2 0.5 2/3 0.8
0.95
0.2 0.5 2/3 0.8
a = 40 p = 4
.950 .948 .949 .949
0004 0001 0001 0001
0004 0002 0001 0001
.951 .949 .949 .949
0001 0001 0001 0001
0001 0001 0001 0001
.955 .951 .951 .951
0001 0001 0001 0001
0002 0001 0001 0001
.508 .496 .496 .495
0211 0084 0060 0052
0212 0084 0060 0052
.514 .504 .503 .501
00.71 0051 0040 0037
0073 0051 0040 0037
.515 .503 .502 .500
0088 0057 0044 0040
0090 0057 0044 0040
.084 .061 .055 .042
0096 0022 0013 0010
0108 0023 0013 0010
.085 .069 .062 .061
0025 0014 0010 0008
0037 0018 0011 0009
.033 .042 .041 .043
0012 0010 0008 0007
0015 0011 0008 0007
a = 29 p = 4
.937 .943 .944 .945
0003 0001 0001 0001
0004 0002 0002 0001
.943 .945 .946 .947
0003 0001 0001 0001
0003 0002 0001 0001
.435 .466 .471 .474
0083 0061 0048 0037
0125 0072 0057 0044
.426 .463 .469 .472
0105 0069 0053 0040
0160 0082 0063 0048
.051 .052 .050 .053
0014 0010 0008 0006
0014 0010 0008 0006
.014 .028 .031 .035
0004 0006 0005 0005
0017 0011 0009 0007
a = 89 p = 4
.964 .958 .956 .955
0001 0001 0000 0000
0003 0001 0001 0001
.967 .960 .958 .956
0001 0001 0000 0000
0004 0002 0001 0001
.614 .571 .555 .544
0046 0033 0033 0027
0176 0085 0063 0046
.623 .574 .557 .550
0055 0037 0035 0029
0206 0092 0068 0049
.162 .102 .091 .085
0044 0017 0012 0010
0169 0044 0029 0022
.106 .072 .068 .065
0038 0015 0011 0009
0070 0020 0014 0011
97
Page 106
Tabla 4.3: Momentos de los estimadores con J3 = 1.5 y n = 30
q
u
E Ri
Varl
ECM1
E R4
Var4
ECM4
E Rs
Var5
ECM5
E R4
Var4
ECM4
E Rs
Var5
ECM5
E R4
Var4
ECM4
E Rs
Var5
ECM5
0.05
0.2 0.5 2/3 0.8
0.5
0.2 0.5 2/3 0.8
0.95
0.2 0.5 2/3 0.8
a = 46 p = 4
.950 .949 .948 .949
0003 0002 0001 0001
0003 0002 0001 0001
.951 .949 .948 .949
0001 0001 0001 0001
0001 0001 0001 0001
.954 .952 .950 .951
0001 0001 0001 0001
0001 0001 0001 0001
.508 .500 .496 .496
0161 0092 0061 0054
0162 0092 0061 0054
.514 .507 .502 .502
0066 0055 0041 0039
0068 0055 0041 0039
.514 .506 .501 .501
0080 0061 0044 0042
0082 0062 0045 0042
.080 .064 .053 .055
0061 0025 0010 0010
0061 0025 0010 0010
.084 .071 .061 .061
0022 0016 0008 0008
0033 0020 0009 0009
.037 .043 .039 .043
0011 0011 0006 0006
0012 0011 0007 0007
a = 26 p = 4
.939 .943 .944 .945
0002 0001 0001 0001
0003 0002 0002 0001
.944 .945 .946 .947
0002 0001 0001 0001
0003 0002 0001 0001
.443 .460 .476 .477
0076 0059 0048 0040
0108 0075 0053 0045
.436 .457 .474 .475
0092 0067 0052 0043
0133 0086 0059 0049
.055 .054 .048 .051
0014 0012 0007 0007
0014 0012 0007 0007
.016 .028 .029 .034
0004 0007 0004 0005
0015 0012 0009 0008
a = 86 p = 4
.962 .958 .956 .955
0001 0001 0001 0000
0002 0001 0001 0001
.965 .960 .958 .957
0001 0001 0000 0000
0003 0002 0001 0001
.611 .573 .552 .541
0043 0040 0029 0024
0165 0093 0056 0040
.618 .576 .553 .542
0050 0045 0031 0025
0189 0102 0060 0043
.139 .109 .093 .082
0042 0023 0013 0010
0121 0058 0031 0021
.093 .078 .070 .063
0036 0019 0011 0009
0055 0027 0015 0011
98
Page 107
Tabla 4.4: Momentos de los estimadores con 13. = 2 v n = 30
q
u
E Ri
Varl
ECM1
E R4
Var4
ECM4
E Rs
Var5
ECM5
E R4
Var4
ECM4
E Rs
Var5
ECM5
E R4
Var4
ECM4
E Rs
Var5
ECM5
0.05
0.2 0.5 2/3 0.8
0.5
0.2 0.5 2/3 0.8
0.95
0.2 0.5 2/3 0.8
a = 48 p = 4
.950 .949 .948 .949
0003 0002 0001 0001
0003 0002 0001 0001
.950 .950 .948 .949
0001 0001 0001 0001
0001 0001 0001 0001
.954 .952 .950 .951
0001 0001 0001 0001
0001 0001 0001 0001
.501 .503 .496 .490
0160 0084 0061 0044
0160 0084 0061 0045
.509 .509 .502 .496
0069 0048 0041 0031
0070 0049 0041 0031
.509 .509 .502 .496
0083 0054 0044 0034
0083 0055 0044 0034
.077 .067 .053 .055
0050 0031 0011 0011
0057 0034 0011 0011
.082 .073 .061 .062
0020 0018 0008 0009
0031 0024 0010 0010
.038 .043 .040 .044
0010 0012 0006 0007
0012 0013 0007 0007
a = 28 p = 4
.939 .943 .944 .945
0002 0001 0001 0001
0003 0002 0001 0001
.944 .946 .946 .947
0002 0001 0001 0001
0002 0002 0001 0001
.449 .465 .476 .471
0078 0060 0045 0042
0100 0072 0051 0050
.443 .462 .474 .469
0088 0068 0050 0045
0121 0082 0056 0055
.052 .054 .051 .051
0013 0011 0009 0007
0013 0011 0009 0007
.016 .026 .031 .034
0004 0006 0006 0005
0015 0011 0010 0008
a = 89 p = 4
.962 .960 .957 .955
0001 0001 0001 0000
0002 0002 0001 0001
.966 .962 .958 .957
0001 0001 0001 0000
0003 0002 0001 0001
.600 .582 .556 .544
0043 0045 0034 0024
0143 0113 0065 0044
.607 .586 .558 .545
0050 0050 0037 0026
0164 0124 0070 0046
.141 .108 .094 .086
0041 0020 0015 0010
0124 0054 0034 0023
.095 .076 .070 .066
0037 0016 0013 0009
0057 0023 0017 0011
99
Page 108
Tabla 4.5: Momentos de los estimadores con j3 =. 0.5 y n = 50
0.05
0.2 0.5 2/3 0.8
0.5
0.2 0.5 2/3 0.8
0.95
0.2 0.5 2/3 0.8
a = 46 p = 4
.948
0002
0003
949
0001
0001
.952
0001
0001
.948
0001
0001
.949
0001
0001
.950
0001
0001
.949
0001
0001
.949
0001
0001
.951
0001
0001
.949
0001
0001
.499 .493
0111 0042
0111 0042
949 j 506 .499
0001
0001
.951
0001
0001
0057 0031
0057 0031
.506 .498
0066 0033
0066 0033
.497
0036
0036
501
0028
0028
.501
0030
0030
.496
0027
0027
499 j
0022
0022
.499
0023
0023
.066
0037
0040
073
0018
0023
.039
0011
0012
.053
0009
0009
060
0008
0008
.042
0006
0007
.054
0007
0007
059
0006
0007
.046
0005
0006
.052
0005
0005
057
0005
0005
.045
0004
0004
a = 29 p = 4
.941 .945 .946
0002 0001 0001
0003 0001 0001
.944 .947 .948
0002 0001 0001
0002 0001 0001
.947
0001
0001
.948
0001
0001
.455 .480
0065 0038
0085 0042
.451 .478
0075 0041
0100 0045
.482
0030
0033
.481
0032
0035
.480
0028
0032
.479
0029
0034
.051 .052 .051 .049
0012 0007 0005 0005
0012 0007 0005 0005
.022 .036 .038 .038
0006 0005 0004 0004
0014 0007 0006 0006
a = 86 p = 4
.960 .955 .954 .954
0001 0000 0000 0000
0002 0001 0001 0000
.962 .956 .955 .954
0001 Q000 0000 0000
0002 0001 0001 0001
.580 .547
0039 0026
0102 0048
.583 .548
0044 0027
0114 0050
.536
0021
0034
.536
0022
0035
.527
0020
0027
.527
0021
0028
.116 .085 .075 .070
0026 0011 0007 0006
0070 0023 0013 0010
.080 .066 .060 .058
0022 0010 0007 0005
0031 0013 0008 0006
100
Page 109
Tabla 4.6: Momentos de los estimadores con B = 1 v n = 50
q
u
E Ri
Varl
ECM1
E R4
Var4
ECM4
E Rs
Var5
ECM5
E R4
Var4
ECM4
E Rs
Var5
ECM5
E R4
Var4
ECM4
E Rs
Var5
ECM5
0.05
0.2 0.5 2/3 0.8
0.5
0.2 0.5 2/3 0.8
0.95
0.2 0.5 2/3 0.8
a a 48 p = 4
.950 .949 .949 .949
0002 0001 0001 0001
0002 0001 0001 0001
.950 .949 .949 .949
0001 0001 0001 0001
0001 0001 0001 0001
.953 .951 .951 .950
0001 0001 0001 0001
0001 0001 0001 0001
.494 .503 .499 .497
0114 0048 0037 0034
0114 0048 0037 0035
.503 .507 .503 .500
0056 0035 0029 0028
0056 0036 0029 0028
.503 .507 .502 .500
0065 0038 0031 0029
0066 0038 0031 0029
.077 .057 .056 .052
0076 0010 0008 0005
0084 0011 0009 0005
.081 .064 .061 .057
0028 0008 0007 0005
0037 0010 0008 0005
.042 .046 .047 .045
0020 0007 0006 0004
0020 0007 0006 0004
a = 28 p = 4
.941 .945 .946 .947
0002 0001 0001 0001
0003 0001 0001 0001
.944 .948 .948 .948
0002 0001 0001 0001
0002 0001 0001 0001
.452 .478 .479 .483
0062 0042 0036 0023
0085 0047 0040 0026
.447 .476 .478 .482
0073 0045 0038 0024
0101 0051 0043 0027
.054 .053 .051 .049
0013 0008 0006 0004
0014 0008 0006 0004
.021 .036 .038 .038
0005 0006 0005 0004
0014 0008 0006 0005
a = 88 p = 4
.961 .956 .955 .954
0001 0001 0000 0000
0002 0001 0001 0000
.962 .957 .956 .955
0001 0001 0000 0000
0002 0001 0001 0001
.591 .547 .539 .524
0046 0028 0024 0027
0128 0051 0039 0028
.595 .549 .539 .528
0052 0030 0026 0018
0144 0054 0041 0026
.130 .084 .075 .074
0037 0010 0007 0006
0100 0021 0013 0011
.090 .065 .060 .061
0031 0008 0006 0005
0047 0011 0007 0006
101
Page 110
Tabla 4.7: Momentos de los estimadores con 6. = 1.5 y n = 50
q
u
E Ri
Varl
ECM1
E R4
Var4
ECM4
E Rs
Var5
ECM5
E R4
Var4
ECM4
E Rs
Var5
ECM5
E R4
Var4
ECM4
E Rs
Var5
ECM5
0.05
0.2 0.5 2/3 0.8
0.5
0.2 0.5 2/3 0.8
0.95
0.2 0.5 2/3 0.8
a = 49 p = 4
.950 .949 .950 .949
0002 0001 0001 0001
0002 0001 0001 0001
.950 .949 .950 .949
0001 0001 0001 0000
0001 0001 0001 0000
.953 .951 .951 .950
0001 0001 0001 0000
0001 0001 0001 0000
.510 .498 .501 .497
0091 0050 0037 0027
0092 0050 0037 0027
.514 .502 .505 .500
0051 0036 0029 0022
0053 0036 0029 0022
.514 .502 .504 .500
0058 0039 0031 0023
0060 0039 0031 0023
.064 .060 .053 .051
0030 0013 0007 0006
0032 0014 0007 0006
.071 .066 .059 .056
0017 0010 0006 0005
0022 0013 0006 0006
.040 .047 .045 .044
0011 0008 0005 0005
0012 0008 0005 0005
a = 29 p = 4
.943 .946 .946 .946
0002 0001 0001 0001
0002 0001 0001 0001
.946 .948 .948 .947
0002 0001 0001 0001
0002 0001 0001 0001
.462 .484 .482 .480
0060 0040 0027 0027
0075 0043 0030 0030
.458 .482 .481 .479
0069 0043 0029 0028
0086 0046 0032 0032
.055 .053 .050 .052
0014 0008 0005 0005
0014 0009 0005 0005
.026 .035 .037 .041
0007 0006 0004 0004
0013 0008 0006 0005
a = 89 p = 4
.960 .955 .955 .954
0001 0001 0000 0000
0001 0001 0001 0001
.962 .957 .956 .955
0001 0001 0000 0000
0002 0001 0001 0001
.578 .551 .536 .526
0044 0029 0024 0020
0105 0056 0037 0027
.582 .552 .537 .526
0049 0031 0025 0021
0116 0059 0039 0028
.111 .082 .079 .071
0026 0011 0010 0006
0063 0021 0018 0011
.078 .062 .064 .058
0021 0009 0009 0006
0029 0010 0011 0007
102
Page 111
Tabla 4.8,: Momentos de los estimadores con 13 = 2 y n = 50
q
u
E Ri
Varl
ECM1
E R4
Var4
ECM4
E Rs
Var5
ECM5
E R4
Var4
ECM4
E Rs
Var5
ECM5
E R4
Var4
ECM4
E Rs
Var5
ECM5
0.05
0.2 0.5 2/3 0.8
0.5
0.2 0.5 2/3 0.8
0.95
0.2 0.5 2/3 0.8
a => 48 p = 4
.950 .949 .950 .949
0002 0001 0001 0001
0002 0001 0001 0001
.950 .949 .950 .949
0001 0001 0001 0000
0001 0001 0001 0000
.953 .951 .951 .950
0001 0001 0001 0000
0001 0001 0001 0000
.508 .499 .501 .497
0085 0052 0037 0028
0086 0052 0037 0028
.512 .504 .505 .500
0049 0037 0028 0023
0051 0037 0029 0023
.512 .503 .504 .500
0056 0040 0030 0024
0057 0040 0030 0024
.067 .057 .056 .053
0025 0013 0008 0006
0028 0014 0008 0006
.073 .064 .061 .057
0015 0010 0007 0005
0021 0012 0008 0006
.043 .044 .047 .046
0009 0008 0006 0005
0010 0008 0006 0005
a = 28 p = 4
.943 .946 .946 .946
0001 0001 0001 0001
0002 0001 0001 0001
.946 .948 .948 .947
0001 0001 0001 0001
0002 0001 0001 0001
.464 .482 .482 .480
0057 0042 0027 0026
0070 0045 0031 0030
.461 .460 .481 .479
0060 0045 0029 0028
0080 0049 0033 0032
.053 .055 .051 .049
0012 0009 0005 0005
0012 0009 0005 0005
.026 .035 .037 .038
0007 0006 0004 0004
0012 0008 0006 0005
a = 89 p = 4
.959 .957 .954 .953
0001 0001 0000 0000
0001 0001 0001 0000
.961 .958 .955 .954
0001 0000 0000 0000
0002 0001 0001 0001
.573 .544 .539 .528
0043 0030 0026 0021
0097 0050 0041 0029
.576 .545 .540 .529
0048 0032 0027 0022
0107 0053 0043 0030
.111 .092 .077 .070
0027 0014 0008 0006
0067 0032 0016 0010
.079 .070 .062 .057
0022 0012 0007 0005
0031 0016 0009 0006
103
Page 112
cuadratico medio toman valores similares cuando la distribuci6n
del tiempo de censura es exponencial (6 * 1) y cuando es Weibull
(B = 0.5, 1.5, 2). Esta conclusion es de gran interes pr&ctico
pues al analizar datos reales habrd que centrar la atencion en la
distribucion del tiempo de vida (en nuestro caso verificar
mediante los test correspondientes que es exponencial), dandole
menos importancia al mecanismo de censura. Los estimadores
Bayesianos demuestran ser ligeramente mas robustos que el
estimador de maxima verosimilitud.
Los parametros de la distribucion a priori no influyen en
la robustez de los estimadores Bayesianos. Los cambios en el
valor del parametro 13, apenas influyen en el resultado
, produci^ndose diferencias similares tanto para 13 = 0.5 como
cuando vale 1.5 6 2. El valor de q influye ligeramente,
existiendo mayor robustez en la zona de alta fiabilidad (q =
0.05) y menor en la zona media (q = 0.5). Con respecto al tamano
de la muestra las discrepancias son menores para n = 50 que para
n =30, como era de esperar. Finalmente el parametro que mas
influye en la robustez es la proporcion esperada de elementos sin
censurar. A medida que u crece disminuyen las diferencias en los
valores de la esperanza, la varianza y el error cuadratico medio.
Esto era previsible puesto que al disminuir la proporcion de
elementos censurados, importa menos el mecanismo de censura.
Otras conclusiones que se obtienen de este estudio son las
siguientes: En cuanto al sesgo R4 y R5 son muy sensibles a la
elecci6n de los parametros de la distribucion a priori. Si a = 49
el sesgo es similar para los tres estimadores. Sin embargo si a =
104
Page 113
28 6 a = 80 el sesgo de los estimadores Bayesianos es bastante
mayor. En el primer caso es negativo porque sobreestimamos la
tasa de fallo y en el segundo positivo porque la subestimamos. En
general el sesgo aumenta al aumentar q, y al disminuir u y n.
Con respecto a la varianza R4 y Rs son menos sensibles a la
eleccion de los pardmetros de la distribucion a priori. Con a =
26 apena aumenta la varianza de ambos, aunque con a = 89 aumenta
significativamente. Para a = 49 y a = 28 el error cuadratico de
R4 es bastante menor que el de Ri, en la mayoria de los casos es
menor de la mitad. Es tambi^n claramente menor que el de Rs, que
a su vez se comporta mejor que Ri. Sin embargo para a = 89 los
tres estimadores tienen errores cuadraticos similares, algo
menores los del estimador de maxima verosimilitud Ri. Estos
resultados confirman lo que dijimos al comparar estos estimadores
mediante la deficiencia asintdtica: Que el estimador Bavesiano Ri
es el meior siempre que no subestimemos la tasa de fallo en la
distribucidn a priori; y_ aun en este caso los resultados no son
excesivamente malos.
Como era de esperar, el sesgo y el error cuadr&tico medio
de todos los estimadores disminuyen sensiblemente cuando aumenta
el tamano de la muestra y cuando aumenta la proporcion esperada
de elementos sin censurar. Finalmente diremos que en la zona de
alta fiabilidad todos los estimadores dan comparativamente buenos
resultados, en la zona media se produce el mayor error
cuadratico, y en la zona de baja fiabilidad el mayor sesgo.
105
Page 114
4.2 Intervalos de confianza con muestras p̂ quefias
Para examinar la validez de los intervalos de confianza
basados en la distribuci6n asint6tica de los estimadores cuando
el tamano de la muestra es finito hemos calculado mediante
simulaci6n la proporcion de intervalos de confianza que
contienen el verdadero valor de la fiabilidad, para distintos
valores de los parametros.
Se han utilizado los dos tipos de intervalos de confianza
para cada uno de los estimadores Ri , R4, y R5 vistos en el
apartado 3.8. Se ha elegido el nivel de confianza 1 - a = 0.95.
Los valores de los restantes parametros se han tornado los mismos
que para el estudio de la robustez del apartado 4.1. De hecho el
programa COBERTURA que realiza estos calculos, y que adjuntamos
en el apendice, tiene los mismos datos de entrada que el programa
SIMULA, y ambos los hemos unido en un solo programa para realizar
las ejecuciones (288 en total como indicamos anteriormente). En
cada uno de los seis procedimientos correspondientes a los seis
tipos de intervalos, se generan cada vez 400 intervalos de
confianza, y se calcula la proporcidn de ellos que contienen el
verdadero valor de la fiabilidad R = exp (-1/8). A esta
proporci6n le llamaremos cobertura. Los procedimientos utilizan
como parametros de entrada los vectores I = (Ii , ... , In ) y W =
(Wi, ... , Wm) que se obtienen de forma similar a la indicada en
el programa SIMULA. El numero de replicas (m = 400) hace que la
desviacion tipica en la estimaci6n de la cobertura sea alrededor
de 0.01. Los resultados se recogen en las tablas 4.9 a 4.12.
106
Page 115
Tabla 4.9: Cobertura observada. Censura Weibull con 13 = 0.5
q
u
Ri R i b
R4 R 4 b
R5 Rsb
R4 R 4 b
Rs R 5 b
R4 R 4 b
R5 Rsb
Ri R i b
R4 R 4 b
Rs Rsb
R4 R 4 b
Rs Rsb
R4 R 4 b
Rs Rsb
0 . 2
. 9 3 5
. 9 0 7
. 9 9 9
. 9 4 5
. 7 5 0
. 9 2 7
. 9 9 2
. 9 8 0
. 4 5 2
. 9 7 7
. 9 7 7
. 9 0 7
. 9 3 0
. 8 7 2
. 9 4 7
. 9 2 5
. 9 9 0
. 9 6 5
. 6 9 7
. 9 4 7
. 9 8 0
. 9 3 0
. 4 3 7
. 9 6 0
. 9 5 2
. 9 0 5
. 8 8 2
. 8 8 0
0 .
0 . 5
. 9 5 5
. 9 4 5
. 9 8 7
. 9 6 7
. 7 2 0
. 9 6 5
. 9 6 0
. 9 9 0
. 5 5 7
. 9 8 7
. 9 5 5
. 9 2 2
. 8 7 0
. 8 8 2
. 9 6 2
. 9 5 5
. 9 7 7
. 9 7 5
. 6 8 2
. 9 6 2
. 9 6 5
. 9 1 7
. 5 1 2
. 9 5 2
. 9 6 0
. 9 4 0
. 8 6 2
. 9 1 2
05
2 / 3
. 9 6 7
. 9 6 2
. 9 7 5
. 9 7 7
. 7 3 2
. 9 7 0
. 9 4 2
. 9 7 0
. 5 2 7
. 9 6 5
. 9 4 7
. 9 1 7
. 8 8 5
. 8 9 7
. 9 4 0
. 9 5 7
. 9 7 0
. 9 7 0
. 6 9 0
. 9 6 2
. 9 3 5
. 9 1 2
. 5 4 7
. 9 2 5
. 9 6 0
. 9 4 2
. 8 3 7
. 9 3 2
0 . 8
n=30
. 9 6 5
. 9 4 5
. 9 8 5
. 9 7 0
. 7 1 5
. 9 6 0
n = 30
. 9 6 2
. 9 7 5
. 5 3 2
. 9 6 5
n=30
. 9 5 7
. 9 2 2
. 8 6 7
. 8 9 2
n=50
. 9 3 7
. 9 3 2
. 9 6 0
. 9 5 2
. 6 7 7
. 9 4 0
n=50
. 9 4 0
. 9 1 5
. 5 9 5
. 9 4 5
n=30
. 9 5 5
. 9 4 5
. 8 6 0
. 9 3 0
0 . 2
a = 48
. 9 5 5
. 9 3 2
. 9 9 7
. 9 7 0
. 8 8 7
. 9 6 5
a = 26
. 9 9 7
. 9 9 2
. 6 4 7
. 9 6 2
a = 89
. 9 6 2
. 9 2 5
. 9 3 2
. 9 0 7
a = 49
. 9 4 7
. 9 6 2
. 9 8 5
. 9 8 3
. 8 4 0
. 9 6 7
a = 29
. 9 9 0
. 9 8 5
. 6 3 2
. 9 6 7
a = 89
. 9 5 2
. 9 4 2
. 9 4 2
. 9 2 7
0 . 5
0 . 5 2 / 3
p=4
. 9 3 0 . 9 4 0
. 9 2 0 . 9 4 2
. 9 8 7 . 9 7 0
. 9 6 5 . 9 8 0
. 9 1 5 . 9 3 0
. 9 6 5 . 9 7 7
p=4
. 9 5 0 . 9 4 0
. 9 4 0 . 9 3 2
. 7 7 5 . 8 4 5
. 9 1 7 . 9 1 5
p=4
. 9 7 7 . 9 5 5
. 9 7 2 . 9 5 0
. 9 6 7 . 9 4 7
. 9 6 7 . 9 4 5
P=4
. 9 6 5 . 9 3 8
. 9 5 7 . 9 3 2
. 9 7 7 . 9 7 6
. 9 6 2 . 9 7 1
. 9 0 0 . 8 9 7
. 9 6 5 . 9 6 2
p=4
. 9 5 7 . 9 6 2
. 9 5 2 . 9 6 0
. 8 4 2 . 8 6 0
. 9 4 2 . 9 5 2
p = 4
. 9 5 0 . 9 5 2
. 9 4 5 . 9 4 2
. 9 3 0 . 9 3 7
. 9 3 5 . 9 4 2
0 . 8
. 9 5 5
. 9 5 7
. 9 8 0
. 9 8 2
. 9 5 7
. 9 7 5
. 9 4 7
. 9 4 0
. 8 9 5
. 9 3 0
. 9 4 0
. 9 4 0
. 9 3 7
. 9 3 7
. 9 5 7
. 9 5 0
. 9 8 0
. 9 7 5
. 9 4 7
. 9 7 0
. 9 4 7
. 9 4 5
. 9 6 0
. 9 4 0
. 9 5 7
. 9 5 7
. 9 4 2
. 9 5 5
0 . 2
. 9 6 5
. 8 2 5
. 9 9 5
. 9 9 2
. 8 8 7
. 6 5 0
. 9 9 9
. 9 5 2
. 5 8 7
. 2 5 5
. 9 5 7
. 9 8 2
. 9 8 0
. 9 8 2
. 9 3 8
. 9 0 7
. 9 8 2
. 9 3 2
. 8 9 7
. 8 8 5
. 9 9 9
. 9 7 0
. 6 7 7
. 8 9 9
. 9 1 7
. 9 2 2
. 9 7 0
. 8 9 2
0 .
0 . 5
. 9 5 7
. 8 7 7
. 9 8 5
. 9 9 7
. 9 7 5
. 7 6 5
. 9 8 7
. 9 1 5
. 8 9 7
. 4 8 7
. 9 2 5
. 9 9 0
. 9 6 7
. 9 7 7
. 9 5 5
. 9 4 2
. 9 8 0
. 9 4 2
. 9 8 2
. 8 7 5
. 9 7 2
. 9 7 2
. 9 4 0
. 8 9 2
. 9 1 2
. 9 2 0
. 9 5 5
. 8 7 7
95
2 / 3
. 9 4 2
. 8 6 7
. 9 8 2
. 9 8 2
. 9 9 0
. 7 7 2
. 9 7 7
. 9 0 2
. 9 5 2
. 6 1 0
. 9 2 7
. 9 9 2
. 9 7 7
. 9 6 7
. 9 4 3
. 9 3 8
. 9 7 2
. 9 5 0
. 9 8 5
. 8 7 5
. 9 8 2
. 9 7 0
. 9 8 2
. 8 9 2
. 9 3 2
. 9 2 5
. 9 7 5
. 8 6 7
0 . 8
. 9 6 0
. 9 1 2
. 9 8 0
. 9 7 5
. 9 8 5
. 8 1 7
. 9 6 5
. 9 2 7
. 9 6 7
. 6 2 2
. 9 4 0
. 9 9 5
. 9 8 7
. 9 7 5
. 9 5 1
. 9 5 2
. 9 7 5
. 9 4 5
. 9 9 2
. 8 8 0
. 9 5 5
. 9 6 0
. 9 7 7
. 8 7 7
. 9 5 0
. 9 3 0
. 9 7 7
. 8 6 2
107
Page 116
Tabla 4.10: Cobertura observada. Censura Weibull con j3 = 1
q
u
Ri R i b
R4 R 4 b
Rs Rsb
R4 R4b
Rs Rsb
R4 R 4 b
Rs Rsb
Ri R i b
R4 R 4 b
Rs Rsb
R4 R 4 b
Rs Rsb
R4 R 4 b
Rs Rsb
0 . 2
. 9 0 2
. 8 6 0
. 9 9 7
. 9 2 7
. 7 4 0
. 8 9 7
. 9 8 7
. 9 7 0
. 4 4 0
. 9 3 7
. 9 6 5
. 8 6 2
. 8 9 0
. 8 2 5
. 9 3 0
. 9 0 2
. 9 9 7
. 9 6 2
. 7 3 2
. 9 0 6
. 9 7 5
. 9 2 7
. 4 5 7
. 9 6 0
. 9 3 5
. 9 2 5
. 8 4 0
. 8 3 0
0 .
0 . 5
. 9 5 5
. 9 4 2
. 9 9 2
. 9 6 2
. 7 0 2
. 9 5 2
. 9 7 2
. 9 8 2
. 4 7 7
. 9 7 5
. 9 2 5
. 8 8 0
. 8 2 7
. 8 5 5
. 9 5 0
. 9 3 5
. 9 6 7
. 9 5 2
. 6 9 0
. 9 5 2
. 9 8 0
. 9 4 0
. 5 4 0
. 9 7 2
. 9 2 2
. 9 1 0
. 7 9 2
. 8 6 2
05
2 / 3
. 9 4 5
. 9 2 7
. 9 6 5
. 9 6 5
. 7 0 0
. 9 4 7
. 9 6 7
. 9 7 0
. 5 2 2
. 9 6 5
. 9 4 5
. 9 1 7
. 8 6 2
. 8 8 7
. 9 5 0
. 9 3 5
. 9 7 0
. 9 5 7
. 6 7 0
. 9 6 0
. 9 3 7
. 9 2 5
. 5 7 2
. 9 3 0
. 9 4 7
. 9 3 5
. 8 3 2
. 8 8 5
0 . 8
n=30
. 9 5 7
. 9 6 0
. 9 7 7
. 9 8 5
. 7 3 7
. 9 7 0
n = 30
. 9 6 5
. 9 9 2
. 5 7 2
. 9 9 0
n=30
. 9 5 0
. 9 3 2
. 8 7 0
. 9 1 0
n = 50
. 9 5 7
. 9 4 2
. 9 7 5
. 9 6 2
. 7 2 0
. 9 6 7
n = 50
. 9 4 7
. 9 3 2
. 6 3 0
. 9 4 5
n=50
. 9 5 7
. 9 4 7
. 8 4 7
. 9 0 1
0 . 2
a = 48
. 9 2 5
. 8 7 7
. 9 9 7
. 9 4 0
. 9 0 5
. 9 3 2
a=26
. 9 9 9
. 9 7 5
. 6 0 0
. 9 5 2
a = 89
. 9 5 5
. 9 0 5
. 9 2 5
. 8 9 7
a = 49
. 9 5 5
. 9 3 0
. 9 9 7
. 9 8 2
. 8 3 5
. 9 3 7
a=26
. 9 9 0
. 9 7 5
. 6 2 2
. 9 4 0
a = 86
. 9 1 7
. 9 2 5
. 8 9 5
. 9 0 3
0 . 5
0 . 5 2 / 3
p=4
. 9 3 5 . 9 3 5
. 9 2 5 . 9 4 2
. 9 8 5 . 9 8 7
. 9 6 0 . 9 6 2
. 9 2 2 . 9 3 5
. 9 5 0 . 9 6 0
p=4
. 9 7 2 . 9 7 0
. 9 6 2 . 9 5 5
. 7 7 2 . 8 4 2
. 9 4 7 . 9 4 5
p=4
. 9 3 0 . 9 4 5
. 9 2 0 . 9 3 2
. 9 1 7 . 9 2 2
. 9 2 0 . 9 2 5
p=4
. 9 4 5 . 9 4 2
. 9 4 2 . 9 3 2
. 9 8 0 . 9 7 2
. 9 8 0 . 9 7 0
. 9 0 7 . 9 2 0
. 9 4 7 . 9 5 4
p=4
. 9 5 0 . 9 3 5
. 9 5 0 . 9 3 0
. 8 0 2 . 8 1 2
. 9 3 7 . 9 2 5
p=4
. 9 3 2 . 9 2 2
. 9 2 7 . 9 1 5
. 9 1 0 . 9 0 5
. 9 2 5 . 9 2 8
0 . 8
. 9 4 0
. 9 3 0
. 9 7 2
. 9 7 2
. 9 3 5
. 9 7 0
. 9 6 7
. 9 6 7
. 8 8 7
. 9 6 0
. 9 4 2
. 9 3 7
. 9 3 0
. 9 3 2
. 9 2 5
. 9 2 2
. 9 6 0
. 9 5 5
. 9 1 2
. 9 5 0
. 9 7 0
. 9 7 0
. 9 0 7
. 9 6 7
. 9 5 5
. 9 3 6
. 9 4 2
. 9 3 4
0 . 2
. 9 3 7
. 8 6 5
. 9 9 0
. 9 8 0
. 9 3 7
. 6 6 2
. 9 9 9
. 9 2 7
. 5 7 7
. 2 5 2
. 9 3 7
. 9 7 2
. 9 7 5
. 9 7 5
. 9 2 7
. 8 7 0
. 9 7 0
. 9 0 2
. 9 1 0
. 8 0 7
. 9 9 9
. 9 2 7
. 6 7 0
. 3 8 5
. 8 6 7
. 8 9 0
. 9 5 0
. 9 7 6
0 .
0 . 5
. 9 4 0
. 8 7 0
. 9 7 2
. 9 8 2 . 9 8 0 . 7 9 2
. 9 7 7
. 9 4 0
. 9 4 0
. 5 5 0
. 9 3 0
. 9 9 2
. 9 6 7
. 9 9 2
. 9 5 0
. 9 2 5
. 9 6 7
. 9 2 5
. 9 8 0
. 8 5 2
. 9 6 5
. 9 1 5
. 9 4 2
. 7 0 7
. 9 2 2
. 9 1 5
. 9 7 5
. 9 7 4
95
2 / 3
. 9 3 0
. 9 0 2
. 9 8 2
. 9 7 2
. 9 9 0
. 7 7 7
. 9 7 5
. 9 0 5
. 9 6 5
. 6 1 0
. 9 2 5
. 9 9 2
. 9 6 7
. 9 8 2
. 9 3 7
. 9 3 5
. 9 6 0
. 9 2 7
. 9 8 0
. 8 6 5
. 9 7 0
. 9 3 2
. 9 8 2
. 7 2 0
. 9 3 0
. 9 1 7
. 9 8 0
. 9 8 3
0 . 8
. 9 5 0
. 8 9 7
. 9 7 7
. 9 8 0
. 9 9 7
. 8 0 2
. 9 7 7
. 9 4 5
. 9 8 5
. 7 1 2
. 9 2 2
. 9 9 7
. 9 8 5
. 9 7 7
. 9 5 0
. 9 4 2
. 9 8 0
. 9 6 0
. 9 9 0
. 8 8 5
. 9 6 7
. 9 1 5
. 9 8 7
. 7 4 7
. 9 2 2
. 9 2 5
. 9 8 2
. 9 8 5
108
Page 117
Tabla 4.11: Cobertura observada. Censura Weibull con J3. = 1.5
q
u
Ri R i b
R4 R 4 b
Rs Rsb
R4 R 4 b
Rs Rsb
R4 R 4 b
Rs Rsb
Ri R i b
R4 R 4 b
Rs Rsb
R4 R 4 b
Rs Rsb
R4 R 4 b
Rs Rsb
0 . 2
. 9 6 0
. 9 0 2
. 9 9 9
. 9 5 7
. 7 7 2
. 9 3 5
. 9 9 7
. 9 7 7
. 4 4 0
. 9 6 5
. 9 7 5
. 8 8 7
. 9 0 2
. 8 5 7
. 9 6 2
. 9 4 2
. 9 9 5
. 9 8 5
. 7 3 0
. 9 4 2
. 9 8 5
. 9 4 7
. 4 8 2
. 9 6 0
. 9 5 7
. 9 9 7
. 8 6 2
. 9 6 7
0 .
0 . 5
. 9 3 7
. 9 1 2
. 9 7 0
. 9 5 2
. 7 2 5
. 9 3 2
. 9 6 7
. 9 7 7
. 5 0 0
. 9 6 2
. 9 2 0
. 8 9 2
. 8 2 2
. 8 4 7
. 9 5 0
. 9 4 0
. 9 7 7
. 9 7 5
. 6 7 2
. 9 3 7
. 9 6 0
. 9 3 5
. 5 3 5
. 9 5 2
. 9 3 2
. 9 7 5
. 8 1 0
. 9 5 2
05
2 / 3
. 9 7 0
. 9 7 2
. 9 8 7
. 9 8 0
. 6 9 2
. 9 7 5
. 9 6 5
. 9 6 7
. 5 1 2
. 9 6 2
. 9 5 0
. 9 2 0
. 8 6 7
. 8 9 7
. 9 4 0
. 9 2 5
. 9 6 5
. 9 5 5
. 7 5 5
. 9 6 8
. 9 4 2
. 9 2 2
. 5 8 7
. 9 3 7
. 9 3 0
. 9 6 7
. 8 0 0
. 9 5 5
0 . 8
n = 30
. 9 5 0
. 9 4 0
. 9 8 0
. 9 6 7
. 7 1 7
. 9 5 2
n=30
. 9 6 5
. 9 9 2
. 5 7 0
. 9 8 7
n = 30
. 9 4 0
. 9 2 5
. 8 7 0
. 9 0 0
n=50
. 9 5 5
. 9 6 2
. 9 8 2
. 9 7 2
. 6 9 2
. 9 5 8
n=50
. 9 4 5
. 9 0 5
. 5 2 5
. 9 3 2
n=50
. 9 3 7
. 9 6 7
. 8 1 7
. 9 5 7
0 . 2
a = 40
. 9 6 5
. 9 2 7
. 9 9 9
. 9 6 5
. 8 9 5
. 9 6 0
a = 29
. 9 9 7
. 9 8 5
. 6 4 7
. 9 7 0
a=86
. 9 8 2
. 9 2 0
. 9 5 2
. 9 0 5
a = 49
. 9 6 2
. 9 5 7
. 9 9 2
. 9 8 6
. 8 7 7
. 9 5 4
a = 26
. 9 9 9
. 9 9 5
. 6 7 7
. 9 6 7
a = 89
. 9 4 7
. 9 8 7
. 9 2 0
. 9 6 0
0 . 5
0 . 5 2 / 3
P=4
. 9 2 5 . 9 4 5
. 9 0 7 . 9 3 0
. 9 7 5 . 9 8 5
. 9 5 0 . 9 7 2
. 8 9 7 . 9 3 7 , 9 4 2 . 9 6 2
p=4
. 9 6 2 . 9 7 0
. 9 5 0 . 9 5 7
. 7 7 0 . 8 6 0
. 9 3 5 . 9 3 7
p=4
. 9 1 7 . 9 5 5
. 9 1 0 . 9 5 5
. 8 9 5 . 9 4 2
. 9 0 2 . 9 4 7
p=4
. 9 5 0 . 9 4 0
. 9 5 0 . 9 3 5
. 9 7 2 . 9 6 2
. 9 8 0 . 9 6 4
. 8 8 5 . 8 9 5
. 9 5 2 . 9 7 1
p=4
. 9 5 5 . 9 7 0
. 9 5 2 . 9 6 7
. 8 2 2 . 8 7 2
. 9 5 0 . 9 6 2
p=4
. 9 0 5 . 9 7 2
. 9 4 7 . 9 5 5
. 8 7 0 . 9 3 0
. 9 2 0 . 9 5 0
0 . 8
. 9 3 2
. 9 2 2
. 9 6 7
. 9 6 2
. 9 3 0
. 9 5 5
. 9 6 5
. 9 6 0
. 8 9 0
. 9 5 2
. 9 6 5
. 9 6 2
. 9 5 5
. 9 5 7
. 9 5 5
. 9 5 7
. 9 8 2
. 9 7 5
. 9 4 2
. 9 5 6
. 9 5 5
. 9 5 5
. 8 6 0
. 9 4 7
. 9 5 7
. 9 6 7
. 9 4 0
. 9 3 0
0 . 2
. 9 6 0
. 9 0 5
. 9 9 7
. 9 9 5
. 9 5 7
. 7 6 0
. 9 9 9
. 9 6 0
. 7 3 0
. 3 2 7
. 9 4 0
. 9 8 0
. 9 7 7
. 9 8 0
. 9 6 5
. 9 1 7
. 9 8 7
. 9 3 7
. 9 3 7
. 7 8 9
. 9 9 0
. 9 7 2
. 7 7 7
. 9 6 0
. 9 3 0
. 7 6 5
. 9 8 0
. 9 1 0
0 .
0 . 5
. 9 3 7
. 8 9 7
. 9 7 2
. 9 6 7
. 9 7 2
. 7 7 7
. 9 7 0
. 9 1 0
. 9 1 2
. 4 9 5
. 8 9 0
. 9 8 5
. 9 6 2
. 9 8 2
. 9 3 2
. 9 1 0
. 9 6 5
. 9 0 7
. 9 6 7
. 7 9 6
. 9 6 0
. 9 4 2
. 9 4 5
. 9 7 0
. 9 1 5
. 8 2 2
. 9 6 5
. 9 1 7
95
2 / 3
. 9 7 0
. 9 0 5
. 9 9 0
. 9 9 0
. 9 9 9
. 7 6 7
. 9 8 7
. 9 2 2
. 9 8 0
. 5 7 7
. 9 1 5
. 9 9 2
. 9 7 7
. 9 8 2
. 9 5 2
. 9 5 0
. 9 7 5
. 9 4 7
. 9 9 7
. 7 8 5
. 9 7 2
. 9 7 7
. 9 8 2
. 9 7 0
. 9 0 2
. 7 6 2
. 9 5 2
. 9 0 0
0 . 8
. 9 5 0
. 9 1 0
. 9 7 7
. 9 8 0
. 9 9 0
. 8 3 5
. 9 8 2
. 9 2 5
. 9 8 7
. 6 3 2
. 9 1 7
. 9 9 2
. 9 6 5
. 9 9 2
. 9 6 0
. 9 4 2
. 9 7 0
. 9 4 0
. 9 8 5
. 8 2 4
. 9 7 5
. 9 6 0
. 9 8 7
. 9 8 5
. 9 3 2
. 8 5 2
. 9 6 7
. 9 3 0
109
Page 118
Tabla 4.12: Cobertura observada. Censura Weibull con 13 = 2
q
u
R i R i b
R4 R 4 b
Rs Rsb
R4 R 4 b
Rs Rsb
R4 R 4 b
Rs Rsb
R i R i b
R4 R 4 b
Rs Rsb
R4 R 4 b
Rs Rab
R4 R 4 b
Rs Rsb
0 . 2
. 9 6 7
. 9 2 2
. 9 9 9
. 9 7 0
. 7 8 5
. 9 3 5
. 9 9 0
. 9 9 0
. 5 0 5
. 9 7 5
. 9 9 0
. 9 1 5
. 9 4 7
. 8 8 7
. 9 7 5
. 9 7 5
. 9 6 5
. 9 9 5
. 7 1 7
. 9 4 2
. 9 9 2
. 9 7 0
. 4 6 7
. 9 7 5
. 9 6 5
. 9 3 5
. 8 6 7
. 8 9 2
0 .
0 . 5
. 9 0 7
. 9 0 5
. 9 7 0
. 9 3 7
. 7 2 0
. 9 2 0
. 9 6 2
. 9 7 2
. 5 2 5
. 9 6 5
. 8 9 7
. 8 4 2
. 7 8 2
. 7 9 0
. 9 4 7
. 9 3 5
. 9 2 5
. 9 7 7
. 6 6 7
. 9 3 0
. 9 5 5
. 9 4 0
. 5 3 0
. 9 5 2
. 9 0 5
. 8 7 2
. 7 9 2
. 8 6 5
05
2 / 3
. 9 6 5
. 9 6 0
. 9 9 2
. 9 8 0
. 7 0 5
. 9 6 7
. 9 5 7
. 9 7 2
. 5 3 5
. 9 7 5
. 9 5 2
. 8 9 5
. 8 2 2
. 8 5 7
. 9 3 0
. 9 3 0
. 9 4 0
. 9 5 2
. 7 2 2
. 9 7 0
. 9 6 0
. 9 4 0
. 5 4 2
. 9 6 5
. 9 4 2
. 8 9 0
. 8 3 0
. 8 7 7
0 . 8
n=30
. 9 4 5
. 9 3 2
. 9 7 5
. 9 6 2
. 7 2 5
. 9 4 5
n = 30
. 9 7 5
. 9 7 0
. 5 4 7
. 9 7 0
n=30
. 9 6 2
. 9 4 5
. 8 9 5
. 9 2 7
n=50
. 9 4 7
. 9 5 2
. 9 5 0
. 9 7 2
. 6 6 7
. 9 5 2
n=50
. 9 5 5
. 9 2 2
. 5 2 2
. 9 4 2
n=50
. 9 6 7
. 9 2 3
. 8 3 7
. 9 3 0
0 . 2
a = 48
. 9 5 2
. 9 3 5
. 9 9 2
. 9 6 0
. 9 0 5
. 9 5 7
a = 29
. 9 9 7
. 9 9 7
. 6 9 0
. 9 7 2
a = 88
. 9 8 2
. 9 4 7
. 9 6 0
. 9 3 7
a = 49
. 9 7 5
. 9 8 5
. 9 6 0
. 9 9 9
. 8 8 7
. 9 6 3
a = 28
. 9 9 0
. 9 8 2
. 6 9 2
. 9 8 0
a = 86
. 9 6 7
. 9 5 7
. 9 4 0
. 9 2 0
0 .
0 . 5
P=
. 9 5 0
. 9 2 5
. 9 8 7
. 9 7 5
. 9 1 5
. 9 7 2
P =
. 9 6 2
. 9 3 7
. 7 9 5
. 9 1 7
P=
. 8 8 7
. 8 7 7
. 8 5 5
. 8 6 5
P=
. 9 4 7
. 9 4 5
. 9 7 3
. 9 8 0
. 8 7 5
. 9 7 2
P=
. 9 6 2
. 9 5 5
. 8 2 2
. 9 5 0
P=
. 9 1 5
. 9 1 5
. 8 9 5
. 9 1 5
5
2 / 3
4
. 9 3 7
. 9 3 5
. 9 7 5
. 9 6 7
. 9 1 0
. 9 6 2
4
. 9 6 2
. 9 5 7
. 8 6 5
. 9 4 7
4
. 9 3 5
. 9 3 0
. 9 2 2
. 9 3 0
4
. 9 3 0
. 9 3 5
. 9 3 5
. 9 7 0
. 9 1 0
. 9 6 2
4
. 9 6 7
. 9 6 5
. 8 7 5
. 9 6 0
:4
. 9 2 0
. 9 4 5
. 9 0 2
. 9 3 0
0 . 8
. 9 6 0
. 9 5 7
. 9 8 2
. 9 8 0
. 9 4 5
. 9 7 5
. 9 7 0
. 9 5 5
. 8 6 7
. 9 3 2
. 9 5 7
. 9 5 7
. 9 5 0
. 9 5 2
. 9 4 7
. 9 5 7
. 9 4 5
. 9 8 0
. 9 3 7
. 9 7 8
. 9 5 7
. 9 5 7
. 8 6 0
. 9 4 7
. 9 4 7
. 9 6 2
. 9 3 7
. 9 5 2
0 . 2
. 9 6 7
. 9 2 2
. 9 9 9
. 9 7 7
. 9 6 2
. 7 9 5
. 9 9 9
. 9 5 7
. 7 3 5
. 3 3 2
. 9 5 7
. 9 7 2
. 9 7 2
. 9 7 2
. 9 7 5
. 9 1 5
. 8 9 5
. 9 4 0
. 9 6 0
. 8 9 2
. 9 9 5
. 9 7 5
. 8 0 2
. 7 8 7
. 9 3 5
. 9 7 7
. 9 7 7
. 8 7 2
0 .
0 . 5
. 9 0 7
. 8 7 2
. 9 5 0
. 9 6 7
. 9 7 2
. 7 7 5
. 9 8 7
. 9 2 2
. 9 0 7
. 4 7 2
. 8 8 0
. 9 8 7
. 9 6 5
. 9 9 7
. 9 4 7
. 8 8 5
. 8 8 5
. 8 8 5
. 9 8 0
. 8 7 0
. 9 6 2
. 9 3 7
. 9 4 0
. 8 3 2
. 8 6 0
. 9 8 2
. 9 4 7
. 8 8 3
95
2 / 3
. 9 6 5
. 8 9 5
. 9 8 7
. 9 9 2
. 9 9 7
. 7 9 0
. 9 7 7
. 9 2 5
. 9 7 2
. 5 9 0
. 8 8 0
. 9 9 5
. 9 5 7
. 9 8 5
. 9 3 0
. 9 2 7
. 9 1 7
. 9 2 5
. 9 8 2
. 8 7 2
. 9 8 5
. 9 7 0
. 9 9 5
. 8 7 8
. 9 1 2
. 9 6 7
. 9 6 0
. 8 8 7
0 . 8
. 9 4 5
. 8 9 2
. 9 7 7
. 9 7 7
. 9 8 7
. 8 3 0
. 9 8 0
. 9 3 2
. 9 8 7
. 8 3 0
. 9 4 0
. 9 9 2
. 9 7 0
. 9 7 7
. 9 4 7
. 9 4 0
. 9 6 5
. 9 3 5
. 9 8 7
. 8 9 7
. 9 6 7
. 9 6 5
. 9 8 0
. 8 9 2
. 9 4 7
. 9 5 8
. 9 8 0
. 9 1 2
110
Page 119
Conclusiones
En primer lugar, Ri y R4 se comportan mejor que Ri(b) y
R4(b). La causa es que la varianza asintotica de la
transformaci6n log (-log) de Ri y R4 (aplicada por nosotros en
esta tesis) no depende del parametro desconocido 8. Es un hecho
empirico, confirmado en este estudio, que transformando un
estimador para eliminar la dependencia de la varianza en el
parametro desconocido se tiende a mejorar la convergencia a la
normalidad por reducirse el sesgo.
R5 y R5(b) son bastante sensibles a la eleccion de los
parametros de la distribucion a priori y fundamentalmente a la
eleccion de los percentiles. A medida que q se incrementa los
efectos sobre R5 y R5(b) son opuestos. Asi para a = 28 y a = 48
los resultados de R5 son mejores si q = 0.95 y peores si q = 0.05
6 0.5; pero para a = 88 se comportan casi igual.
El intervalo Ri da una cobertura ligeramente menor que 0.95.
Sin embargo R4 da una cobertura mayor que 0.95 excepto para a =
88 . Por tanto R4 tiene un comportamiento superior a Ri excepto
para a = 88 que es similar. A la vista de los resultados
recogidos en las tablas podemos concluir que con el intervalo de
confianza R4 se obtienen excelentes resultados si la eleccion de
los parametros a priori es perfecta (a = 48); buenos resultados
si sobreestimamos la tasa de fallo (a = 28), y peores resultados
(aunque no muy malos) si subestimamos la misma (a = 88).
En casi todos los casos (excepto para q = 0.95 y a = 88 a la
vez) R4 se comporta mejor que R5 y Rs(b). En algunos casos R5 y
R5(b) dan una cobertura muy baja, por lo que no se recomienda se
111
Page 120
utilicen estos intervalos con muestras pequefias o medianas.
El nivel de censura no tiene un efecto claro en la
cobertura. Por una parte a medida que crece la proporci6n de
elementos sin censurar, u, los estimadores son mas fiables y la
cobertura deberia crecer. Por otra parte cuando u crece, el
tamano de los intervalos disminuye y tambien la cobertura.
Ninguno de los dos efectos es dominants.
Con respecto al parametro de forma 13 de la distribucion de
Weibull, los resultados son similares para los cuatro valores del
mismo. Esto es 16gico puesto que para cada valor de B obtenemos
su intervalo de confianza correspondiente. Los resultados podrian
haber sido diferentes si hubieramos construido un intervalo con
censura exponencial y hubieramos estudiado la robustez respecto a
la supuesta distribucion de censura.
En resumen podemos concluir que de estos intervalos basados
en la distribucion asintotica de los estimadores y que por tanto
en principio son s61amente utiles con muestras grandes, el
intervalo de confianza basado en la transformacion log (-log) de
la distribucion asintotica de Pu es tambien totalmente valido con
muestras pequefias y moderadas y el correspondiente de Ri se
puede utilizar con precaucion.
112
Page 121
5.- CONCLUSIONES Y PERESPECTIVAS DE FUTURO
En este trabajo se han estudiado dos estimadores Bayesianos
de la fiabilidad de una distribuci6n exponencial con muestreo
censurado. El primero de ellos, que llamamos R4, se obtiene como
la media de la distribuci6n a posteriori, ya que se considera
funci6n de p^rdida cuadratica. El segundo, R5, es la moda de la
distribucion a posteriori.
Se ha calculado la expansion asintotica de la media, la
varianza y el error cuadratico medio de ambos estimadores cuando
la distribucion de censura es exponencial, siendo totalmente
originales los lemas y teoremas de los apartados 3.5 y 3.6 que
contienen estos resultados. Para obtener esta aproximaci6n
asintotica ha sido necesario realizar previamente las
transformaciones de estos estimadores que se recogen en los dos
teoremas y siete lemas del apartado 3.4, y en el teorema y lemas
del apendice 1. Todos ellos son originales.
Asimismo es original el teorema del apartado 3.7 que
demuestra la normalidad asintotica de ambos estimadores
Bayesianos y del estimador de maxima verosimilitud, que llamamos
Ri, para el caso mas general de que la distribucion de censura
sea de Weibull.
Partiendo de dicha distribucion asintotica se han obtenido
dos tipos de intervalos de confianza para cada uno de los tres
estimadores. En uno de los tipos, la idea de utilizar la
transformacion log(-log) para eliminar la dependencia de la
varianza asint6tica en los par£metros desconocidos, es tambi£n
113
Page 122
original.
En el apartado 3.9 se comparan nuestros estimadores
Bayesianos con otros estimadores de la fiabilidad. Los tres
estimadores parametricos: Ri, R4 y Rs son asintoticamente
eficientes, pero los estimadores no parametricos limite producto
y Bayesiano no lo son. La comparacion entre los tres estimadores
asintoticamente eficientes se realiza mediante el concepto de
deficiencia asintotica, resultando un comportamiento claramente
mejor de nuestro estimador Bayesiano R4 siempre que no
infraestimemos la tasa de fallo en la distribucion a priori.
Se compara tambien el sesgo y el error cuadratico medio de
los cinco estimadores para diversas combinaciones de parametros
propuestas por los autores que habian calculado los momentos de
los estimadores no parametricos. De nuevo nuestro estimador
Bayesiano R4 tiene un error cuadratico medio significativamente
menor salvo para el caso sefialado anteriormente.
En el capitulo cuatro se realiza un extenso estudio de
simulacion del que se concluye en primer lugar que los
estimadores Ri, R4 y Rs son muy robustos frente a los cambios en
la supuesta distribucion de censura. Esta conclusion es de
interes practico pues al analizar datos reales habra que centrar
la atenci6n en verificar que la distribucion del tiempo de vida
es exponencial, y darle menos importancia al mecanismo de
censura.
Los resultados obtenidos tambien nos confirman que nuestro
estimador Bayesiano R4 es el mejor, ya que es el que tiene el
menor error cuadratico medio salvo que subestimemos la tasa de
fallo en la distribucion a priori; y aun en este caso el error es
114
Page 123
ligeramente mayor. Con la informacion que se suele tener a priori
en muchas aplicaciones reales, fundamentalmente cuando se disenan
equipos que perfeccionen modelos existentes anteriormente,
creemos que no habria problema para elegir de forma adecuada los
parametros de la distribucion a priori; hemos visto que los
resultados siguen siendo buenos si sobreestimamos al doble la
tasa de fallo, y solo a partir de subestimar la tasa de fallo a
la mitad los resultados son peores que los del estimador de
maxima verosimilitud.
Tambi^n hemos estudiado mediante simulacion la validez con
muestras pequenas y medianas de los intervalos de confianza
basados en la distribucion asintotica de los estimadores (y que
por tanto solamente son utiles en principio para muestras
grandes). La conclusion principal es que el intervalo de
confianza basado en la transformacion log(-log) de la
distribucion asintotica de R4 es totalmente valido para muestras
pequenas y medianas, y el correspondiente de Ri se puede utilizar
con precaucion. Podemos recomendar por tanto nuestro estimador R4
tanto para la estimaci6n por punto como para la estimacion por
intervalo.
Dentro del modelo considerado se podrian considerar tambien
otros estimadores Bayesianos correspondientes a funciones de
perdida error absoluto. Los estimadores serian percentiles de la
distribucion a posteriori (como se demuestra en el apartado 3.2).
Como esta distribucion es una Gamma, habria que obtenerlos de
forma aproximada, utilizando por ejemplo la transformacion de
Wi 1son-HiIferty.
115
Page 124
Otro posible estudio adicional, es el de la robustez de los
estimadores frente a cambios en el supuesto modelo de
distribucion a priori de la tasa de fallo.
De mayor interes es obtener estimadores y estudiar sus
propiedades para otras distribuciones de tiempo de vida,
principalmente para la distribucion de Weibull, que como nemos
sefialado en el capitulo dos, es junto a la exponencial, la
distribucion mas utilizada en el estudio de la fiabilidad.
116
Page 125
BIBLIOGRAFIA
Allen, W.R. (1963). A note on conditional probability of failure
when hazards are proportional. Operations Research 11, 658-659.
Barlow, R.E. and Proschan, F. (1974). Mathematical theory of
reliability . Wiley, New York.
Barlow, R.E. and Proschan, F. (1981). Statistical theory of
reliability and life testing. Holt, Rinehart and Winston, New
York.
Barndorff-Nielsen, 0. (1983). On a formula for the distribution
of the maximum likelihood estimator. Biometrika 70, 343-365.
Berger, J.O. (1985). Statistical decision theory and Bayesian
analysis. Springer-Verlag, New York.
Bernardo, J.M. (1979). Reference posterior distributions for
Bayesian inference. J. R. Statist. Soc. B41, 113-147.
Breslow, N. E. and Crowley, J. (1974). A large sample study of
the life table and product limit estimates under random
censorship. Ann. Statist. 2, 437-453.
Burke, M. D., Csorgo, S. and Horvath, L. (1981). Strong
approximations of some biometric estimates under random
censorship. Z. Wahrscheinlichkeitstheorie Verw. Gebiete 56, 87-
112.
Chen, Y.Y., Hollander, M. and Langberg, N.A. (1982). Small-
sample results for the Kaplan-Meier estimator. J. Am. Statist.
Assoc. 77, 141-144.
Cox, D.R. and Oakes, D. (1984). Analysis of survival data.
Chapman and Hall, London.
117
Page 126
Davis, D.J. (1952). An analysis of some failure data. J. Am.
Statist. Assoc. 47, 113-150.
Dabrowska, D.M. and Doksum, K.A. (1987). Estimates and confidence
intervals for median and mean life time in the proportional
hazard model. Biometrika 74, 799-807.
Ebrahimi, N. (1985). Non parametric estimation of survival
functions for incomplete observations when the life time
distribution is proportionally related to the censoring time
distribution. Comm. Statist.- Theor. Meth. 14, 2887-2898.
Emerson, J.D. (1981). Effects of censoring on the robutness of
exponential-based confidence intervals for median lifetime.
Comm. Statist.- Simula.Computa. BIO, 617-627.
Epstein, B. and Sobel, M. (1953). Life testing. J. Am. Statist.
Assoc. 48, 486-502.
Epstein, B. and Sobel, M. (1954). Some theorem relevant to life
testing from an exponential distribution. Ann. Math. Statist.
25, 373-381.
Ferguson, J.S. (1973). A Bayesian analysis of some nonparametric
problems. Ann. Statist. 1, 209-230.
Ferguson, J.S. and Phadia, E.G. (1979). Bayesian nonparametric
estimation based on censored data. Ann. Statist. 7, 163-186.
Gill, R.D. (1983). Large sample behaviour of the product-limit
estimator on the whole line. Ann. Statist. 11, 49-58.
Hall, W.J. and Wellner, J.A. (1980). Confidence bands for a
survival curve from censored data. Biometrika 67, 133-143.
Hodges, J.L. and Lehmann, E.L. (1970). Deficiency. Ann. Math.
Statist. 41, 783-801.
Hurt, J. (1976). Asymptotic expansions of functions of statistic.
118
Page 127
Apl. Mat. 21, 444-456.
Hurt, J. (1976). On estimation of reliability in the exponential
case. Apl. Mat. 21, 263-272.
Hurt, J. (1980). Estimates of reliability for the normal
distribution. Apl. Mat. 25, 432-444.
Hurt, J. (1982). On the estimation of reliability in the
exponential case under random censorship. Proc. of the third
Pannonian Symp. on Math. Statist., Visegrad (Hungary), 115-124.
Hurt, J. (1986). Comparison of some reliability estimator in the
exponential case under random censorship. Proc. of the fifth
Pannonian Symp. on Math. Statist., Visegrad (Hungary), 149-161.
Hurt, J. (1986). Asymptotic expansion for moments of functions of
stochastic processes and their applications. Statistics &
Decision 4, 251-271.
Jennison, C. and Turnbull, B.W. (1985). Repeated confidence
intervals for the median survival time. Biometrika 72, 619-625.
Kalbfleisch, J.D. and Prentice, R.L. (1980). The statistical
analysis of failure time data. Wiley, New York.
Kaplan, E.L. and Meier, P. (1958). Nonparametric estimation from
incomplete obsrevations. J. Am. Statist. Assoc. 53, 457-481.
Kitchin, J., Langberg, N.A. and Proschan, F. (1983). A new method
for estimating life distributions from incomplete data.
Statistic and Decision 1, 241-255.
Koziol, J.A. and Green, S.B. (1976). A Cramer-Von Mises statistic
for randomly censored data. Biometrika 63, 465-474.
Kurkjan, B., Strong, G. and Marvin, J.K. (1987). Reliability
estimation for the exponebtial distribution. Comm. in Statist.
119
Page 128
Simula 16, 835-853.
Kleijnen, J. (1974). Statistical Techniques in Simulation. Marcal
Dekker, New York.
Lawless, J.F. (1978). Confidence interval estimation for the
Weibull and extreme value distributions. Technometrics 20, 355-
364.
Lawless, J.F. (1982). Statistical models and methods for lifetime
data. Wiley, New York.
Lawless, J.F. (1983).Statistical methods in reliability.
Technometrics 25, 305-316.
Lewis, T.G. (1975). Distribution sampling for computer
simulation. Lexington books.
Martz, H.F. and Waller R. A. (1982). Bayesian reliability
analysis. Wiley, New York.
Meeker, W.Q. (1983). Contribution to discussion of paper by J.F.
Lawless. Technometrics 25, 316-320.
Miller, R.G. (1981). Survival analysis. Wiley, New York.
Nair, V.N. (1984). Confidence bands for survival functions with
censored data: a comparative study. Technometrics 26, 265-275.
Peterson, A.V.(1977). Expressing the Kaplan-Meier estimator as a
function of empirical subsurvival functions. J. Am. Statist.
Assoc. 72, 854-858.
Rai, K., Susarla, V. and Van ryzin, J. (1980). Shrinkage
estimation in non parametric Bayesian survival analysis: a
simulation study. Comm. in statist. B9, 271-298.
Rao, C.R. (1973). Linear statistical inference and its
applications. 2nd. edition. Wiley, New York.
Schneider, H. (1986). Truncated and censored data samples from
120
Page 129
normal populations. Dekker, New York.
Serfling, R.J. (1980). Approximation theorems of mathematical
statistics. Wiley, New York.
Sharon, M.H. (1986). Robust estimation of the exponential mean
parameter for small samples: Complete and censored data. Comm.
in statist. 15, 1087-1108.
Shooman, M.L. (1983). Software engineering: Design, reliability
and management. McGraw Hill, New York.
Susarla, V. and Van Ryzin, J. (1976). Non parametric Bayesian
estimation of survival curve from incomplete observations. J.
Am. Statist. Assoc. 71, 897-902.
Susarla, V. and Van Ryzin, J. (1978). Large sample theory for a
Bayesian non parametric survival curve estimator based on
censored samples. Ann. Statist. 6, 755-768.
Suzuki, K. (1985). Estimation of lifetime parameters from
incomplete field data. Technometrics 27, 263-271.
Sweeting, T.J. (1987). Approximate Bayesian analysis of censored
survival data. Biometrika 74, 809-816.
Thomas, D.R. and Grunkemeier, G.L. (1975). Confidence interval
estimation of survival probabilities for censored data. J. Am.
Statist. Assoc. 70, 865-871.
Zelen, M. and Dannemiller, M.C. (1961). The robutness of life
testing procedures derived from the exponential distribution.
Technometrics 3, 29-49.
121
Page 130
APENDICE 1
En este apartado deduciremos la f6rmula de transformacion de
R4 con termino de resto 0P (n-3). (Formula 3.4.1 introducida en
el apartado 3.4)
122
Page 131
Lema 1
Con las definiciones dadas en el apartado 3.4 se tiene:
X2 X3
Qi (X,A) = + 0P (n-3) i = 0,1 2A 3A2
X4
Qo2 (X,Y) = + Op (n~3) 4A2
Qi3 (X,Y) = 0P (n~3)
Demostracion
La demostracion es inmediata a partir de los lemas 1,2,3
del apartado 3.4.
Lema 2
X2 X3 X4
R4 = exp (- X) (1 + + Op (n~3)) (A.l) 2A 3A2 8A2
Demostracion
Para cualquier x < 0, tenemos que
1 + x + x2/2 + x3/3 < exp (x) < 1 + x + x2 /2 (A.2)
El resultado se obtiene a partir del lema anterior y de
desigualdad (vista en 3.4):
123
Page 132
exp (- X) exp(Qi (X,A)) < R4* < exp (- X) exp (Qo (X,Y))
Teorema 1
Con las definiciones establecidas anteriormente se tiene:
R4 = exp(-Y) { 1 + (l/2nW) [-2p + Y (2a + 1) +
(l/2n2W2) [p2 + p (2a + 1) - Y/3 (6a2 + 6a + 2 + 6ap +
3p) + Y2/4 (4a2 + 4a + 1)] } + 0P(n"3)
Demostracion
I+p l+p/nl X = = I/W _
W+a+1 l+(a+l)/nW
(l+(a+l)/nW)"1 = 1 - (a+l)/nW + (a+l)/nW2 + 0P (n~3)
por un razonamiento analogo al del teorema 1 del apartado 3.4.
Por tanto
X = Y (1 + p/nl) ( 1 - (a+l)/nW + (a+l)/nW2) + 0P (n~3)
= Y (1 + p / n l - ( a+ l ) /nW + ( a + l ) 2 / n 2 W 2 - p ( a + l ) / n 2 I W )
+ 0P ( n - 3 )
Utilizando de nuevo la desigualdad A.2, tenemos:
exp (- X) = exp (- Y) [1 - Y (1 + p/nl - (a+l)/nW +
124
Page 133
( a + l ) 2 / n 2 W 2 - p ( a + l ) / n 2 I W ) + Ya /2 ( p 2 / n 2 I 2 +
( a + l ) 2 / n 2 W 2 - 2 p ( a + l ) / n 2 I W ) + 0P ( n " 3 )
- exp ( - Y) [1 + 1/nW ( - p + Y ( a + 1 ) ) +
l /2n 2W 2 ( - 2Y ( a + 1 ) 2 + 2p (a + 1) + p2 + Y2 ( a+1) 2
- Y (2pa+2p) ) ] + Op ( n - 3 )
Por o t r a p a r t e
X2/A = ( I + p) / (W + a + l ) 2 = ( I + p / n ) / n ( W + ( a + l ) / n ) 2
= I/nW2 + 1/n2 (p/W2 - 2 ( a + l ) I / W 3 ) + 0P ( n " 3 )
X3/A2 = ( I + P) / (W + a + l ) 3 = ( I + p / n ) / n 2 ( W + ( a + l ) / n ) 3
= I/n2W3 + 0P ( n - 3 )
X4/A2 = ( I + P ) 2 / ( W + a + l ) 4 = ( I + p / n ) 2 / n 2 ( W + (a + l ) / n ) 4
= I 2 / n 2 W 4 + 0P ( n" 3 )
S u s t i t u y e n d o en l a fo rmula ( A . l ) , t e n e m o s :
R4 = { exp ( - Y) [1 + 1/nW ( - p + Y ( a + 1 ) ) +
l/2n2W2 (- 2Y (a+1)2 + 2p (a+1) + p2 + Y2 (a+1)2
- Y (2pa+2p)) ] } [1 - I/2nW2 + 1/n2 (- p/2W2 +
(a+l)I/W3 + I/W3 + I2/W*) ] + Op (rr3)
Operando y simplificando se obtiene finalmente la formula de R4.
125
Page 134
/
APENDICE 2
En este apartado incluimos los programas y algunas de las
ejecuciones que hemos realizado en este trabajo. Todos los
programas se han escrito en lenguaje Pascal.
Page 135
Programa Deficiencia
Calcula las deficiencias asintoticas d4i, ds4 y dsi
deducidas en el teorema 1 del apartado 3.9. Las ejecuciones estan
recogidas en las tablas 3.1, 3.2 y 3.3.
Page 136
Program deficiencia(input,output); (*Calcula la deficiencia asintotica de los estimadores Bayesianos con respecto al de maxima verosimilitud*) var
h,p:integer; q,k,o,d,a,d41,d51,d54:real;
begin
end,
read(q,k,h,p); (*q:percentil a partir del que se obtiene el parametro o
de la distribucion exponencial k:proporcion de elementos sin censurar = d/o a = h*o y p parametros de la distribucion a priori *)
o:=-l/ln(l-q); d:=o*k; a:=h*o; d41
d51
=sqr(p)*o/d + 4*p - (4*a+2)/o - (2*a+2*p*a+4*p+l)/d + (4*sqr(a)+16*a+7)/(4*o*d); =(l-2*p+sqr(p))*o/d + 4*p-4 - (4*a-4)/o + (2*a-l-2*a*p+p)/d + (sqr(a)-a)/(o*d);
=(l-2*p)*o/d Para
d54 writeln(1st, writeln(1st) writeln(1st, writeln(1st, writeln(1st,
q=" + 6/0 + ,q:5:2,
(4*a+5*p)/d -k=',k:5:2,'
(20*a+7)/(4*o*d) h=',h:2 P=',P:2 )
'd41=* 'd51=' 'd54='
d41 d51 d54
8
8
2) 2) 2)
writeln(1st);writeln(1st)
128
Page 137
Para q= 0.05 1.00 h = P-"
d41= -8.15 d51= -2.85 d54= 5.30
Para q= 0.05 k= 0.80 h= 4 p= 4
d41= -10.16 d51= -2.61 d54= 7.55
Para q= 0.05 0.67 h=
d41= -12.17 d51= -2.37 d54 = 9.80
Para q= 0.05 k= 0.50 p= 4
d41= -16.20 d51= -1.90 d54= 14.30
Para q= 0.05 k= 0.20
d41= -40.34 d51= 0.95 d54= 41.28
Para q= 0.50 1.00 p= 4
d41 = d51 = d54 =
Para
d41 = d51 = d54 =
-9.24 -0.92 8.32
q= 0.50
-11.20 -0.84 10.36
k = 0.80 h= 4
Para q= 0.50 k= 0.67 p= 4
d41 = -13.16 d51= -0.77 d54= 12.40
Para q= 0.50 0.50 P= 4
d41= -17.09 d51= -0.61 d54= 16.48
Page 138
Para q= 0.50 k= 0.20 h= 4 p= 4
d41= -40.65 d51= 0.31 d54= 40.95
Para q= 0.90 1.00 h= 4 p= 4
d41= -5.63 d51= 3.91 d54= 9.54
Para q= 0.90 k= 0.80 h= 4 p= 4
d41= -5.89 d51= 3.58 d54= 9.47
Para q= 0.90 k= 0.67 h= 4 p= 4
d41 = d51 = d54 =
-6. 14 3.26 9.40
Para q= 0.90 0.50 p= 4
d41 = d51 = d54 =
Para
d41 = d51 = d54 =
-6.65 2.61 9.26
q= 0.90
-9.73 -1.30 8.42
k = 0.20 h
Para q= 0.99 k= 1.00 h= 4 p= 4
d41= 15.30 d51= 10.82 d54= -4.48
Para q= 0.99 k= 0.80 h= 4
d41= 21.42 d51= 9.91 d54= -11.51
Para q= 0.99 k= 0.67 h= 4 p= 4
d41= 27.55 d51= 9.01 d54= -18.54
Page 139
Para q= 0.99 k= 0.50 P= 4
d41= 39.81 d51= 7.21 d54= -32.60
Para q= 0.99 k= 0.20
d41= 113.33 d51= -3.61 d54= -116.94
Para q= 0.05 k= 1 . 00 p= 4
d41 = d51 = d54 =
Para
d41 = d51 = d54 =
7.44 5.26
-2. 18
q= 0.05
7.33 5.52
-1.81
k = 0.80 h
Para q= 0.05 k= 0.67 h= P= 4
d41 = d51 = d54 =
Para
d41 = d51 = d54 =
7.21 5.78
-1 .43
q= 0.05
6.98 6.31
-0.68
k = 0.50 h P= 4
Para q= 0.05 k= 0.20 h=
d41 = d51 = d54 =
5.61 9.46 3.85
Para q= 0.50 k= 1.00 h= 2
d41 = d51 = d54 =
1.22 8.47 7.25
Para q= 0.50 k= 0.80 h= 2 p= 4
d41 = d51 = d54 =
-0, 8, 9,
,13 ,89 ,02
Page 140
Para q= 0.50 k= 0.67 h=
d41= -1.48 d51= 9.31 d54= 10.79
p= 4
Para q= 0.50
d41= -4.18 d51= 10.16 d54 = 14.34
0.50 p= 4
Para q= 0.50
d41 = -20.37 d51= 15.24 d54 = 35.61
0.20 h= 2 p= 4
Para q= 0.90 k= 1.00
d41= -8.05 d51= 16.51 d54= 24.56
p= 4
Para q= 0.90 k= 0.80 h= 2
d41= -10.91 d51= 17.34 d54= 28.25
Para q= 0.90
d41 = -13.77 d51= 18.16 d54= 31.94
0.6 7 h= 2
Para q= 0.90
d41= -19.50 d51= 19.82 d54= 39.31
0.50
Para q= 0.90 k= 0.20 h= 2
d41= -53.83 d51= 29.72 d54= 83.55
Para q= 0.99 1.00 h= 2
d41= -5.54 d51= 28.03 d54= 33.57
Page 141
Para q= 0.99 0.80 P~-
d41= -6.63 d51= 29.43 d54= 36.05
Para q= 0.99 0.67
d41= -7.71 d51= 30.83 d54= 38.54
Para q= 0.99 k= 0.50 h-
d41= -9.88 d51= 33.63 d54= 43.51
Para q= 0.99 k= 0.20 h=
d41 = -22.88 d51 = 50.45 d54 = 73.32
Para q= 0.05 k= 1.00 h=
d41= -15.33 d51= 4.95 d54= 20.28
Para q= 0.05 k= 0.80 p= 4
d41= -15.14 d51 = 11.13 d54= 26.27
Para q= 0.05 k= 0.67 h= 8 p=
d41= -14.94 d51= 17.32 d54= 32.26
Para q= 0.05 k= 0.50
d41= -14.55 d51= 29.69 d54= 44.25
Para q= 0.05 k= 0.20 P= 4
d41= -12.23 d51= 103.92 d54= 116.16
Page 142
Para q= 0.50 k= 1.00 h= 8 p= 4
d41= -6.15 d51= 4.31 d54 = 10.46
Para q= 0.50 k= 0.80 h= 8 p= 4
d41= -3.34 d51= 9.69 d54= 13.03
Para q= 0.50 k= 0.67 h= 8 p= 4
d41= -0.53 d51= 15.07 d54= 15.60
Para q= 0.50 k= 0.50 h= 8 p= 4
d41= 5.09 d51= 25.84 d54= 20.75
Para q= 0.50 k= 0.20 h= 8 p= 4
d41= 3 8 . 8 0 d51= 9 0 . 4 4 d54= 5 1 . 6 4
Para q= 0.90 k= 1.00 h= 8
d41= 23.21 d51= 2.70 d54= -20.51
Para q= 0.90 k= 0.80 h= 8 p= 4
d41= 34.17 d51= 6.07 d54= -28.10
Para q= 0.90 k= 0.67 h= 8 p= 4
d41= 45.12 d51= 9.44 d54= -35.68
Para q= 0.90 k= 0.50 h= 8 p= 4
d41= 67.03 d51= 16.18 d54= -50.84
Page 143
Para q= 0.90 0.20 h= 8 p= 4
d41 = 198.48 d51= 56.65 d54= -141.83
Para q= 0.99
d41= 80.98 d51= 0.39 d54= -80.59
1.00 h= 8
Para q= 0.99 k= 0.80 h= 8 p= 4
d41= 107.53 d51= 0.89 d54= -106.64
Para q= 0.99 k= 0.67 h= 8 p= 4
d41= 134.08 d51= 1.38 d54= -132.69
Para q= 0.99 k= 0.50 h= p= 4
d41= 187.17 d51= 2.37 d54= -184.80
Para q= 0.99 k= 0.20 p= 4
d41= 505.74 d51= 8.29 d54= -497.45
Page 144
Programa Compara
Calcula el sesgo y el error cuadratico medio del estimador
Ri a partir de la f6rmula obtenida por Hurt (1986), y de los
estimadores R4 y R5 con las f6rmulas deducidas en los apartados
3.5 y 3.6. Los resultados se recogen en las tablas 3.4 y 3.5
junto a los correspondientes resultados de estimadores no
parametricos obtenidas por otros autores.
Page 145
program compara (input,output);
(* Calcula sesgo y error cuadratico medio de los estimadores R1,R4 y R5 para compararlos con los estimadores no Bayesianos *)
var h,p,n:integer; q,k,r ,o,a,d,sesl,varl,ecml,ses4,var4,ecm4,ses5,var5,ecm5:real;
k: n: a
el parametro o
: d/o
la distribucion a priori *)
begin read (q,k,n,h,p);
(*q:percentil a partir del que se obtiene de la distribucion exponencial proporcion de elementos sin censurar = : tamafio de la muestra = h*o y p parametros de
1-q; -l/ln(l-q); k*o; h*o; =r*( (l/n)*(-l/o + l/(2*o*d)) + (l/sqr(n))*(-1/o+l/sqr(o) + 3/(2*o*d) - l/(o*o*d) - l/(6*o*d*d) + l/(8*sqr(o)*sqr(d)))); =sqr(r)*(l/(n*o*d) + (1/sqr(n))*(1/sqr(o) + 3/(o*d) -5/(o*o*d) - l/(o*sqr(d)) + 3/(2*sqr(o)*sqr(d)))); :=varl + sqr(sesl); :=r*( (l/n)*(-l/o-p/d+(a+l)/(o*d)) + (l/sqr(n))*(-l/o +l/(o*o) - p/d + (sqr(p)+2*a*p+p)/(2*sqr(d)) + (3*a+3+2*p)/(o*d) -(2*a+2)/(sqr(o)*d) - (sqr(a)+2*a+l+a*p+p)/(o*sqr(d)) + (sqr{a)+2*a+l)/(2*sqr(o)*sqr(d)))); =sqr(r)*(l/(n*o*d) + (l/sqr(n))*(l/sqr(o) + (3+2*p)/(o*d) -(2*a+6)/(o*o*d)-(2*a+2+2*p)/(o*d*d)+(4*a+5)/(2*o*o*d*d))); :=var4 + sqr(ses4); ;=r* ( (1/n) * (-l/o +(l-p)/d +(2*a-l)/(2*o*d)) +(l/sqr(n)) * (-l/o + (l-p)/d + l/(o*o)+(p*p+2*p*a-4*p-2*a+3)/(2*d*d) + (6*a+4*p-7)/(2*o*d) + (l-2*a)/(o*o*d) + (-6*a*a+12*a-4-6*a*p+3*p)/(6*o*d*d) + (4*a*a-4*a+l)/(8*o'*o*d*d) )) ; :=sqr(r)*(l/(n*o*d) + (l/sqr(n))*(l/sqr(o) +(2*p+l)/(o*d) -(2*a+3)/(o*o*d) -l/(o*d*d) +3/(2*o*o*d*d))); :=var5 + sqr(ses5);
k=
r: = o: = d: = a: = sesl
varl
ecml ses4
var4
ecm4 ses5
var5
ecm5 writeln(1st,
writeln(lst) writeln(lst, writeln(1st) writeln(1st, writeln(1st) writeln(1st, writeln(1st)
end.
Para P=*
q=* p:2)
q:7:4, k:6:3 n: 3 h=',h:2
Rl
R4
*R5
sesgo=',sesl:7:4,' error cuadratico=',ecml:7
error cuadratico=',ecm4:7
sesgo=',ses5:7:4,' error cuadratico=',ecm5:7
sesgo=',ses4:7:4
4)
4)
4) writeln(1st)
136
Page 146
I M-
cuadra t ic:o~- O „ 0 1 19
Kara q = u»,3V .-so k-- o. add rr
R1 ;; s esq o - - 0 » 0 0 37 e r r o r
R 9 s s e s g o =:: 0 = 0 0 5 0 e r r o *" c u a <::! r a t i c o = 0 ,. 0 0 01
R5: sesqo= 0,0110 error cuadf at ico~- O„0109
••-,=: ,4. 0=1 ,H. t Pav a q» 0 . 3 9 3 5 k= 0., 3 3 3 n= 3 0
R l s s £ ? s g o = - 0 „ 0 0 S 3 e r r o r c u a d r a t i c o = 0 . 0 0 9 3
R4; B e s g o = 0 « 0 0 9 3 error c u a d r a t i c o ~ ~ 0 . 0 0 1 6
R5 : s e s q o - 0 . 0 0 9 "7 e r r o r cuarfr a t i c o = 0 - 0 0 9 1
Par a
Rl s
R9 S
3 e B q o - 0 „ ) 0 5 9 e r : o r c t .< a d r a t ;i. c: i
'.J „ OOd.d e i T O l a 11 c D -•- 0 •: 0 0 9 6
r o r c u a d r a f i : o
( ,, r v 9 > i'r"- .'.'•• O i'"i-" 9 P -•• '-I-P a r a q™ 0 . 3 9 3 5 9
R l s E e s q o = 0 , O0H- Q e r r o r c u a u ' s t
;e5DO= u
S e S Q O " U • ',.)'...!DH
i ; _ t .n >?-..•-
„ t H J,--•' c
iaw.dr.••»'!' 3 r o-- 0 ,'.'...:.;•-),
. r a t a 0 . 3 9 3 5 k-~ 0 . 6 6 7 n= 3 5 h~ 9 p-~ 9
R l s sesqo---" -0 „ 9 0 7 5 e r r o r •• u a d r a t i . c o - '.>„'''•..
R '4 j s e s a o : : ~ 9 , 0 0 0 £ e r r o i c i,. ac:ir a t t c. o : (;..;'9'>}7 r
: # s q o = 0 ., 0 0 3 : ) <:::: u a a r a r. i c: o -
K a r a q = 0 . 3 V 3 D K = O . o 6 /
R 1 s s e s q o -™ 0 . 0 0 6 3 e r r D r
e r r o r c u a d r a t i co••
'•+ D ~;;;
j a o r a t I C D - y ,
B e s q f -*..) .• O O O s :
• s q o - U.O e r r o r >:::: u a d v iil i <::: o --- '•-..> „ u O <•>• .
P a r a q— 0 , 6 3 2 1 k-~ 0 , 3 3 3 n™ 3 5 h= <* p== 9
R l s s e s g o — 0 . 0 0 8 0 e r r o r c u a d r a t i c o - 0 . 0 1 6 5
R 9 : s e s g o ™ 0 „ 0 1 0 9 e r r o r c u a d r a t i c o - 0 , 0 0 0 0
fi5 '- seBDo"• 0 , i ••>':. 7 e r r o r c t a < ( i r a t t <;.;<;••~- <• ">, 0 1 6 : ! .
Page 147
-:::( '. <."f •...) ' • n ! V— 0 , 3••;''"'? '"';;:: 3 0 h - H p ; * '•+
i r r o r c u. a d r a t i c D ™ '„ ., 0 1 '?•'', •• Hi s s e a g o ™ O „ u u a c
R«s s e s q o - 0 . 0 1 1 6 e r r o r c u a c i r a t 0 ., 0 0 3 3
ROs ?;6:v.qD= 0 . 0 0 3 . 9 e r r o r c u a o r a t i c o " - O „ 0
P a r a q^: 0 . 6 3 2 1 k™ Q . 5 ' 0 0 rv= 3 5 rr= 9 p
R1 s ::;:• e B q o ~ 0 , 0 0 0 5 e r r o r c u a d r a t i c o = 0 „ 0
p;4» s e s q o - 0 . 0 1 0 0 e r r o r c u a d r a t i i c o - 0„C
p;--,s s f 3 S a o ~ - O.oOO'd e r r o r c u a d r a i r t c o - 0 „ <
F= 0 . . . 6 3 E 1 k =
:• e :':•> Q O-" 0 • OOO
K - I r S c s a i " U . ' O I J I ,
}'"(= CSV
..i.adr a t . i c o : :
:o~- d < HX::
: o a d r a t .
:i. : c e s q o - o ,. u u ,
I rta;; S E 5 D D
J I i Si
R l
• ~ .q o :-: '-.)
JQO-"
r a r a q -••
PI s a e s q o " - 0 „
»r r o r c u a n r a t i c o -
: u a n v a :• : c i - o< >:.
a „'-..'O a H e i" r o r <: •.> a d i • a* "c :i. •::: o --
H i ( ' ( J : a t i c !
' r o r c i. i at a r a;' ,, O .!. i
R9 s sesqo ; ; ; - C:. 0 1 5 3 e r r or •:::usdr a'
( M j o ( i * * ,aC:
I T S Q"" U . B O H k- - 0 .. 3 3 3 T'i — .:5 U !'"i ;= a- I);:;:: 4
:>r;Bqo--; o„01H3 error cuadratico= 0*0090
iesao= 0.01 S3 err or cuadratico- 0 ., 0091
}.- e Si a c •"-" O ,. O i O 'a e r r o >" c i' a o r a '•:, i y ,. '• > '••.'
Page 148
rra a:- .'.0 ! i -- 1- p
1: sesao- 0 0110 error cuadraticrr- 0.O063
14; sesgo= 0.03.73 error cuadrat ico~ 0.0 OSS
:5s sesqo--™0,. 0098. error cuadrat icc>= 0.O06S
ara q= 0.8647 k« 0.500 n- 30 h= 4 p= 4
:1: sesgo= 0.009:1. error cuadrat ico= 0.0053
'4s 5esgo= 0.0165 error cuadratico- 0.0031
'5'.; sesao-™-0.0033 error c:uadrat ico™ 0 . 0055
a\~3 cr- 0 . 8 6 4 7 k-~ 0 . 6 ; i >•••- c:-_.i h = 4 o
I I I sesqo— 0 . 0 0 5 5
4 ; sesi . io= 0 . 0 1 4 3
;:;i » 5pc;riO = - i ) , DO91
e r r o r c; u a d r a t i c D ~~ 0 » 0 0 4 4
error- cuadrat tco= 0 « 003':*
e r r o r c u a d r a t i c o;= 0 » 0 0 4 8
ara q~= U . ao'-t-/ i ..
! I- rr-~ «+ p~- '•!•
I s S S S Q C 0 , 0 0 4 6 e r r o r c u a d r a t i c o ^ 0 . 0 0 3 6
'---s 5 e s g o = 0 . 0 1 2 9 e r r o r c u . a d r a t i c o = 0 . 0 0 2 4
5 s ••.-••£; t»qo~ 0 . 0 0 7 3 e r r o r c u a d r a t i c D - 0 . 0 0 3 s ?
ara q» 0.3933 k-~ 0.333 c'. O F"i:;:;; C
1 ; ! r j B 5 G o r - - U . 0 U c r / e r r o r c u a o r i t i c o
...; . . . - . . j . . :. - . .
5 ; s e 5 a o : - - u . ' i ' ; i 4 7 e r r o r ' c u d d r a t ;.i:o-: 0 , r i s ; -
n= 3 0 h ~ S
s e s q o = •- 0 . 0 0 3 3 e r r o r •::: u a d s - a 1 1 c o -::: 0 . 0 0 9 3
'-:• S &esCiO = --U » UH
5 : s e s q (.:<-- 0 . 0 3 9 0
e r r o r c u a d r a t ico~ : : 0 • 0 0 6 3
e r r o r c u a c • r a 11 c o":: 0 .. 0 1 1 8
a cr-; u . J V d D - 0 . 5 0 0 n= 3 5 h~ E p:= 4
1; seEQO=-0• 0009 error cuadratico- O.OO'/o
:4s sesgo= 0.0375 error cuadratico- 0,0063
5s sesqo- 0.0357 error cuadratico- 0.O0097
Page 149
at a q .'SZi K :)«: I";
R l ; s e 5 q o - - 0 , . 0 0 4 9 e r r o r c u a d r a t i c o
R 4 ; •••iBsqo~-~0,. 0 3 8 8 e r r o r - c u a d r a t i c o '•_•' ,. t •"-. J ,'j D
R 5 : s e s g o=•••- 0 ., 0 3 0 7 e r r o r c u a d r a t i c o -= 0 . 0 0 7 S
Para q= 0.3935 k = 0.667 r»-= 25 h= 8 p~ 4
R1 j seEgo = -0 .0075 error cuadratico- 0* 0058
R4s sesgo- 0.0384 error cuadratico--- 0 ., 0055
R5; sesqo =--<.''.,0306 error cuadratico- 0.0073
<•- u.66/ ri= do n — t! p~ •••!•
Rj. a sesgo = 0.0063 error cuadratico™ 0.0048
R4; sesgo-=--0,,0830 error cuadratico- 0.0046
R 5 s s e s q o::::; - 0 .0861 & r r o r c • •.. a d •• a t -. c o = 0 ,. 0 C>5 9
Para a- 0.638:1. k- 0,, 333 rv-- 85 h= 8 p~ 9
Rl; sesqo= 0.0080 error cuadratico 3 0.0168
R4s ses go=-~C>. 0386 error cuadratico- 0.0040
R5 2 se -. q o- 0 .. 0*b9 ~ e r r o r c: 11 ad r a t :i. c o =; 0 . 0 8 8 7
Pars q- 0.6381 k- 0.333 n- 30 h» 8 p™ 9
R1 ; sesao— u,. 0U66 i?rn:rr cuad: atjco™ 0.0135
r-.-v; &esqo;= -() ,. OXi-i-'-
4 / e <" t' o r c! A a a r a t :i. c o;:::; U ™ i '•< I b d
i q — 0 „ c 3 8 i k -~ 0 . 5 0 0 rv-::
s e B g o - 0 „ 0 0 0 5 &r r o r c u a d <- a t i c i
se sqo»•—0 . 0 3 8 4 e r i"or c u a d r a t i c•:
s e s c o —• - 0 » 0 4 9 0 e r r o r c: LA a d r a t i c i
,i I i i~ Li - t
:;- !..> . 0 0 6 U
Para q= 0.6381 k~ 0.500 n~ 80 h- 8 p= 4
RJ. s sesgo- 0.0003 error cuadratico-- 0.0089
R4 s sesg o--•-0 .. 08S6 en" o r c u adr a t i c o --• 0 .. 0058
R5; s.esqo= 0.0488 error cuadratico- 0.0119
Page 150
0 ,,667
LWAG i' -a t j t o
!••<H ; is e <=• g o = - o , 0 ti. <::< 6 er r o r c u a d r a t : t c o ~ 0 „ 0 0 5 8
R5; se sgo~= 0 , 0 4 . 1 3 e r r o r c u a d r a t :i. c:o~- 0 . 0 1 0 9
P a r a q= 0 . 6 3 8 1 k-~ 0 . 6 6 7 VJ- 30 h= £ p= 4
R i : s e s g o = 0 , 0 0 2 8 e r r o r c u a d r a t i c o = 0 . 0 0 6 6
R 4 s s e s g o = - 0 . 0 5 5 0 e r r o r c u a d r a t i c o:::- 0 .. 0 0 5 H
R 5 J 5 e s q o = - 0 . 0 3 5 3 e r r o r c u a d r a t i c o - 0 . 0 0 8 8
, a v a q-~ U,a&HV k
R i : s e s g o * 0 , 0 2 2 1
R'+ s s e s q c ^ - J „ 01 5 6
R3 ; rr?i--"..rjr:>-~~0 . C'630
0 . 3 3 3 n= 2 5 h= 3 p= 4
e r r o r c uaci r a t i c o :~: 0 . 0:! :!. S
e <" r o ! • c u a ci r a t i c o — 0 .. 0 0 i 1
e • r o r c u e d r a t '. co••- 0 „ 0 1 5 5
Far a q;= ( ' -Oi rV/ k -
R,1 s s e f c q o - j , . >1S3
R 4 s s ~: & q Ci:;:~ 0 . 0 1E 3
r o r c u a d r a t i c o ~
r o r CLiacirat ;1 c o
i r (. 4 6 6 r i i- o r < i.s ad r a t .;. r. o ~ 0 „ > 12 3
a-- 0 , 3 6 4 ' / k= 0 . 5 0 v 1 1 ••••
iV e r r o r c u a d r a t i •:::o
0 4 e i " r o r c u a d r a t i c o D 2 i
i'+lO f - r r o r c u a d r a r i c o - O.OO^O
y „ DO* I I
J.0091 error cu.adratic.o-' 0.0052
h 4 ; s e & a o ••-• - • > „: > 0 3 7 e r r o i" c: u a d r a t, j, <::: o:= 0. 0 0 P. 3
R5 s riesqo —--O . O360 error cuadvatr D- 0.OO74
Para q» 0.8647 k= 0.667 n-» 25 h™ 2 p= 4
R1 ;; =esq o = 0 „ 0055 er r o r c uad r a t i co = 0 . 0044
R4s J5.esgo~--O.0091 error cuadrat ico= 0.0021
R5 s sesqo™ 0.0344 error cuadrat ito= 0.0066
Page 151
Para q= 0.8647 k= 0.667 rr~ 3 0 h:~ 2 p= 9
RI :; s esq o ~- 0 ., 0 0 4 6 e r r o r c u a d r a t i c: o - 0 „ O 0 3 6
R4s Eesqo = "0.0078 error cuadr eti co= 0,002.1
R5 s sesqD = O . 0299 er r o r c uacl r a t i c: D = 0 „ O O 5 2
Para q= 0.. 3935 k-= 0.333 n= 25 h= 8 o=- 4
R is s e s g o == -• 0 „ 0 0 2 7 er r o r c u a d r a t i c o =: 0 .. 0 J. 12
R4 s sesqo:::: 0 .. 0268 er r Dr c:uadrati c:o~-0 . 0080
R5s sesqo~- 0 „ 0437 error cuadr at i.co~ 0.0098
'ara q= u k~ p;";: <•+
.<::-"'-0 « 0 0 2 3 e r r o r c u a d r a t :i. c o = 0 . O 0 9 3
:-e sq o -" u . u-..:>v / er r o i o j a a r a t i c o ~ - o . s.x,:>« •
se5ao= 0„052? error cuadratico= 0.0094
i>'*a q-~ o „ a'- k~- u , DUO n= do n::
B e s g o ~ - 0 „ 0 <.. 5 9 e r r o r c u a d r a t:.. c o ~- O . i • 0 "' 6
s esq o;:::: 0 .04 6 9 e r i" o r c • i a d r a t i c: o =- 0 „ 0 0 01
s e s q o - 0,,o560 e r r o r c u a d r a t i c c - O.Ofr-O
ara a- 0-3935 !• •= 0., 500 n== 3U h-~ p = •'•!•
: l s E P ^ q i ) - O,, "J049 e i r o r t. u a d r a t i c r r - 0 . 0 0 6 "•<
<H ; se sa o ~- (J . '•..)'-Kb X e r r o r c u a d r a t i c o -• 0 . 0 017
5s s e s q o = 0..O532 e r r o r c :. u a d r a t i.«.::o -•• 0 „ 00"?'
a O-- U„d::0::)D K ~ U « at:> ; i — f.".v.-....< I f a (...'
•; I s s e s g o = 0 „ OOV a er r o r c:uadr a t :i. co ~ o ., 005;=:
< 4 : se 5 q o;::: 0 . 0 4 4 6 e r r o r c u a d r a t i c o = 0 . 0 0 1 8
;' fl; s e s q o =: 0 „ 0 5 0 5 e r r o < c u a d r a t i c o ~ 0 . •'! 06 3
'ara q= 0,3935 k= 0.667 n= 30 h= 8 p= 9
; 1 5 s e s q o ~- -• 0. 0 0 6 3 e r r o r c u a d r a t i c o -:= 0 ., 0 0 4 8
14; s e B q o == 0 „ 0 4 0 6 e r r o r c u a d r atic o~ 0 . 0 0 2 3
Page 152
l - a r a q-~ 0 . i > 3 S I k = O „ :„•'< 6 J «"•- 3 5 fr= t
R l s s e £ Q u = 0 . 0 0 8 0 e r r o r c u a d r a t i c o =
R 4 : s e s q o •= 0 •• 0 4 6 3 e r r o i" c u a d r a t i c o-"- •• '!• }••';-'
R5s sesqo= 0.0698 error cuadratico- 0.01.58
Pare q= 0„63Si k« 0.333 n= 30 h= S p= 4
Ris sesgc<= 0.0066 error cuadratico- 0.0135
R 4 : sesgo = 0 . 0 607 e r i - o r c u a id r a t i c n ~ 0 „ 0 0 3 3
R5s sesqo- 0.0740 error' cuadratico-3 0.0153
'ara q- 0.63S1 k™ 0.500 n»- 35 h= S p = 4
• Is sesoo-- 0 •. OOOfJ ctror cuadratico= O.0106
•Mi sesgo-- 0.0665 error cuadrat ico= 0» OOH-3
:5s s e s q o •-• 0 „ 0 71 1 e r r o r c u. a d r at::, c: o ": 0 ,. 0 1 £ S
'ara a~- u . &dd 0.500 n= 30 h
-.'is sesgo-- 0.0003 error cuadr at i co= 0 . 00S9
Ws-5 sesgo-"- 0.0646 e-'ror cuadratico- 0.0055
;,5: sesqo-- 0.065'? error cuaiM"af i. co~ 0.01OB
ar"a q-~- u,, c,:ic: I K:;::: u»66 / •"("- ciD h= a p~ H
Is sesgo"-'- 0 UG33 error cuadrat.ico- 0 » 00 79
•'-'-.-; sssoo;=:: 0 , O6 1 '-<- er r < > r c u a d r a t :i c o ~- 0 . 01>49
i s s e s a o — O . O 6 O , e r i" o r >:::: u. a ci r a 1;>,. c '...) „ l ! • ,.' '• :•• i. ,
• a i ei a • 0.6331 (.1.66/ n= 13 ~, =
l ; ses>c;o~: O „ OOh'
: 4 ;i s e s q o - 0 .. 0 5 5'"
e r r o r c: i1 a ti r a t i c o ••- 0 „ 0 0 6 6
error cuadrat i cio- 0 , s- ->5o
? r r o r c u a d r (> . DO/
'ara q~= O „ H6'4 / k-~
61. s sesqo-" 0 » 0331 • r o i" c: u a d r a t i c o— 0 . 01 13
H : sesqo - 0 . 0 7 8 0 e r > o r c u a ci ratic o
e r r o r c i .>. a a r a; •>;. :i. c o r-~ u.. u J. C-. a
Page 153
t-ara a::::: 6 0 : i-
R:l
R4;
! t sqc D -:: '-.. ; „ -U e !"• r o r c u a d r a t : i . c o = 0 „ O O ? 0
e r r' o r c u a d r a t i. c: o ~ 0 . 0 1 4 0
ft 5 ; s e s o o " 0 „ O 6 l 6 e r r o r " c u a d r a t u ' . o = 0 „ 0 1 i 0
i-<" B a r a q--- 0 . S 6 4 7 k * 0 . 5 0 0 n ~ E5 h:::-:
:<i ;: s s s g o = C O 1 1 0 e r r o r c u a d r a t i c o - - 0 , 0 0 6 3
E 8 e r r o r c. t s a d r a t i c: o « 0 „ 0 :i 0 1
u a d r a t i t: D :~:: 0 .. 0 0 7 6
•i'H J 5 e - 3 Q O = t.•' ,
o „ 6 6 a 7 k : • <'• . o'')•'.) n =
• 7.1
:.i.. oq. ' /o
c u a d r a t i c o = u ,,
sad r a t i c o - 0 „ 0 0 8<!
i „ >..>•!r.•••;
a <::;=: u „ fjt>H- / K~; U ,. o ;
i e E u D = : U UODb
0„ 061 1
n - c:o f i - ; « p= : a
e r r ' o r c u a d i " a t i c o ~ 0 „ 0 0 a <•+
e r r c r c u a d r a t i c o - 0 .. 0 0 6 8
e r r r • r c: u.ad r a t j c D :::;: 0 - 0 0 5 0
,::; U II ;:: b D •=
s e s q o :u:: o ,. O O '-f 6 e r r o r c u a d r a v; :i. c
•: s e a q D = «. ;• „ 0 O -+ a e i - r o < ~ c u a d r a r, i c«
.::..•" s e s q o - o „'.•',::.-•& M error cusor a t ;i. c:o:'- 'J . uuvc
Page 154
Programa Ecuaci6n
Calcula la integral de la pag. 92 mediante el metodo de
Gauss-Laguerre de tres puntos. El resultado es una ecuacion en k,
que se resuelve para distintos valores de los parametros 13 y u.
Las ejecuciones se han obtenido en pantalla, y los resultados se
han utilizado como datos de entrada de los dos siguientes
programas.
\
Page 155
program ecuac ion(input,output); var a,b,k,m,c,u:real;
function f(k:real):real; var
g:real; begin g:=0.7111 * exp(-(exp(c*ln(0.4158/k)))) + 0.2785 *
exp(-(exp(c*ln(2.2943/k)))) + 0.0104 * exp(-(exp(c*ln(6.2899/k)))) - u;
f:=g end; begin
readln(c,u); a:=0.68; b:=68; while(b-a)>0.01 do begin m:=(b+a)/2; if f(a)*f(m)<0 then b:=m else a:=m;
end; k:=(a+b)/2; writeln(1st,k:4:2);
end.
146
Page 156
Programas Simula y_ Cobertura
El primero calcula la esperanza, varianza y error cuadratico
medio de los estimadores Ri , Ri y Rs con tiempo de vida
exponencial y censura Weibull. El segundo calcula con el mismo
modelo la proporcion de veces que cada uno de los seis tipos de
intervalos de confianza estudiados en el apartado 3.8 contienen
el verdadero valor de la fiabilidad. Todos los calculos se
realizan mediante simulaci6n y los resultados estan recogidos en
las tablas 4.1 a 4.8 para el primer programa y 4.9 a 4.12 para el
segundo.
Como ambos programas utilizan los mismos datos de entrada,
los unimos para realizar las ejecuciones conjuntamente. S61amente
se adjuntan una pequena parte de las mismas, puesto que ocupan
mcis de 120 hojas de papel continuo.
Page 157
program Simula(input,output); (*Calcula Esperanza,Varianza y Error Cuadratico Medio de los estimadores Rl, R2, R3, R4, y R5 de la funcion de fiabilidad en muestreo censurado*)
type indicador= array[1..200] of integer; minimo= array[1..200] of real;
var n,m,j,h,y,p: integer; q,k,b,o,v: real; i: indicador; w: minimo;
function potencia(z:real;x: integer) .-real; var
i:integer; pot-.real;
begin pot:=l; for i:=l to x do pot:= pot*z; potencia:=pot;
end;
procedure iw(n0:integer; qO,k0,b0:real; var yO:integer;var v0:real); (*calcula los valores de yO = II + ... + In y de vO = Wl + ... + Wn para una muestra de tama$o n, siendo Wj= min(Xj,Tj) y Ij= I(Xj<Tj) *)
var j:integer; o:real; x,t:array[l..100] of real;
begin o:= -l/ln(l-q0); (*parametro de la exponencial obtenido a partir del percentil qO* v0:=0 y0:=0 for j begin
x[j]:= -o*In(random); (*Distribucion del tiempo de fallo: exponecial de parametro o* t[j]:= k0*o*exp((l/b0)*ln(-ln(random))); (*Distribucion de la censura: Weibull de parametros k0*o y bO* if x[j]<t[j] then begin
v0:=v0 + x[j]; y0:=y0 + 1;
end else vO:= vO + t[j];
end; end; (* iw *)
procedure rl (ml:integer; ol:real; il:indicador; wl:minimo); (*Calcula la Esperanza, Varianza y Error Cuadratico Medio del estimador de maxima verosimilitud rl = exp(-y), siendo y = I/W *)
=1 to nO do
148
Page 158
var j:integer; el,varl,msel: real;
begin el:=0; varl:=0; msel:=0; for j:=l to ml do el: = el + exp(-il[j]/wl[j]); el:= el/ml; for j:=1 to ml do
varl: = varl + sqr(exp(-il[j]/wl[j]) - el); varl:= varl/ml; msel:= varl + sqr(el - exp(-l/ol)); writeln('La Esperanza de Rl es ER1 = ',el:8:4); writeln('La Varianza de Rl es VarRl= ',varl:8:4); writeln('El error cuadratico medio de Rl es MseRl= ',msel:8:4); writeln;
end; (* rl *)
procedure r4(m4,h4,p4:integer; o4:real; i4:indicador; w4:minimo); (*Calcula Esperanza, Varianza y Error cuadratico medio del
I+P estimador Bayesiano R4(a,p) = ((w+a)/(w+a+l)) *) var
j:integer; a,e4,var4,mse4 :real;
begin a:=h4*o4; e4:=0; var4:=0; mse4:=0; for j:=1 to m4 do
e4:= e4 + potencia((w4[j] + a)/(w4[j] + a + 1), (i4[j] + p4)); e4:= e4/m4; for j:=1 to m4 do
var4:=var4 +sqr(potencia((w4[j] + a)/(w4[j] + a + l),(i4[j] + P4)) - e4);
var4:= var4/m4; mse4:= var4 + sqr(e4 - exp(-l/o4)); writeln('La Esperanza de R4 es ER4=',e4:8:4); writeln('La Varianza de R4 es VarR4=',var4:8:4); writeln('El error cuadratico medio de R4 es MSER4=',mse4:8:4); writeln;
end; (* r4 *)
procedure r5(m5,h5,p5:integer; o5:real; i5:indicador; w5:minimo); (* Calcula la Esperanza, Varianza y Error cuadratico medio del estimador Bayesiano R5(a,p) = exp(- (I + p - l)/(w + a - 1)) *)
var j:integer; a/eS^arS^seS :real;
begin a:= h5*o5; e5:=0; var5:=0;
1
149
Page 159
mse5:=0; for j:=l to m5 do begin
if (w5[j] + a - 1) > 0 then e5:= e5 + exp(-(i5[j] + p - l)/(w5[j] + a - 1))
end; e5:= e5/m5; for j:=1 to m5 do begin
if (w5[j] + a - 1) > 0 then var5:= var5 + sqr(exp(-(i5[j] + p - l)/(w5[j] + a - 1)) - e5) else var5:= var5 + sqr(e5);
end; var5:= var5/m5; mse5:= var5 + sqr(e5 - exp(-l/o5)); writeln('La Esperanza de R5 es ER5=',e5:8:4); writeln('La varianza de R5 es VarR5=',var5:8:4); writeln('El Error Cuadratico Medio de R5 es MSER5=',mse5:8:4);
end; (* r5 *)
begin (* Programa principal *) readlnCq^fb/nfiiijh,?); (*q: percentil a partir del que se obtiene el parametro o de la exponencial k*o y b : parametros de la distribucion de Weibull n:tama$o de la muestra m:numero de replicas h*o y p : parametros de la distribucion a priori de l/o en R4.
Para h tomaremos los valores 2, 4 y 8. A p le daremos siempre el valor 4 *)
o:=-l/ln(l-q); for j:=1 to m do begin
iw(n,q,k,b,y,v); i[j]:=y; w[j];=V;
end; rl(m,o,i,w); r4(m,h,p,o,i,w); r5(m,h,p,o,i,w);
end.
150
Page 160
program cobertura(input,output); (*calcula la proporcion de veces que los estimadores Rl, R4, y R5 contienen al valor de la fiabilidad exp(-l/o) *) type
indicador= array[l..500] of integer; minimo= array[1..500] of real;
var l,n,m,j,h,y,p: integer; q,k,u,b,o,r,v: real; i: indicador; w: minimo;
function potencia(z:real;x:integer):real; var
i:integer; pot:real;
begin pot:=l; for i:=l to x do pot: = pot*z; potencia:=pot;
end;
procedure iw(n0:integer;q0,k0,b0:real; var yO:integer;var v0:real); (*calcula los valores de yO = II + ... + In y de vO = Wl + ... + Wn para una muestra de tama$o n, siendo Wj= min(Xj,Tj) y Ij= I(Xj<Tj) *)
var j:integer; o:real; x,t:array[l..100] of real;
begin o:= -l/ln(l-q0); (*parametro de la exponencial obtenido a partir del percentil q0*) v0:=0, y0:=0 for j begin
x[j]:= -o*ln(random); (*Distribucion del tiempo de fallo: exponecial de parametro o*) t[j]:= k0*o*exp((1/bO)*ln(-ln(random))); (*Distribucion de la censura: Weibull de parametros k0*o y b0*) if x[j]<t[j] then begin
v0:=v0 + x[j]; y0:=y0 + 1;
end else vO:= vO + t[j];
end; end; (* iw *)
procedure interl(ml,nl:integer; ol,ul:real; il:indicador; wl:minimo); (*Calcula ml intervalos de confianza de R, utilizando la transformacion log(-log) de Rl, y la proporcion de ellos que contienen a R *)
const
= 1 to nO do
152
Page 161
z=1.96; var
j:integer; prl:real;
begin prl:=0; for j:=1 to ml do if (exp(-exp(ln(il[j]/wl[j])+ z/sqrt(nl*ul))) <= exp(-l/ol)) and
(exp(-l/ol) <= exp(-exp(ln(il[j]/wl[j])- z/sqrt(nl*ul)))) then prl:= prl + 1; prl:= prl/ml; writeln; writeln('La proporcion de intervalos con Rl que contienen R es', prl:8:4);
end; (* inter1 *)
procedure interbl(ml,nl:integer; ol,ul:real; il:indicador;wl:minimo); (*Calcula ml intervalos de confianza de R, con la formula obtenida a partir de la convergencia asintotica de Rl, y la proporcion de ellos que contienen a R *)
const z=1.96;
var j:integer; prl:real;
begin prl:=0; for j:=1 to ml do if (exp(-il[j]/wl[j]) - (z*r)/(ol*sqrt(nl*ul)) <= r ) and ( r <= exp(-il[j]/wl[j]) + (z*r)/(ol*sqrt(nl*ul))) then prl:=prl + 1; prl:= prl/ml; writeln; writeln('La proporcion de intervalos con Rl(bis) que contienen R es',prl:8:4);
end; (* interbl *)
procedure inter4(m4,h4,p4,n4:integer; o4,u4:real; i4:indicador; w4:minimo);
(*Calcula m4 intervalos de confianza de R, utilizando la transformacion log(-log) de R4, y la proporcion de ellos que contienen a R *)
const z=1.96;
var j:integer; pr4,a:real;
begin a:=h4*o4; pr4:=0; for j:=1 to m4 do if (exp(-exp(ln(-ln(potencia((w4[j]+a)/(w4[j]+a+l),(i4[j]+p4)) ) ) + z/sqrt(n4*u4))) <= exp(-l/o4)) and (exp(-l/o4) <= exp(-exp(ln(-In (potencia((w4[j]+a)/(w4[j]+a+l),(i4[j]+p4))))- z/sqrt(n4*u4)))) then pr4:= pr4 + 1;
153
Page 162
pr4:= pr4/m4; writeln; writeln('La proporcion de intervalos con R4 que contienen R es1, pr4: 8 : 4 );
end; (* inter4 *)
procedure interb4(m4,h4,p4,n4:integer; o4,u4:real; i4:indicador; w4:minimo);
(*Calcula m4 intervalos de confianza de R, con la formula obtenida a partir de la convergencia asintotica de R4, y la proporcion de ellos que contienen a R*)
const z=1.96;
var j:integer; pr4,a:real;
begin a:=h4*o4; pr4:=0; for j:=l to m4 do if (potencia((w4[j]+a)/(w4[j]+a+l),(i4[j]+p4))-(z*r)/(o4*
sqrt(n4*u4)) <= r ) and ( r <= potencia((w4[j]+ a)/(w4[j]+a+l),(i4[j]+p4)) + (z*r)/(o4*sqrt(n4*u4)))
then pr4:=pr4 + 1; pr4:= pr4/m4; writeln; writeln('La proporcion de intervalos con R4 (bis) que
contienen es',pr4:8:4); end; (* interb4 *)
procedure inter5(m5,h5,p5,n5:integer; o5,u5:real; i5:indicador; w5 rminimo);
(*Calcula m5 intervalos de confianza de R, utilizando la transformacion log(-log) de R5, y la proporcion de ellos que contienen a R *)
const 2=1.96;
var j:integer; pr 5, a-.real;
begin a:=h5*o5; pr5:=0; for j:=1 to m5 do if (exp(-exp(ln((i5[j]+p-l)/(w5[j]+a-l))+z/sqrt(n5*u5))) <=
exp(-l/o5)) and (exp(-l/o5) <= exp(-exp(ln((i5[j]+p-l)/ (w5[j]+a-l)) - z/sqrt(n5*u5)))) and ((w5[j]+a-l) > 0 )
then pr5:= pr5 + 1; pr5:= pr5/m5; writeln; writeln('La proporcion de intervalos con R5 que contienen R es', pr5:8:4);
end; (* inter5 *)
procedure interb5(m5,h5,p5,n5:integer; o5,u5:real; i5:indicador;
154
Page 163
w5:minimo); (*Calcula m5 intervalos de confianza de R, con la formula derivada de la convergencia asintotica de R5,y la proporcion de ellos que contienen R*)
const 2=1,96;
var j:integer; a,pr5:real;
begin a:=h5*o5; pr5:=0; for j:=1 to m5 do if ((exp(-(i5[j]+p-l)/(w5[j]+a-l)) - (z*r)/(o5*sqrt(n5*u5)) <= r)
and ( r <= exp(-(i5[j]+p-l)/(w5[j]+a-l)) + (z*r)/(o5* sqrt(n5*u5))) and ((w5[j]+a-l) >0 )) or (((w5[j]+a-l) <=0) and ( r <= (z*r)/(o5*sqrt(n5*u5))))
then pr5:= pr5 + 1; pr5:=pr5/m5; writeln; writeln('La proporcion de intervalos con R5(bis) que contienen
R es',pr5:8:4); end; (* interb5 *)
begin (* Programa principal *) for 1:=1 to 2 do begin readln(q,k,b,u,n,m,h,p); (*q: percentil a partir del que se obtiene el parametro o de la exponencial k*o y b : parametros de la distribucion de Weibull u:proporcion de elementos sin censurar n:tama$o de la muestra mmumero de replicas h*o y p : parametros de la distribucion a priori de l/o en R4.
Para h tomaremos los valores 2, 4 y 8. A p le daremos siempre el valor 4 *)
o:=-l/ln(l-q); r:=l-q; for j:=1 to m do begin
iw(n,q,k,b,y,v); i[j]:=y; w[j]:=v;
end; write('Para q=',q:5:2); write(' k=',k:5:2); write(' b=',b:5:2); writeln(' u=',u:5:2); write('n=',n:3); write(' m='/m:3); write(' h=',h:3); writeln(' p=',p:3); interl(m,n,o,u,i,w); interbl(m,n,o,u,i,w); inter4(m,h,p,n,o,u,i,w); interb4(m,h,p,n,o,u,i,w); inter5(m,h,p,n,o,u,i,w); interb5(m,h,p,n,o,u,i,w);
155
Page 165
a q= 0.95 k=15.73 b* 0.50 u-- 0 . 80 n= 30 m~: 400 h = 8 p~ 4
Esperanza de Rl es ERl~-= 0.054(3 Varianza de Rl es VarRl= 0.0009 error cuadratico medio de Rl es MseRl= 0.0010
Esperanza de R4 es ER4= 0.0846 Varianza de R4 es VarR4= 0.0009 error cuadratico medio de R4 es MSER4— 0.0021
Esperanza de R5 es ER5-- 0.0651 varianza de R5 es VarR5= 0.0008 Error Cuadratico Medio de R5 es MSER5= 0.0011
proporcion de intervalos con Rl que contienen R es 0.9600
proporcion de intervalos con Rl (bis) que contienen R es 0.91H5
proporcion de intervalos con R4 que contienen R es 0.9400
proporcion de intervalos con R4 (bis) que contienen es 0.9950
proporcion de intervalos con R5 que contienen R es 0.9875
proporcion de intervalos con R5 (bis) que contienen R es 0.9750
a q= 0.95 k= 1.48 b= 0.50 u= 0.50 n~ 30 m^ 400 h = 2 p~ 4
E s p e r a n z a d e R1 e s E R1 =:: 0. 0 5 7 5 Varianza de Rl es VarRl= 0.0019 error cuadratico medio de Rl es MseRl= 0.0019
Esperanza de R4 es ER4~ 0.0506 V a r i a n z a d e R 4 e s V a r R 4 = 0.0 010 error cuadratico medio de R4 es MSER4-- 0.0010
Esperanza de R5 es ER5« 0.0274 varianza de R5 es VarR5-- 0.0O07 Error Cuadratico Medio de R5 es MSER5-- 0.0012
proporcion de intervalos con Rl que contienen R es 0.9600
proporcion de intervalos con Rl (bis) que contienen R es 0.8675
proporcion de intervalos con R4 que contienen R es 0.9875
proporcion de intervalos con R4 (bis) que contienen es 0.9150
proporcion de intervalos con R5 que contienen R es 0.8975
proporcion de intervalos con R5 (bis) que contienen R es 0.4875
Page 166
Para q~ 0.05 k-~ 1.00 b= 1.00 u~ 0.50 n-- 30 m- 400 h= 2 p = 4
La Esperanza de Rl es ER1 = 0.9479 La Varianza de Rl es VarRl™ 0.000S El error cuadratico medio de Rl es MseRl-- 0.0002
La Esperansa de R4 es ER4~ 0.9425 La Varianza de R4 es VarR4~ 0.0001 El error cuadratico medio de R4 es MSER4= 0.0002
La Esperansa de R5 es ER5~ 0.9452 La varianza de R5 es VarR5= 0.0001 El Error Cuadratico Medio de R5 es MSER5-- 0.0002
La proporcion de intervalos con Rl que contienen R es 0.9550
La proporcion de intervalos con Rl (bis) que contienen R es 0.9350
La proporcion de intervalos con R4 que contienen R es 0.97S5
La proporcion de intervalos con R4 (bis) que contienen es 0.9325
La proporcion de intervalos con R5 que contienen R es 0.4775
La proporcion de intervalos con R5 (bis) que contienen R es 0.9750
Para q= 0.05 k~ 2.00 b~ 1.00 u= 0.67 n= 30 m= 400 h= 2 p-- 4
La Esperanza de Rl es ER1= 0.9434 La Varianza de Rl es VarRl= 0.0001 El error cuadratico medio de Rl es MseRl= 0.0001
La Esperanza de R4 es ER4= 0.9442 La Varianza de R4 es VarR4= 0.0001 El error cuadratico medio de R4 es I1SER4= 0.0002
La Esperanza de R5 es ER5= 0.9463 La varianza de R5 es VarR5~ 0.0001 El Error Cuadratico Medio de R5 es MSER5=- 0.0001
La proporcion de intervalos con Rl que? contienen R es 0.9600
La proporcion de intervalos con Rl (bis) que contienen R es 0.9400
La proporcion de intervalos con R4 que contienen R es 0.9675
La proporcion de intervalos con R4 (bis) que contienen es 0.9700
La proporcion de intervalos con R5 que contienen R es 0.5225
La proporcion de intervalos con R5 (bis) que contienen R es 0.9650
Page 167
Para q= 0.05 k~ E.00 b= 1.00 u- 6.67 n= 30 m= 400 h = 8 p= 4
La Esperanza de Rl es ER1= 0.9484 La Varianza de Rl es VarRl= 0.0001 El error cuadratico medio de? Rl es MseRl= 0.0001
La Esperanza de R4 es ER4= 0.9563 La Varianza de R4 es VarR4= 0.0000 El error cuadratico medio de R4 es MSER4=: 0.0001
La Esperanza de R5 es ER5= 0.9580 La varianza de R5 es VarR5= 0.0000 El Error Cuadratico Medio de R5 es MSER5= 0.0001
La proporcion de intervalos con Rl que contienen R es 0.9425
La proporcion de intervalos con Rl <bis) que contienen R es 0.9375
La proporcion de intervalos con R4 que contienen R es 0.9450
La proporcion de intervalos con R4 (bis) que contienen es 0.9175
La proporcion de intervalos con R5 que contienen R es 0.86E5
La proporcion de intervalos con R5 (bis) que contienen R es 0.8875
Para q= 0.05 k= 4.00 b" 1.00 u= 0.80 n= 30 m= 400 h = 8 p= 4
La Esperanza de Rl es ER1= 0.9479 La Varianza de Rl es VarRl= 0.0001 El error cuadratico medio de Rl es MseRl= 0.0001
La Esperanza de R4 es ER4= 0.9550 La Varianza de R4 es VarR4= 0.0000 El error cuadratico medio de R4 es MSER4-- 0.0001
Lai Esperanza de R5 es ER5- 0.9565 La varianza de R5 es VarR5~~ 0.0000 El Error Cuadratico Medio de R5 es MSER5= 0.0001
La proporcion de intervalos con Rl que contienen R es 0.9500
La proporcion de? intervalos con Rl (bis) que contienen R es 0.9450
La proporcion de intervalos con R4 que contienen R es 0.9500
La proporcion de intervalos con R4 (bis) que contienen es 0.93E5
La proporcion de intervalos con R5 que contienen R es 0.8700
La proporcion de intervalos con R5 (bis) que contienen R es 0.9100
Page 168
.a
.a :i
.a a 1 av
-a q = 0 . 9 5 k = 0.. 2 5 b~ 1 . 0 0 u-":: 0 - 2 0 n - 3 0 m - 4 0 0 h = 8 p = 4
E s p e r a n a a d e R l e s ER1 = 0 . 0 9 1 9 V a r i a n 2 a d e R1 e s V a r • R1 = 0 . 01.1.5 e r r o r c u a d r a t i c o m e d i o d e R1 e s M s e R1 = 0 .. 0 :l. 3c
Esperanza de R4 es ER^^ 0.1619 V a r i a n z a d e R 4 e s V a r R 4 ™ 0 . 0 0 4 4 error cuadratxco medio de R4 es MSER4= 0.0169
Esperanza de R5 es ER5~- 0.1063 varianza de R5 es VarRS= 0.0033 Error Cuadratico Medio de R5 es MSER5" a q= 0.95 k« 0.E5 b~ 1.00
u= 0«SO nr-: 30 m:= 400 h = 9 pas 4
0„0070
Esperanza de Rl es ER1= 0.0895 Varianza de Rl es VarRl= 0.0151 error cuadratico medio de Rl es MseRl"
Esperanza de R4 es ER4= 0.1565 Varianza de R4 es VarR4= 0.0050 error cuadrat ico medio de R4 es MSER4=
0.0167
0.0163
Esperanza de R5 es ER5-"-- 0.1026 varianza de R5 es VarR5~ 0.0046 Error Cuadrat ico Medio de R5 es M3ERS-- 0.0073 •a q= 0.95 k= 1.00 b~ 1.00
u--~ 0.50 n= 30 m= 400 h-~ 8 p= 4
E s p e r a n z a d e R1 e s E R1 •- 0,. 0 5"/ 6 V a r i a n z a d e R1 e s V a r R1::-: 0.0 018 error cuadrat ico medio de Rl es MseRl= 0.00.1.9
Esperanza de R4 es ER4~ 0.1017 Varianza de R4 es VarR4-= 0.0017 error cuadrat ico medio de R4 es MS'ER4-~ 0.0044
Esperanza de R5 es ER5-™ 0.0734 v ari an za d e R5 es Va rR5~ 0.0015 Error Cuadratico Med io de R5 es MSER5= 0„00SO
proporcion de intervales con Rl que contienen R es 0.9550
propore ion de intervales con Rl (bis) que contienen R es 0.9100
proporci.on de intervalos con R4 que contienen R es 0 . 9300
proporcion de intervalos con R4 (bis) que contienen es 0.9935
proporcion de intervalos con R5 que contienen R es 0.9675
proporcion de intervalos con R5 (bis) que contienen R es 0.99B5
Page 169
0/
v.'.: r i ,:. •.::! U
Page 171
!.: v.:U'.*= •'" :;,;.-•, i I.-- PA- -,:•- \~X\-t••••-•
dtv P '> &<..- '••• a r :'r<'-'+--
: .oaci ' i ' ' j . t l ~ o T e d i • d
t:i '• ; :
,v., , : , ; >
U i (.-' {•••• •...' ! i . , J . ' •'• <• ! U '••:::
• X : ' i
Page 172
q~ 0-50 k ̂ 0,. S3 b-~ 0-50 /
h=- 4 p» 4 E s p e r' a n z a d e R1 e s E R1 ~" 0. 4 9 8 6 V a r i a n z a d e R1 e s V a r R1 = 0 . 01 1 1 error cuadratico medio de Rl es HseRl: 0.0:!. 11
Esperanza de R4 es ER^=» 0.5065 Varianza de R4 es VarR4= 0.0057 error cuadrat ico medio de R4 es MSER4-- 0.0057
Esperanza de R5 es ER5= 0.5061 varianza de R5 es v"arR5= 0.0066 Error Cuadrat ico Medio de R5 es MSER5= 0.0066
proporcion de intervales con Rl que contienen R es 0.9475
proporcion de intervales con Rl (bis) que contienen R es 0,
proporcion de intervales con R4 que contienen R es 0.9850
p r o p o r c i o n d e i n t e r v a 1 o s c o n R 4 ( b i s ) q u e c o n t i e n e n e s 0 „ 9 c
proporc i o n d e i n t e r v a 1 o s c o n R 5 q u e c o n t i e n e n R e s 0 . 8 A- 0 0
proporcion de intervales con R5 (bis) que contienen R es 0,
'50
9875
a q*= 0.50 k= 1.48 b = 0.50 u~ 0.50 n= 50 m~ '+00
Esperanza de Rl es ER1 = 0.4931 Var i an:a de R1 es Var R1 ~~ 0 . 0048 error cuadrat ico medio de: Rl es MseRl = 0.0048
Esperanza de R4 es ER4-- 0.4986 Varianza de R4 es VarR4~ 0.0031 error cuadrat ico medio de R4 es MS ERA"-- 0.0031
Esperanza de R5 es ER5= 0.4980 v a r i a n z a d e R 5 e s V a r R 5 ~ 0 . 0 0 3 3 Error Cuadratico Medio de R5 es MSER5- 0.0033
rrroporc ion de intervales con Rl que contienen R es 0.9685
aroporcion de intervalos con Rl (bis) que contienen R es 0.9575
Droporcion de intervalos con R4 que contienen R es 0.9775
sropore ion de intervalos con R4 (bis) que contienen es 0.93S5
3 r o p o r c i o n d e i n t e r v a 1 o s c o n R 5 q u e c o i 11 i e n e n R e s 0 . 9 0 0 0
Droporcion de intervalos con R5 (bis) que contienen R es 0.9750
Page 173
sra]q~ 0.50 I k= 0 „ 35 b=~ 1 ,5o7 u= 0. 2T> \n= ,50 J m~ 400 h = 4 p~ H
* Esperanza de Rl es ER1- 0.5105 a V a r i a n z a d e R1 e s V a r R1 = 0 .. 0 0 91 error cuadratico medio de Rl es MseRl-
a Esperanza de R4 es ER4= 0.5140 » Varianza de R4 es Var R4r™ 0.0051 t error cuadratico medio de R4 es MSER4:~
0.0092
0.0053
a Esperanza de R5 es ER5- 0.5143 a varianza de R5 es VarR5= 0.0058 L Error Cuadratico Medio de R5 es MSER5- 0.0060
5 proporcion de intervalos con Rl que contienen R es 0.9625
a proporcion de intervalos con Rl (bis) que contienen R es 0.9775
a proporcion de interval los con R4 que cont ienen R es C 9 9 2 5
a p r o p o r c i o n d e i n t e r v a 1 o s c o n R 4 i b i s ) q u e c o n t i e n e n e s 1 » 0 0 0 0
a proporcion de intervalos con R5 que contienen R es 0.8775
a proporcion de intervalos con R5 (bis) que contienen R es 0.9975
-a q= 0.50 k= 0.83 b~ 1.50 u= 0.50 r»= 50 m™ 400 h-~ 4 p== 4
Esperanza de Rl es ER1« 0.4977 Varianza de Rl es VarRl" 0.0050 error cuadratico medio de Rl es MseRl™
Esperanza de F;:4 es ER4= 0.5024 V a r i a n z a d e R 4 e s V a r R 4 ::= 0. 0 0 3 6 error cuadratico medio de R4 es M SEER 4 =
O B 0050
0.0036
a
Esperanza de R5 es ER5- 0.5020 varianza de R5 es VarR5=; 0.0039 Error Cuadratico Medio de R5 es MSER5= 0.0039
proporcion de intervalos con Rl que? cont ienen R es 0.9500
p r o p o r c i o n d e i n t erv a1o s c on R1 (b i s) q ue c o nt i enen R es 0.9500
p r o p o T " c i o n d e i n t e rva 1o s c o n R 4 q ue c o n tienen R e s 0.9725
proporcion de intervalos con R4 (bis) que cont ienen es 0.96300
proporcion de intervalos con R5 que contienen R es 0.8850
p r o p o r c i o n d e i n t e r v a 1 o s c o n R 5 ( b i s ) que c o n t i e n e n R e s 0 . 9 ?' 5 0
Page 174
u= O.20 n= 50 m= 400 h= 8 p~~ 4
Esperanza de Rl es ER1 = 0.5039 Varianza de Rl es VarRi= 0.009? error cuadratico medio de Rl es MseRl~~ 0.0097
Esperanza de R4 es ER4= 0.5783 Varianza de R4 es VarR4-- 0,0044 error cuadratico medio de R4 es MSER4= 0.0105
Esperanza de R5 es EE5= 0.5820 v a r i a n z a d e R 5 e s V a r R 5 := 0 . 0 0 4 9 Error Cuadratico Medio de R5 es MSER5-- 0.0116
proporcion de intervalos con Rl que contienen R es 0.9575
proporcion de intervalos con Rl (bis) que contienen R es 0,9725
proporcion de intervalos con R4 que contienen R es 0.9475
proporcion de intervalos con R4 (bis) que contienen es 0.9875
proporc ion de intervalos con R5 que contienen R es 0.9200
proporcion de intervalos con R5 (bis) que contienen R es 0.9800 ra q= 0.50 k~ 0.83 b-~- 1.50
u-~ 0.50 n= 50 m= 400 h:~ 8 p= 4
Esperanza de Rl es ER1 = 0.5021 Varianza de Rl es VarRl= 0.0049 error cuadratico medio de Rl es MseRl= 0.0050
Esperanza de R4 es ER4~ 0.5511 Varianza de R4 es VarR4= O.0029 error cuadratico medio de R4 es MSER4-™ 0.0056
Esperanza de R5 es EE5-- 0.5525 varianza de R5 es VarR5= 0.0031 Error Cuadratico Medio de R5 es MSER5= 0.0059
proporcion de? intervalos con Rl que contienen R es 0.. 9585
proporcion de intervalos con Rl (bis) que contienen R es 0.9600
proporcion de intervalos con R4 que contienen R es 0.9050
proporcion de intervalos con R4 (bis) que contienen es 0.9475
proporcion de intervalos con R5 que contienen R es 0.8700
proporcion de intervalos con R5 (bis) que contienen R es 0.9200