Cap´ ıtulo 7 Variables Aleatorias Bidimensionales En nuestro estudio hasta ahora, solo nos interesaba el an´alisis de una va- riable en un experimento dado. En estos casos indic´ abamos el resultado del experimento con un solo “n´ umero” x. Sin embargo en algunos experimentos aleatorios es posible observar varias caracter´ ısticas al mismo tiempo. Son ejemplo de la anterior: 1) Observaci´ on de varias propiedades de un material como (dureza y con- tenido). Aqu´ ı (d,c) es un resultado del experimento. 2) Observaci´ on de las facciones raciales (peso, estatura, color de los ojos y el pelo de una persona). En este caso (p,e,o,l) es un resultado del experimento. 3) Cantidad de lluvia total (u) y promedio (p) de temperaturas en octubre. (u,p) es un resultado del experimento. 4) Producci´ on y consumo. 5) Ventas y utilidades. 6) Gastos en publicidad, valor de la renta. 7) Rendimiento y deserci´ on escolar. 8) Salario, horas de trabajo. 1
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Capıtulo 7
Variables AleatoriasBidimensionales
En nuestro estudio hasta ahora, solo nos interesaba el analisis de una va-riable en un experimento dado. En estos casos indicabamos el resultado delexperimento con un solo “numero” x. Sin embargo en algunos experimentosaleatorios es posible observar varias caracterısticas al mismo tiempo.Son ejemplo de la anterior:
1) Observacion de varias propiedades de un material como (dureza y con-tenido). Aquı (d,c) es un resultado del experimento.
2) Observacion de las facciones raciales (peso, estatura, color de los ojosy el pelo de una persona). En este caso (p,e,o,l) es un resultado delexperimento.
3) Cantidad de lluvia total (u) y promedio (p) de temperaturas en octubre.(u,p) es un resultado del experimento.
Definicion 7.0.1. Sea (Ω,=, P ) un espacio de probabilidad. Definamos comovector aleatorio, variable multidimensional o variable aleatoria multivariadaa una funcion X de Ω en Rm que sea ξ-medible o sea, la funcion:
X(w) = (X1(w), X2(w), ..., Xm(w))
es tal que para todo i = 1, 2, ...,m y todo Ii ⊂ R, se tiene X−1(Ii) ∈ =
Observacion 7.0.1. Queda implicito que X1, X2, ..., Xp son v.a. en el mismoespacio de probabilidad (Ω,=, P ). Ası,
tambien es un evento dado que es la interseccion de elementos de la σ-algebra=.
Definicion 7.0.2. Sea ε experimento y Ω espacio muestral asociado a ε.Sean X, Y variables aleatorias que asignan un numero real a cada ω ∈ Ω.Llamamos (X, Y ) una variable aleatoria bidimensional (v.a.b.) [o vector alea-torio bidimensional].
Graficamente.
Figura 7.1: vector aleatorio bivariado
Si notamos con h = (X, Y ) podemos decir que una v.a.b h no es mas queuna funcion
3
h :Ω −→ R2
ω −→ (X, Y )(ω) = (X(ω), Y (ω))
Si X1, X2, X3, ..., Xn son n familias aleatorias, cada una de las cuales asignaa cada ω ∈ Ω un unico numero real [X1 = X1(ω), ..., Xn = Xn(ω)], entoncesla n− upla (X1, X2, ..., Xn) es una variable aleatoria n− dimensional.
Observacion 7.0.2. Ası como en el caso unidimensional RX representa elrecorrido de X, RX×Y es el recorrido de (X, Y ) en el caso bidimensional.RX×Y sera entonces un subconjunto del plano euclidiano, pues cada uno delos resultados X(ω), Y (ω) se podra representar como un punto (X, Y ) delplano.
Definicion 7.0.3. El vector (X, Y ) es una variable aleatoria bidimensionaldiscreta (v.a.b.d.) si los posibles valores de (X, Y ) son finitas o infinitas nu-merables. Es decir los posibles valores de (X, Y ) se pueden representar como(xi, yi), i = 1, 2, ..., n, ... j = 1, 2, ...,m, ...
El vector (X, Y ) es una variable aleatoria bidimensional continua (v.a.b.c.)si pueden tomar todos los valores en un conjunto no-numerable del planoeuclidiano.
En el caso discreto los valores de (X, Y ), (xi, yi) se ubica en el plano eucli-diano tal como se muestra a continuacion.
En el caso caso continuo (X, Y ) puede tomar, por ejemplo, todos los valoresen el rectangulo. (X, Y )/a ≤ X ≤ b, c ≤ Y ≤ do todos los valores en el circulo (X, Y )/X2 + Y 2 ≤ 1.
Observacion 7.0.3.
a) El vector (X, Y ) es una v.a.b. si representa un resultado del experimen-to en el cual han medido las caracterısticas numericas X y Y .
Figura 7.2: variable aleatoria bidimensional discreta
Figura 7.3: variable aleatoria bidimensional continua
Figura 7.4: variable aleatoria bidimensional continua
b) Como en el capitulo anterior, puede suceder que una de las componentesde (X, Y ) sea discreta mientras que la otra sea continua. Sin embargoen la mayorıa de los casos interesa que ambas variables sean discretaso ambas sean continuas.
c) Muchos veces, las dos variablesX y Y consideradas en conjunto, puedenser el resultado de un experimento [Ejemplo: Peso o Estatura de unapersona], pero no es necesario que esta conexion exista. Por ejemplo, Xpodrıa ser la corriente que circula por un circuito y Y la temperaturaambiente.
7.1. DISTRIBUCION DE PROBABILIDAD DE (X,Y) 5
7.1. Distribucion de Probabilidad de (X,Y)
Definicion 7.1.1.
a) Sea (X, Y ) una v.a.b.d. a cada resultado (xi, yj) asociamos un numero℘(xi, yj) que representa P [X = xi, Y = yj] el cual satisface las siguien-tes condiciones:
i. ℘(xi, yj) ≥ 0 para toda (xi, yj).
ii.∞∑j=1
∞∑i=1
℘(xi, yj) = 1.
La funcion ℘ definida para toda (xi, yj) ∈ RX×Y es llamada funcionde probabilidad de (X,Y). El conjunto de ternas (xi, yi, ℘(xi, yj))i = 1, 2, ..., n, ... j = 1, 2...,m, ... se denomina distribucion de pro-babilidad conjunta de (X,Y)
b) Sea (X, Y ) una v.a.b.c. que tomas todos sus valores en una region Bdel plano euclidiano. La funcion de densidad de probabilidad conjuntaf es una funcion que cumple las siguientes condiciones:
1. f(x, y) ≥ 0 para toda (x, y) ∈ B,
2.
∫∫B
f(x, y) dxdy = 1.
Observacion 7.1.1.
1) Consideremos una masa total unitaria distribuida en una region delplano. En el caso discreto toda la masa esta ubicada en un numerofinito o a lo mas infinito enumerable de puntos, con masa ℘(xi, yi) enel punto (xi, yi) para todo i, j.En el caso continuo la masa se encuentra ubicada en una region B delplano.
2) La condicion
∫∫B
f(x, y) dxdy = 1 significa que el volumen total bajo
3) ¡f(x, y) no representa la probabilidad de nada! Para ∆x y ∆y pequenosy positivos se encuentra que
f(x, y)∆x∆y ∼= P [x ≤ X ≤ x+ ∆x, y ≤ Y ≤ y + ∆y]
¡f(x, y) da la densidad conjunta de masa!
4) Se considera f(x, y) = 0 para (x, y) 6∈ B. Este hecho nos permiteconsiderar a f definida para todo (x, y) del plano de modo que∫∫
B
f(x, y) dxdy =
∫ ∞−∞
∫ ∞−∞
f(x, y)dxdy = 1.
5) La distribucion de probabilidad conjunta de (X, Y ) es inducida porsucesos asociados a Ω, el espacio muestral original. Sin embargo nosinteresaran siempre los (x, y) en RX×Y para ası obtener ℘(x, y).No obstante, si es posible especificar P (A) para todo A ⊆ Ω, se puededeterminar la probabilidad con sucesos asociados a RX×Y . Es decir siB ⊆ RX×Y se tiene:
P (B) = P [(X(ω), Y (ω)) ∈ B] = P [ω ∈ Ω/(X(ω), Y (ω)) ∈ B].
Esta ultima probabilidad se refiere a sucesos en Ω. Se puede considerarentonces que los sucesos B y ω ∈ Ω/(X(ω), Y (ω)) ∈ B son equiva-lentes.
Figura 7.5: Sucesos bivariados equivalentes
7.1. DISTRIBUCION DE PROBABILIDAD DE (X,Y) 7
En caso que (X, Y ) sea discreta, tenemos
P (B) =∑∑
B℘(xi, yi).
Si (X, Y ) es continua
P (B) =
∫∫B
f(x, y) dxdy.
Ejemplo 7.1.1. Considere el experimento consistido en tomar una monedade 50 pesos y una de 20 pesos. Son las dos variables: X : Numero de carasen la moneda de 50 y Y : Numero de caras en la de 20 pesos.Hallar: RX , RY , RXY y hacer la densidad de probabilidad de (X, Y ). Graficar!
Solucion:
Claramente RX = 0, 1 = RY y RXY = (0, 0), (0, 1), (1, 0), (1, 1)
Y |X 0 1
0 14
14
1 14
14
¿Como obtenemos ℘(1, 1)?
℘(1, 1) = P [X = 1, Y = 1] = Pω ∈ Ω/(X, Y )(ω) = (1, 1) = Pcc = 14, en
forma similar se procede en los otros casos.
La grafica de la distribucion de probabilidad es como sigue:
Ejemplo 7.1.2. Se lanza un par de dados corrientes. Sean X y Y las varia-bles definidas como sigue:X(a, b) = max(a, b) y Y (a, b) = a+ b.
Obtener la distribucion de probabilidad conjunta (X, Y ).
En este caso debemos buscar el elemento de Ω, espacio muestral asociado aε, cuyo maximo sea 1 y cuya suma sea 2. Luego ℘(1, 2) = P(X = 1, Y =1) = P(1, 1) = 1
Ejemplo 7.1.3. Dos variables X y Y tienen la siguiente distribucion deprobabilidad conjunta.
Y |X 1 2 3
1 112
16
0
2 0 14
15
3 118
14
215
Hallar.
a) ℘(2, 1); ℘(3, 2); ℘(3, 4)
b) Sea B = X > Y . Hallar P (B).
c) Calcular P [X + Y < 7]
Solucion:
a) ℘(2, 1) = P(X = 2, Y = 1) = 16,
℘(3, 2) = P(X = 3, Y = 2) = 15,
℘(3, 4) = P(X = 3, Y = 4) = 0.
b) P (B) = PX > Y =∑∑
X>Y ℘(x, y) = ℘(2, 1) + ℘(3, 1) + ℘(3, 2) =16
+ 0 + 15
= 1130.
c) Similar.
Ejemplo 7.1.4. Suponga que un grupo de 10 personas se encuentran clasifi-cados en las clases A, B, C y D de tal forma que el numero de personas porclases es:
7.2. FUNCION DE DISTRIBUCION ACUMULATIVA DE LA V.A.B. (X, Y )15
7.2. Funcion de Distribucion Acumulativa de
la v.a.b. (X, Y )
Definicion 7.2.1. Sea (X, Y ) una variable aleatoria bidimensional. La fun-cion de distribucion acumulativa (f.d.a.) de F de la variable aleatoria bidi-mensional (X, Y ) viene dada por:
F (X, Y ) = P [X ≤ x, Y ≤ y] −∞ < x <∞, −∞ < y <∞.
En el caso bidimensional la “masa” total de probabilidad esta distribuida enel plano X − Y de modo que F (x, y) nos da la cantidad de masa que hay en(x, y) y en todos los puntos que tienen abscisas inferior o igual a x, a la vez,ordenada inferior o igual a y
Figura 7.9: fda de la v.a.b. (X, Y ).
El siguiente teorema que demostraremos, veremos las propiedades mas im-portantes de la f.d.a. de una variable aleatoria bidimensional (X, Y )
Teorema 7.2.1. Sea (X, Y ) una variable aleatoria bidimensional con f.d.aF (x, y), x ∈ R, y ∈ R entonces.
1. F (−∞, y) = P [X ≤ −∞, Y ≤ y] = 0, ∀y ∈ R
2. F (x,−∞) = P [X ≤ x, Y ≤ −∞] = 0, ∀x ∈ R
3. F (∞,∞) = P [X ≤ ∞, Y ≤ ∞] = 1
4. F (x, y) es no decreciente en las dos variables, esto es
es la densidad media usada de probabilidad en el rectangulo, entonces
lım∆x−→0∆y−→0
D es la densidad instantanea en el punto (x, y) y
lım∆x−→0∆y−→0
D =∂2F (x, y)
∂x∂y
Esta densidad la reescribimos
f(x, y) =∂2F (x, y)
∂x∂y
y corresponde exactamente a la funcion de densidad de probabilidad conjuntade la v.a.b. (X, Y ). Note que F (x, y) es no decreciente con las dos variablesentonces f(x, y) ≥ 0 ∀x, y ∈ R.
Ejemplo 7.2.1. Refiriendonos al Ejemplo 7.2.3. Hallar F (x, y).
Solucion: Tenemos,
7.2. FUNCION DE DISTRIBUCION ACUMULATIVA DE LA V.A.B. (X, Y )19
Y |X 0 1
0 14
14
1 14
14
La f.d.a. FXY (x, y) viene dada por:
Y |X X < 0 0 ≤ X < 1 1 ≤ X
Y < 0 0 0 0
0 ≤ Y < 1 0 14
12
1 ≤ Y 0 12
1
Con la solucion al cuadro anterior calculemos: F (0, 0,1), F (0, 1,8), F (−1, 1)y F (1,8, 2,6)Entonces, se tiene que:F (0, 0,1) = P [X ≤ 0, Y ≤ 0,1] = ℘(0, 0) = 1
4,
F (0, 1,8) = P [X ≤ 0, Y ≤ 1,8] = ℘(0, 0) + ℘(0, 1) = 14
+ 14
= 12,
F (−1, 2) = P [X ≤ −1, Y ≤ 2] = 0,F (1,8, 2,6) = P [X ≤ 1,8, Y ≤ 2,6] = ℘(0, 0) + ℘(0, 1) + ℘(1, 0) + ℘(1, 1) = 1.
Ejemplo 7.2.2. Sea (X, Y ) una v.a.b.c. con fdp conjunta dada por:
que h(x) no dependa de y, g(y) no dependa de x, a, b no dependan de x yc, d no dependan de y.
Ejemplo 7.2.3. La fda de una variable v.a.b.c. (X, Y ) viene dada por
FXY (x, y) =
1− 3−x − 3−y + 3−x−y x ≥ 0, y ≥ 00 en otro caso
Hallar fXY (x, y).
Solucion:Usando el hecho que f(x, y) = ∂2F (x,y)
∂x∂y.
En efecto:
∂FXY (x, y)
∂x= ln 3(3−x − 3−x−y)⇒ ∂2FXY (x, y)
∂x∂y= ln2 3(3−x−y).
Ejemplo 7.2.4. Sabiendo la que la F (x, y) de una v.a.b.c. viene dada por:
F (x, y) =
senxseny para 0 ≤ x ≤ π
2∧ 0 ≤ y ≤ π
2
0 para x < 0 o y < 0
Hallar la probabilidad de que el punto aleatorio (x, y) caiga en el rectangulolimitado por las rectas X = 0, X = π
4, Y = π
6y Y = π
3.
Solucion:Usando la expresion
P [x1 ≤ X ≤ x2, y1 ≤ Y ≤ y2] = F (x2, y1)− F (x1, y2)− F (x2, y1) + F (x1, y1)
tomando x1 = 0, x2 = π4, y1 = π
6y y2 = π
3, se obtiene:
P [x1 ≤ X ≤ x2, y1 ≤ Y ≤ y2] = senπ
4sen
π
6− sen0sen
π
3− senπ
4sen
π
6+ sen0sen
π
6
=
√3−√
2
4.
7.2. FUNCION DE DISTRIBUCION ACUMULATIVA DE LA V.A.B. (X, Y )21
7.2.1. Funcion de Distribucion Conjunta de un vectoraleatorio
La funcion de distribucion conjunta del vector aleatorio X es definida por:
F (X) = F (X1, X2, ..., Xm) = P (X1 ≤ x1, X2 ≤ x2, ..., Xm ≤ xm)
para cualquier X = (X1, X2, ..., Xm) ∈ Rm
Ejemplo 7.2.5. En un centro de atencion X1 representa el tiempo de espe-ra(minutos) para que un cliente inicie su atencion y X2 es el tiempo que larecepcionista gasta en atenderlo.El comportamiento conjunto de las dos variables esta dado por la funcion dedistribucion:
La anterior funcion de distribucion sirve para evaluar la calidad del serviciode la atencion teniendo en cuenta las probabilidades del tiempo de demora yde atendimiento.
Propiedades 7.2.1. Sea X un vector aleatorio en (Ω,=, P ), entonces paracualquier X ∈ RP , F (X) cumple las siguientes propiedades:
1. F (X) es no decreciente en cada uno de sus componentes.
2. Si para algun j, Xj −→ −∞, entonces F (X) −→ 0 y si para todo j,Xj −→∞, entonces F (X) −→ 1.
3. F (X) es tal que para cualesquiera (ai, bi) tal que ai < bi, 1 ≤ i ≤ n,
P (a1 ≤ X1 ≤ b1, a2 ≤ X2 ≤ b2, ..., an ≤ Xn ≤ bn) ≥ 0.
4. F (X) es continua a derecha en cada uno de sus componentes.
a) Es obvia por la definicion de probabilidad, dado que
ω : ai ≤ X(ω) ≤ bi ∈ F para cada i = 1, 2, 3, ...,m
y por tanto⋂mi=1ω : ai ≤ Xi(ω) ≤ bi ∈ F .
b) La demostracion es analoga al caso univariado.
7.3. Funcion de Distribucion Marginal
Dada una v.a.b. (X, Y ) podemos estar interesados en la variable aleatoriaunidimensional X o Y , es decir podemos estar interesados en la distribucionde probabilidad de X o en la distribucion de probabilidad de Y .Consideremos la siguiente funcion de probabilidad conjunta de (X, Y ).
7.3. FUNCION DE DISTRIBUCION MARGINAL 23
Y |X 1 2 3∑
1 112
16
0 312
2 0 19
15
1445
3 118
14
215
79180∑
536
1936
13
1
En la tabla anterior calculamos los “totales marginales”. Las probabilidadesque aparecen en los margenes de las filas y columnas representan la distribu-cion de probabilidad de X y Y respectivamente. Por ejemplo P [X = 2] = 19
86,
P [Y = 1] = 312, etc.
Debido a la forma de la tabla nos referimos a estas como distribucion mar-ginal de X o distribucion marginal de Y .
En el caso discreto tenemos: X = xi ⇔ [X = xi∧Y = y1]o[X = xi∧Y =y2] o · · · Entonces,
P [X = xi] = P [X = xi, Y = y1] + P [X = xi, Y = y2] + · · ·
=∞∑j=1
℘(xi, yj)
entonces ℘ =∞∑j=1
℘(xi, yj)
Si definimos la funcion ℘ para x1, x2, ..., tenemos entonces la distribucionmarginal de probabilidad de X.
Esta distribucion marginal de X se puede representar de la siguiente manera:
En forma similar se tiene: Y = yj ⇔ [X = x1∧Y = yj]o[X = x2∧Y = yi] o ...Entonces,
P [Y = yj] = P [X = x1, Y = yj] + P [X = x2, Y = yj] + · · ·
=∞∑i=1
℘(xi, yj)
entonces q =∞∑i=1
℘(xi, yj)
Si definimos la funcion q para y1, y2, ..., tenemos entonces la distribucion mar-ginal de probabilidad de Y , la cual se representa de la siguiente forma:
Y y1 y2 · · · yk
q(y) q(y1) q(y2) · · · q(yk)
Tambien podemos definir la funcion de distribucion marginal de X, querepresentamos F1(x) y definiremos como sigue.
F1(x) = P [X ≤ x] = F (x,∞), x ∈ R.
Similarmente, la funcion de distribucion marginal de Y, que represen-tamos F2(y) la definiremos como sigue.
F2(y) = P [Y ≤ y] = F (∞, y), y ∈ R.
Graficamente, se tiene:En el caso continuo procedemos ası: Sea f(x, y) la funcion de densidad
de probabilidad conjunta de la v.a.b.c. (X, Y ).Definimos g y h las funciones de densidad de probabilidad marginales de Xy Y como sigue.
fdp marginal de X,
g(x) =
∫ ∞−∞
f(x, y) dy.
7.3. FUNCION DE DISTRIBUCION MARGINAL 25
Figura 7.10: Funcion de distribucion marginal de X.
Figura 7.11: Funcion de distribucion marginal de Y.
fdp marginal de Y ,
h(y) =
∫ ∞−∞
f(x, y) dx.
Tales fdp marginales corresponden a las fdp basicas de las variables aleatoriasunidimensionales X ∧ Y . En efecto:
Ejemplo 7.3.1. Sea (X, Y ) una v.a.b. discreta cuya fdp conjunta esta dadapor la tabla
Y |X 1 2 3∑
j
1 112
16
0 312
2 0 19
15
1445
3 118
14
215
79180∑
i536
1936
13
1
Interpretacion:℘(x2, y3) = P [X = x2, Y = y3] = P [X = 2, Y = 3] = 1
4
Facilmente se puede comprobar (en la tabla) que∑i
∑j
℘(xi, yj) = 1.
La grafica de la distribucion de probabilidad es la siguiente:La probabilidad esta distribuida en los 9 puntos del grafico, fuera de ellos nohay probabilidad.Algunos valores de la funcion de distribucion son:
F (2,1, 2,8) = P [X ≤ 2,1, Y ≤ 2,8]
= ℘(1, 1) + ℘(1, 2) + ℘(2, 1) + ℘(2, 2)
=1
12+ 0 +
1
6+
1
9=
13
36F (0, 3) = P [X ≤ 0, Y ≤ 3] = 0.
Encontremos las distribuciones marginales:Para X:
7.3. FUNCION DE DISTRIBUCION MARGINAL 27
Figura 7.12: Funcion marginal v.a.b.d.
℘(x1) = P [X = 1] =∑j
℘(1, yj) = ℘(1, 1) + ℘(1, 2) + ℘(1, 3) =5
36
℘(x2) = P [X = 2] =1
6+
1
9+
1
4=
19
36
℘(x3) = P [X = 3] =1
3
Luego la distribucion marginal de X sera
x 1 2 3℘(x) 5
361936
13
Podemos interpretar la distribucion de X ası: las probabilidades que hay enlos puntos de abscisas X = 1, las proyectamos al eje x sobre el punto (1, 0),lo mismo hacemos para los puntos (2, 0), (3, 0); lo que se obtiene ası es ladistribucion de la probabilidad total sobre el eje X.
La distribucion marginal de Y sera
y 1 2 3q(y) 3
121445
79180
Algunos valores de las funciones de las distribuciones son:F1(2,6) = P [X ≤ 2,6] = ℘(1) + ℘(2) = 5
Ejemplo 7.3.2. Suponga que (X, Y ) es una v.a.b.c. con fdp conjunta dadapor:
f(x, y) =
2(x+ y − 2xy) si 0 ≤ x ≤ 1,0 ≤ y ≤ 10 En otra parte
Hallar las fdp marginales.
Solucion: fdp marginal de X
g(x) =
∫ 1
0
2(x+ y − 2xy) dy
= 2(xy +y2
2− xy2)
∣∣∣∣10
= 1 para 0 ≤ x ≤ 1.
Claramente se puede ver que X es una v.a.c. distribuida uniformemente en[0, 1).
f.d.p marginal de Y
h(y) =
∫ 1
0
2(x+ y − 2xy) dx
= 2(x2
2+ xy − x2y)
∣∣∣∣10
= 1 para 0 ≤ y ≤ 1.
Tambien Y es una v.a.c. distribuida uniformemente en [0, 1).
Ejemplo 7.3.3. suponga que la v.a.b.c. (X, Y ) tiene fdp conjunta
f(x, y) =
kx(x− y) para 0 < x < 2, −x < y < x0 en otra parte
7.3. FUNCION DE DISTRIBUCION MARGINAL 29
a) Hallar k.
b) Hallar g(x).
c) Hallar h(y).
Solucion: Es importante notar en este ejemplo que los valores que toma ydependen de lo que vaya asumiendo x. Especıficamente la region objeto deestudio es:
0 > −x > −2 por lo tanto se debe tomar en cuenta que −2 < −x <y < x < 2. Entonces, existen por lo tanto dos probabilidades:
i) 0 ≤ y < 2 y y < x < 2, entonces
h(y) = 18
∫ 2
y
(x2 − xy) dx =1
3− y
4+y3
48si 0 ≤ y < 2.
ii) −2 < y ≤ 0 y −2 < −x < y, entonces
h(y) = 18
∫ 2
−y(x2 − xy) dx =
1
3− y
4+
5y3
48si −2 < y ≤ 0.
Extendemos ahora la definicion de distribucion marginal a un vector aleatoriom-dimensional.
Definicion 7.3.1. Sea X = (X1, X2, · · · , Xk, · · · , Xm) un v.a. m-dimensionalcon funcion de distribucion F (x) y fdp conjunta f(x), donde x = (x1, x2, · · · , xk, · · · , xm)Entonces, se define la funcion de densidad marginal por:
fXk(xk) =
∫x1
· · ·i 6=k
∫xm
f(x)m∏i=1i 6=k
dxi. (7.1)
La funcion de distribucion viene dada por la expresion:
FXk(xk) = lımx1→∞
· · ·i 6=k lım
xm→∞F (x). (7.2)
7.4. DISTRIBUCION CONDICIONAL 31
Ejemplo 7.3.4. Sea
FXY (x, y) =
0 si x < 0 o y < 0x5(1− e−y) si 0 < x < 5 ; y ≥ 0
1− e−y si x ≥ 5 ; y ≥ 0
la funcion de distribucion del v.a.b. (X, Y ). Entonces,
fXY (x, y) =∂2FXY (x, y)
∂x∂y=
15e−y si 0 ≤ x < 5 ; y ≥ 0
0 caso contrario.
Las fdp marginales son:
1.
fX(x) =
∫ ∞0
1
5e−ydy =
1
5, si 0 ≤ x < 5.
2.
fY (y) =
∫ 5
0
1
5e−ydx = e−y, si y ≥ 0.
Asimismo, las fda marginales vienen dadas por:
FX(x) = lımy→∞
FXY (x, y) =
0 si x < 0x5
si 0 ≤ x < 51 si x ≥ 5.
y
FY (y) = lımx→∞
FXY (x, y) =
0 si y < 01− e−y si y ≥ 0.
7.4. Distribucion Condicional
Definicion 7.4.1. 1. Sea (X, Y ) una v.a.b. discreta con funcion de pro-babilidad ℘(x, y). Sea g(yj) la funcion de probabiidad marginal de lav.a.d. Y, si para Y = yj, g(yj) > 0; se define la funcion de probabilidadde X = xi dado Y = yj como:
La funcion de distribucion condicional de X = xi dado Y = yj sera:
F (x0|yj) = P [X ≤ x0|y = yj] =
∑xi≤x0
℘(xi, yj)
g(yj).
2. Sea (X, Y ) una v.a.b. discreta con funcion de probabilidad ℘(x, y). Sea℘(xi) la funcion de probabiidad marginal de la v.a.d. X, si para X = xi,℘(xi) > 0; se define la funcion de probabilidad de Y = yj dado X = xicomo:
g(yj|xi) = P [Y = yj|X = xi] =P [X = xi, Y = yj]
℘(xi). (7.4)
La funcion de distribucion condicional de Y = yj dado X = xi sera:
F (yj|xi) = P [y ≤ yj|X = xi] =
∑Y≤y0
℘(xi, yj)
℘(xi).
Definicion 7.4.2. Sea (X, Y ) una v.a.b continua con f.d.p conjunta f(x, y),g y h las fdp marginales de X y Y respectivamente.Entonces,
1. Si h(y) > 0, la fdp condicional de X para Y = y dada, esta definidapor:
g(x|y) =f(x, y)
h(y). (7.5)
La fda de X para Y = y dada, esta definida por:
F (x|y) =
∫ x
−∞g(z|y)dz. (7.6)
2. Si g(x) > 0, la fdp condicional de Y para X = x dada, esta definidapor:
h(y|x) =f(x, y)
g(x). (7.7)
la fdp condicional de Y para X = x dada, esta definida por:
F (y|x) =
∫ y
−∞h(z|x)dz. (7.8)
7.4. DISTRIBUCION CONDICIONAL 33
Ejemplo 7.4.1. Con referencia a la tabla siguiente hallar las distribucionescondicionales de X dado Y = 2 y de Y dado X = 3.
Y |X 1 2 3∑
i
1 112
16
0 312
2 0 19
15
1445
3 118
14
215
79180∑
j536
1936
13
1,0
Solucion:
Distribucion de X condicionada a Y = 2.Llamando q(y) la funcion de probabilidad de la v.a. Y, entonces q(2) =1445. Luego,
℘(xi|2) = P [X = xi|Y = 2] = P (X=xi,Y=2)q(2)
; es decir,
℘(x1|2) = ℘(1|2) = ℘(1,2)q(2)
= 014/45
= 0,
℘(x2|2) = ℘(2|2) = ℘(2,2)q(2)
= 1/914/45
= 45126,
℘(x3|2) = ℘(3|2) = ℘(3,2)q(2)
= 1/514/45
= 4570.
En resumen:
x 1 2 3℘(xi|2) 0 45
1264570
Note que∑
i ℘(xi|2) = 1,0
Llamando ℘(x) la funcion de probabilidad de la v.a. X, se tiene que℘(3) = 1
3, entonces la distribucion de Y condicionada a X = 3 es:
Intuitivamente, X, Y son variables aleatorias independientes si el resultadode X de ninguna manera influye en el resultado de Y . Precisemos en mejorforma lo anterior:
Definicion 7.6.1. Sea (X, Y ) una variable aleatoria bidimensional discre-ta. Decimos que X, Y son variables aleatorias independientes si ℘(xi, yj) =℘(xi) · q(yj) para todo i, j. (esto es, si la funcion de probabilidad conjunta esigual al producto de las marginales).
En consecuencia se tiene el siguiente resultado:
Teorema 7.6.1. Sea (X, Y ) una v.a.b. discreta. X y Y son independientessi y solo si ℘(xi|yj) = ℘(xi) para todo i, j (o lo que es equivalente, si y solosi q(yj|xi) = q(yj) para todo i, j).
7.6. VARIABLES ALEATORIAS INDEPENDIENTES 43
Demostracion. ” ⇒ ” Sean X y Y independientes, entonces ℘(xi, yj) =
℘(xi) · q(yj) para todo i, j. Luego: ℘(xi|yj) =℘(xi,yj)
q(yj)= ℘(xi)
” ⇐ ” Supongamos que ℘(xi|yj) = p(xi). Como ℘(xi|yj) =℘(xi,yj)
q(yj), entonces
℘(xi, yj) = ℘(xi) · q(yj).
Ejemplo 7.6.1. Corrobore si las variables X y Y dadas en la tabla siguienteson independientes.
Y |X 1 2 3 q(yj)
1 112
16
0 312
2 0 19
15
1445
3 118
14
215
79180
℘(xi)536
1936
13
1
Solucion: Para probar que X y Y son independientes tenemos que probarque ℘(xi, yj) = ℘(xi) · q(yj) para todo i, j.Debemos por lo tanto comprobar si esta igualdad se cumple con cada uno delos 9 puntos con probabilidad dada. Entonces,
℘(x1, y1) = ℘(1, 1) = 112. Ahora,
℘(x1) = ℘(1) = 536
q(y1) = q(1) = 312
⇒ ℘(x1) · q(y1) =
5
36· 3
12=
5
144
Luego ℘(x1, y1) 6= ℘(x1) · q(y1).Habiendo encontrado un punto que no satisfaga la condicion podemos afirmarque X y Y no son independientes.
Observacion 7.6.1. Antes de dar la definicion de independencia estocasticapara v.a.b. continuas, veamos lo siguiente:
Sea (X, Y ) una v.a.b. continua con funcion de densidad conjunta f(x, y).Sea R = (x, y) ∈ R2|f(x, y) > 0, esto es, la region del plano donde esta dis-tribuida la probabilidad.Supongamos que R es tal que x ∈ R1 ⊆ R mientras que y ∈ R2 ⊂ R demodo que R1 no esta afectado por los valores que toma la v.a. en Y = y,
asimismo R2 no esta afectado por los valores que toma la v.a. en X = x,en estas condiciones R es una region rectangular, R = R1 × R2, esto esR = (x, y)|a ≤ x ≤ b, c ≤ y ≤ d con a,b,c,d constantes. Si R es de estaforma decimos que es un ESPACIO PRODUCTO (o que la variable aleatoriabidimensional (X, Y ) tiene distribucion en el espacio producto).
Ejemplo 7.6.2.
R es un espacio producto, R = (x, y)| 1 ≤ x ≤ 5, 1 ≤ y ≤ 4.
D no es un espacio producto, D = (x, y)| 0 ≤ x ≤ 2, 0 ≤ y ≤ 6−3x2.
En general, R es un espacio producto si esta limitada solo por rectas paralelasa los ejes; en caso contrario dejara de ser un espacio producto; ası, la region Danterior no es un espacio producto, pues esta limitada por la recta 3x+2y = 6que no es paralela al eje x ni al eje y.
Definicion 7.6.2. Sea (X, Y ) un v.a.b.c. con fdp conjunta f(x, y). Las va-riables aleatorias X y Y son estocasticamente independiente si y solo si
f(x, y) = g(x) · h(y),
7.6. VARIABLES ALEATORIAS INDEPENDIENTES 45
donde g(x) y h(y) son las fdp marginales de X y Y respectivamente, y ademasla region donde se distribuye la probabilidad es un espacio producto.
Como consecuencia, tenemos ahora el siguiente resultado.
Teorema 7.6.2. Sea (X, Y ) una variable aleatoria bidimensional continua.Las variables aleatorias X y Y son independientes si y solo si g(x|y) = g(x)(o lo que es equivalente si y solo si h(y|x) = h(y) para todo (x, y)).
Demostracion. ”⇒ ” Supongamos que X y Y son independientes, entoncesf(x, y) = g(x) · h(y). Luego, g(x|y) = f(x,y)
h(y)= g(x)·h(y)
h(y)= g(x).
”⇐ ” Se hace en forma similar.
De las definiciones anteriores se sigue que para X y Y v.a.i.
para todo x en el rango de X y todo y en el rango de Y.En conclusion, se puede decir que si X y Y son v.a.i. con fdp conjunta fXYy marginales fX(x) y fY (y), entonces
fXY (x, y) = fX(x)fY (y),
para todo x, y ∈ R. Recıprocamente, si la condicion anterior se cumple,entonces las variables aleatorias son independientes. En general, las v.a. X yY son independientes si existen m1(x) y m2(y), funciones reales tales que
fXY (x, y) = m1(x)m2(y), x, y ∈ R.
Teorema 7.6.3. Para X y Y v.a.i se tiene que para Z = X + Y,
Ejemplo 7.6.3. Supongamos que (X, Y ) tiene fdp conjunta dada como sigue:
f(x, y) =
e−(x+y) si x ≥ 0, y ≥ 0
0 en otra parte.
¿Seran X y Y estocasticamente independientes?
Solucion:
g(x) =
∫ ∞−∞
f(x, y) dy =
∫ ∞0
e−xe−y dy = e−x∫ ∞
0
e−y dy = e−x y
h(y) =
∫ ∞−∞
f(x, y) dx =
∫ ∞0
e−xe−y dx = e−y∫ ∞
0
e−x dx = e−y.
Luego, f(x, y) = e−x ·e−y = g(x)·h(y) y como la probabilidad esta definida enel primer cuadrante que es un espacio producto, entonces X y Y son variablesaleatorias independientes.
Ejemplo 7.6.4. Supongase que (X, Y ) tiene fdp conjunta f(x, y) = 8xy,para 0 ≤ x ≤ y ≤ 1. ¿ Seran X y Y independientes?
Solucion:
7.6. VARIABLES ALEATORIAS INDEPENDIENTES 47
La probabilidad esta definida en R, pero este no es un espacio producto, porlo tanto X y Y no son independientes.
Ademas,
g(x) =
∫ ∞−∞
f(x, y) dy =
∫ 1
x
8xy dy = 4x(1− x2) si 0 ≤ x ≤ 1.
h(y) =
∫ ∞−∞
f(x, y) dx =
∫ y
0
8xy dx = 4y3 si 0 ≤ y ≤ 1.
Pero,g(x) · h(y) = 4x(1− x2) · 4y3 6= f(x, y).
Observacion 7.6.2. Si se conoce la fdp conjunta es posible determinar enforma unica las fdp marginales g(x) y h(y), pero el conocimiento de las fdpmarginales no determinan la fdp conjunta, a menos que se sepa que la variablealeatoria X y Y son independientes, en cuyo caso g(x) · h(y) = f(x, y).
Teorema 7.6.4. Sean X, Y variables aleatorias con funcion de densidadconjunta f(x, y) y region de distribucion conjunta de probabilidad R. Enton-ces, X y Y son variables aleatorias independientes si y solo si R es un espacioproducto y f(x, y) = m(x) · ℘(y), donde m(x) es una funcion no negativa dex solamente y ℘(y) es una funcion no negativa de y solamente.
Demostracion. ”⇒ ” Sean X y Y independientes, entonces R es un espacioproducto y ademas f(x, y) = g(x) · h(y) donde g(x) ≥ 0 y h(y) ≥ 0. Esco-giendo m(x) = g(x) y ℘(y) = h(y) tenemos que f(x, y) = m(x) · ℘(y).
” ⇐ ” Supongamos que R es un espacio producto y f(x, y) = m(x) · ℘(y)(m(x) y ℘(y) con las condiciones dadas), entonces
Proposicion 7.6.1. Sean X1, X2, ..., Xk v.a.i. Entonces,
i) La coleccion Xi1, ..., Xij ⊆ X1, X2, ..., Xk tambien son indepen-dientes.
ii) Cualesquiera funciones f1(x1), ..., fk(xk) tambien son independientes.
iii) Cualesquiera funciones f(x1, x2, ..., xj) y g(xj+1, xj+2, ..., xk) de sub-conjuntos disjuntos tambien son independientes.
Observacion 7.6.3. Note que para X y Y v.a.i.
fX|Y (x|y) =fXY (x, y)
fY (y)=fX(x)fY (y)
fY (y)= fX(x).
Demostracion. i) Por hipotesis de independencia, para X1, X2, ..., Xk,
FX1...Xk(x1, x2, ..., xk) =k∏j=1
FXj(xj).
Ahora, hagamos xi → ∞ para todo i = 1, 2, ..., k, i 6= i1 o i2, ..., ij.Entonces por definicion de funcion de distribucion marginal conjuntay propiedades de la funcion de distribucion univariada, se tiene.
FXi1...Xij(xi1, ..., xij) =
j∏l=1
Fxil(xil),
de donde sigue el resultado.
ii) Se deja como ejercicio.
iii) por i) X1, X2, ..., Xj y Xj+1, Xj+2, ..., Xk son independientes, en-tonces por (ii) se sigue el resultado.
2) Sean g1, g2, ..., gn funciones de valor real de X1, X2, ..., Xk con esperanzafinita. Entonces,E[g1(X1, X2, ..., Xk) + g2(X1, X2, ..., Xk) + ...+ gn(X1, X2, ..., Xk)] =E[g1(X1, X2, ..., Xk)]+E[g2(X1, X2, ..., Xk)]+...+E[gn(X1, X2, ..., Xk)].
3) Sean X1, X2, ..., Xk variables aleatorias independientes y g1, g2, ..., gkfunciones de valor real de X1, X2, ..., Xk respectivamente, cada una conesperanza finita. Entonces,
E
[k∏j=1
gj(Xj)
]=
k∏j=1
E[gj(Xj)]
7.7. MOMENTOS 51
Demostracion. Es semejante al caso univariado, se deja como ejercicio.
Es semejante al caso univariado, se deja como ejercicio.
3) Inicialmente verifiquemos que la esperanza existe.∫ ∞−∞
∫ ∞−∞· · ·∫ ∞−∞
∣∣∣∣∣k∏j=1
g(xj)
∣∣∣∣∣ f(x1, x2, ..., xk)k∏j=1
dxj
=
∫ ∞−∞
∫ ∞−∞· · ·∫ ∞−∞
[|g(xj)f(xj)]k∏j=1
dxj
=
∫ ∞−∞|g(x1)|f(x1) dx1
∫ ∞−∞|g(x2)|f(x2) dx2 · · ·
∫ ∞−∞|g(xk)|f(xk) dxk
=k∏j=1
∫ ∞−∞|g(xj)|f(xj) dxj <∞.
Luego,∫ ∞−∞
∫ ∞−∞· · ·∫ ∞−∞
[k∏j=1
g(xj)
]f(x1, x2, ..., xk)
k∏j=1
dxj
=
∫ ∞−∞
∫ ∞−∞· · ·∫ ∞−∞
k∏j=1
[g(xj)f(xj)]k∏j=1
dxj
=
∫ ∞−∞
g(x1)f(x1) dx1
∫ ∞−∞
g(x2)f(x2) dx2 · · ·∫ ∞−∞
g(xk)f(xk) dxk
=k∏j=1
∫ ∞−∞
g(xj)f(xj) dxj
=k∏j=1
E[g(Xj)].
Observacion 7.7.1. El reciproco de 3) no siempre es cierto
Ejemplo 7.7.1. Sea X el tiempo que una persona permanece en un bancoy Y el tiempo haciendo fila para ser atendido, entonces X − Y es el tiempo
que dura la atencion por parte del funcionario encargado. Si la fdp conjuntadel vector (X, Y ) es:
fXY (x, y) =
λe−λy si 0 ≤ y ≤ x <∞0 caso contrario,
el tiempo promedio que dura la atencion es:
E[(X − Y )] =
∫ ∞0
∫ x
0
(x− y)λ2e−λx dydx
= λ2
[∫ ∞0
∫ x
0
xe−λx dydx−∫ ∞
0
∫ x
0
ye−λx dydx
]= λ2
[∫ ∞0
x2e−λx dx−∫ ∞
0
x2
2e−λx dx
]=λ2
2
∫ ∞0
x2e−λx dx
=λ2
2
∫ ∞0
x3−1e−λx dx
=λ2
2
Γ(3)
λ3
∫ ∞0
λ3
Γ(3)x3−1e−λx dx
=λ2
2
Γ(3)
λ3
=Γ(3)
2λ
=2Γ(2)
2λ
=1
λ.
Ejemplo 7.7.2. Considere un circuito electrico para el cual la ley de Ohm escierta, V = IR donde V es el voltaje, I es la corriente y R es la resistencia.Suponga que I y R son v.a.i. con respectivas fdp.
hI(i) = 2i para 0 ≤ i ≤ 1.
y
gR(r) =r2
9para 0 ≤ r ≤ 3.
encuentre
7.8. COVARIANZA Y CORRELACION 53
El voltaje esperado
La probabilidad de que el voltaje este por encima de 2 voltios.
Solucion:
La fdp conjunta es:
fIR(i, r) = hI(i)gR(r) =2ir2
9para 0 ≤ i ≤ 1 , 0 ≤ r ≤ 3,
entonces,
E(V ) = E(IR) = E(I)E(R) =
[2
∫ 1
0
idi
] [1
9
∫ 3
0
r2dr
]= 1,0
P (V > 2) = 1− P (V ≤ 2)
= 1−∫ir≤2
∫fIR(i, r) didr
= 1−∫ir≤2
∫2ir2
9didr
Para resolver la doble integral, del grafico relacionado se tiene que
P (V > 2) = 1−
[∫ 2
r=0
∫ 1
i=0
2
9ir2 didr +
∫ 3
r=2
∫ 2r
i=0
2
9ir2 didr
]
= 1− 2
9
[4
3+ 2
]= 1− 20
27
=7
27.
7.8. Covarianza y Correlacion
Definicion 7.8.1. Si E[(X−µX)(Y −µY )] existen, es llamada la covarianzaentre X y Y , donde µX = E(X) y µY = E(Y ).
Teorema 7.8.1 (Desigualdad de Cauchy). Sean X y Y v.a con E(X2) <∞y E(Y 2) < ∞, entonces |E(XY )|2 ≤ E(X2)E(Y 2). Se tiene la igualdad, siy solamente si existen constantes reales a y b no simultaneamente iguales acero, tales que P (aX + bY = 0) = 1.
Demostracion. Sea α = E(Y 2) y β = −E(XY ), α ≥ 0. El resultado paraα = 0 es inmediato, entonces se considera unicamente α > 0. Se tiene que:
0 ≤ E[(αX + βY )2] = E[α2X2 + 2αβXY + β2Y 2]
= α2E(X2) + 2αβE(XY ) + β2E(Y 2)
= α2E(X2) + 2αβE(XY ) + αβ2
= α[αE(X2) + 2βE(XY ) + β2]
= α[E(Y 2)E(X2)− 2E(XY )E(XY ) + E(XY )E(XY )]
= α[E(X2)E(Y 2)− E(XY )E(XY )]
= α[E(X2)E(Y 2)− E2(XY )].
Entonces, como α > 0, se sigue que E(X2)E(Y 2) − E2(XY ) ≥ 0, entonces|E(XY )|2 ≤ E(X2)E(Y 2).Veamos que |E(XY )|2 = E(X2)E(Y 2) si y solamente si existen constantesreales a y b no simultaneamente iguales a cero, tales que P (aX+bY = 0) = 1.” ⇒ ” Si [E(XY )]2 = E(X2)E(Y 2), entonces E(αX + βY )2 = 0. Por tanto
iv) |ρ(X, Y )| = 1 si y solamente si existen constantes reales a y b no si-multaneamente cero, tales que ρ(aX + bY = 0) = 1.
Ejemplo 7.8.3. Para la fdp conjunta dada en el Ejemplo 7.8.2. se tiene que
E(X2) =
∫ ∞0
∫ ∞0
x2 1
ye−
x+y2
y dxdy
=
∫ ∞0
1
ye−y
[∫ ∞0
x2e−xy dx
]dy
=
∫ ∞0
1
ye−y
[Γ(3)
(1/y)3
∫ ∞0
(1/y)3
Γ(3)x3−1e−
1yxdx
]dy
=
∫ ∞0
y2e−ydy
=Γ(3)
∫ ∞0
13
Γ(3)y3−1e−ydy
=Γ(3) = 2.
Ası,
V ar(X) =E(X2)− E2(X)
=2− 1
=1.
Entonces,
ρ(X, Y ) =Cov(X, Y )√V ar(X)V ar(Y )
=1√
(1)(1)
=1.
7.9. ESPERANZA CONDICIONAL 63
7.9. Esperanza Condicional
Definicion 7.9.1. Sea el v.a.b. discreto (X, Y ). El valor esperado de X dadoY = y se define por:
E(X|Y = y) =∑x
xfX|Y (x|y)
para todos los y para los cuales P (Y = y) > 0.
En forma analoga, el valor esperado de Y dado X = x se define por:
E(Y |X = x) =∑y
yfY |X(y|x)
para todos los x para los cuales P (X = x) > 0.
Definicion 7.9.2. Sea el v.a.b. continuo (X, Y ). El valor esperado condicio-nal de X dado Y = y se define por:
E(X|Y = y) =
∫ ∞−∞
xfX|Y (x|y) dx
para todos los y con fY (y) > 0.
En forma analoga, el valor esperado de Y dado X = x se define por:
E(Y |X = x) =
∫ ∞−∞
yfY |X(y|x)
para todos los x para los cuales fX(x) > 0.
Ejemplo 7.9.1. Sean X y Y v.a.i. con distribucion de Poisson de parametrosλ1 y λ2 respectivamente. Calcular el valor esperado de X bajo la condicionde que X + Y = n con n ∈ Z+ ∪ 0 fijoSolucion
Teorema 7.9.1. Sean X y Y variables aleatorias reales definida sobre (Ω,=, P )y h una funcion real tal que h(X) es una v.a. Si E[h(X)] existe, entonces.
E[h(X)] = EY [EX [h(X)|Y ]].
Demostracion. i) para X y Y variables aleatorias discretas:
EY [EX [h(X)|Y ]] =∑y
EX [h(X)|Y ]P (Y = y)
=∑y
∑x
h(x)P (X = x|Y = y)P (Y = y)
=∑x
h(x)∑y
P (X = x;Y = y)
=∑x
h(x)P (X = x)
= E[h(X)].
7.9. ESPERANZA CONDICIONAL 67
ii) para X y Y variables aleatorias continuas:
EY [EX [h(X)|Y ]] =
∫REX [h(X)|Y ]fy(y) dy
=
∫R
[∫Rh(x)fX|Y (x|y) dx
]fy(y) dy
=
∫Rh(x)
[∫RfX|Y (x|y)fy(y) dy
]dx
=
∫Rh(x)
[∫RfXY (x, y) dy
]dx
=
∫Rh(x)fX(x) dx
= E[h(X)].
Observacion 7.9.1. Si (Ω,=, P ) es un espacio de probabilidad y si A ∈ =es fijo, entonces:
P (A) = E(IA(X)) = EY [EX [IA(X)|Y ]].
Ejemplo 7.9.5. Sean X y Y v.a.i. con densidades fX(x) y fY (y) respecti-vamente. Calcular P (X < Y ).
Ejemplo 7.9.6. Sea Y una variable aleatoria con distribucion de Poissonde parametro λ. Suponga que Z es la variable aleatoria definida por:
Z :=Y∑i=1
Xi
donde las variables aleatorias X1, X2, · · · son independientes entre si e inde-pendientes de Y . Hallar E(Z) bajo los supuestos que
1. Las variables aleatorias X1, X2, · · · son identicamente distribuidas condistribucion Bernoulli de parametro p ∈ (0, 1).
2. Las variables aleatorias X1, X2, · · · son identicamente distribuidas condistribucion Uniforme en el intervalo (0,b).
Solucion:
1.
E
[Y∑i=1
Xi
]= E
[E
[Y∑i=1
Xi|Y
]]=∑j
E
[Y∑i=1
Xi|Y = yj
]· P (Y = yj).
Note que X1, · · · , Xj son independientes con distribucion Bernoulli, porlo que
E
[Y∑i=1
Xi|Y = yj
]= E
[yj∑i=1
Xi
]=
yj∑i=1
E(Xi) =
yj∑i=1
p = pyj, final-
mente
E
[Y∑i=1
Xi
]=∑j
pyjP (Y = yj) = p∑j
yjP (Y = yj) = pE(Y ) = pλ.
Ası,
E(Z) = pλ.
7.9. ESPERANZA CONDICIONAL 69
2.
E
[Y∑i=1
Xi
]= EY
[EX
[Y∑i=1
Xi|Y = yj
]]
= EY
[EX
[yj∑i=1
Xi
]]
= EY
[yj∑i=1
EX [Xi]
]
= EY
[yj∑i=1
b
2
]
=∑j
b
2yjP [Y = yj]
=b
2EY (Y )
=λb
2.
Ası,
E(Z) =λb
2.
Entonces, si la v.a. representa el numero de personas por hora quellegan a una central telefonica, suponga que Y ∼ Po(20) y Z es el dinerorecaudado cada hora, entonces Z :=
∑Yi=1 Xi donde Xi repreenta el
dinero gastado por el i-esimo individuo que entra a la central telefonica.Luego, si Xi ∼ U(0, 5000), entonces el recaudo esperado cada hora es
E(Z) =20× 5000
2= 50000.
Teorema 7.9.2. Si X, Y, Z son v.a.s reales definidas sobre (Ω,=, P ) y si h esuna funcion real tal que h(X) es una v.a. entonces, se tiene que la esperanzacondicional satisface las siguientes condiciones,
Teorema 7.10.1. Considere el conjunto X1, X2, ..., Xm de v.a.i. con fdaF1, F2, ..., Fm respectivamente. Las expresiones de la funcion de distribucionde Y1 = min(X1, X2, ..., Xm) y Ym = max(X1, X2, ..., Xm) son dadas respec-tivamente por:
FY1 = 1−m∏i=1
[1− FXi(z)]
y
FYm =m∏i=1
FXi(z).
Demostracion. i)
P (Y1 > z) = P (minX1, X2, ..., Xm > z)
= P (X1 > z,X2 > z, ..., Xm > z)
= P (X1 > z)P (X2 > z), ..., P (Xm > z)
= [1− P (X1 ≤ z)][1− P (X2 ≤ z)], ..., [1− P (Xm ≤ z)]
=m∏i=1
[1− P (Xi ≤ z)]
=m∏i=1
[1− FXi(z)]
⇒ FY1(z) = P (Y1 ≤ z) = 1− P (Y1 > z) = 1−m∏i=1
[1− FXi(z)].
Si X1, X2, ..., Xm son identicamente distribuidas, entonces:
FY1 = 1− [1− FX(z)]m
⇒ fY1 = mfX(z)[1− FX(z)]m−1.
7.10. DISTRIBUCION DEL MINIMO Y DEL MAXIMO 89
ii)
FYm(z) = P (Ym ≤ z) = P (maxX1, X2, ..., Xm ≤ z)
= P (X1 ≤ z,X2 ≤ z, ..., Xm ≤ z)
= P (X1 ≤ z)P (X2 ≤ z)...P (Xm ≤ z)
=m∏i=1
FXi(z).
Si X1, X2, ..., Xm son identicamente distribuidas, entonces.
FYm(z) = [FX(z)]m ⇒ fYm = mfX(z)[FX(z)]m−1.
Ejemplo 7.10.1. Considere un sistema de n baterıas identicas operandosimultaneamente en el sistema. Considere ahora que el tiempo de vida decualquiera de ella tiene la misma funcion de densidad dada por:
fX(x) =
1λe−xλ si x > 0
0 caso contrario
con fdaFX(x) = 1− e
−xλ para x > 0.
Encuentre la distribucion del tiempo de falla cuando el sistema se encuentraen serie y cuando el sistema se encuentra en paralelos.Solucion:
i) Si el sistema se encuentra en serie (ver figura), entonces el tiempo devida del sistema esta definido por:
ii) Si el sistema se encuentra en paralelo (ver figura), entonces el tiempode vida del sistema esta definido por:
Y = maxX1, X2, ..., Xm,
⇒ fXn(y) = n1
λe−yλ (1− e
−yλ )n−1
=n
λe−yλ (1− e
−yλ )n−1; y > 0.
⇒ E(Yn) =
∫ ∞0
yn
λe−yλ (1− e
−yλ )n−1 dy
= −nλ∫ 1
0
ln(1− u)un−1 du.
7.11. Transformaciones Inyectivas de Vecto-
res Aleatorios
Extendemos ahora la transformacion de v.a. unidimensionales al caso de vec-tores aleatorios, donde nuevamente el objetivo es, a partir del vector aleatorio
7.11. TRANSFORMACIONES INYECTIVAS DE VECTORES ALEATORIOS91
X con funcion de distribucion FX, encontrar la funcion de distribucion delvector Y = (Y1, Y2, ..., Ym) donde Y = g(X).Suponiendo que g : Rm −→ Rn, con m < n es una funcion que se puederepresentar en la forma g = (g1, g2, ..., gk), entonces, si g es diferenciable encada punto x ∈ Rm, el jacobiano de g es:
Jg(X) = det
∂g1(X)∂x1
∂g1(X)∂x2
· · · ∂g1(X)∂xn
......
. . ....
∂gn(X)∂x1
∂gn(X)∂x2
· · · ∂gn(X)∂xn
6= 0,
donde det(·) denota la funcion determinante y la matriz en su argumento es
denominada matriz jacobiana, definida por ∂g(X)∂Xt .
Sı g : U −→ V es inyectiva tal que V = g(U), entonces g es biyectiva, luegoexiste g−1 : V −→ U tal que si Y ∈ V , Jg(g
−1(Y)) 6= 0. Entonces, resultaque g−1 es diferenciable en y ∈ V y se tiene que.
Jg−1(y) =1
Jg(g−1(y)).
Teorema 7.11.1. Sea X = (X1, X2, ..., Xn) un v.a.c. con fdp conjunta fX(x).Sea Y = g(X) = (g1(X), g2(X), ..., gn(X)), es decir, Yi = gi(X) para todoi = 1, 2, ..., n donde g : U −→ V es una funcion inyectiva. Suponga quepara todo i = 1, 2, ..., n, gi(X) tiene derivadas parciales continuas y ademasque g−1
i (Y) existe y tambien es continua de tal forma que para todo y =(y1, y2, ..., yn) ∈ V se tiene que Jg−1(y) 6= 0. Entonces,
fY(y) = fX(g−1(y))|Jg−1(y)|IV (y),
donde V = g(U) e IV es la funcion indicadora del conjunto V .
Ejemplo 7.11.1. Consideremos el vector aleatorio X con densidad conjuntafX1,X2(x1, x2) = I(0,1)(x1)I(0,1)(x2) y las transformaciones Y1 = X1 + X2 ,Y2 = X1 −X2. Encontrar fY1Y2(y1, y2).Solucion:
Entonces, la fdp del v.a.c. (Y1, Y2) viene dado por:
⇒ fY1Y2(y1, y2) = fX1,X2
(y1 + y2
2,y1 − y2
2
) ∣∣∣∣−1
2
∣∣∣∣ IV (y1, y2)
= 1 · 1
2IV (y1, y2)
=1
2IV (y1, y2).
Para la nueva region de integracion se tiene que:
0 < x1 < 1 ⇒ 0 <y1 + y2
2< 1 ⇒ 0 < y1 + y2 < 2
y
0 < X2 < 1 ⇒ 0 <y1 − y2
2< 1 ⇒ 0 < y1 − y2 < 2
entonces la nueva region de integracion queda definida por:
V = (y1, y2)|0 < y1 + y2 < 2, 0 < y1 − y2 < 2.
Ejemplo 7.11.2. Sea la fdp conjunta
fX1X2(x1, x2) = 4x1x2I(0,1)(x1)I(0,1)(x2).
Suponga que Y1 = X1
X2y Y2 = X1X2. Encuentre la fdp del vector (Y1, Y2).
7.11. TRANSFORMACIONES INYECTIVAS DE VECTORES ALEATORIOS93
Solucion:Sean y1 = g1(x1, x2) = x1
x2y y2 = g2(x1, x2) = x1x2
⇒ y1y2 = x21 y
y2
y1
= x22
⇒ x1 = g−11 (y1, y2) = (y1y2)
12 y x2 = g−1
2 (y1, y2) =(y2y1
) 12. Entonces,
Jg−1(y) = det
(∂g−1
1 (y1,y2)
∂y1
∂g−11 (y1,y2)
∂y2∂g−1
2 (y1,y2)
∂y1
∂g−12 (y1,y2)
∂y2
)
= det
y122
2y121
y121
2y122
− y122
2y121
1
2y121 y
122
=
1
4
(1
y1
+1
y1
)=
1
2y1
.
⇒ fY1,Y2(y1, y2) = 4(y1y2)12
(y2
y1
) 12∣∣∣∣ 1
2y1
∣∣∣∣ IV (y1, y2)
=2y2
y1
IV (y1, y2).
Ahora, la nueva region de integracion viene dada por:
0 < x1 < 1, 0 < x2 < 1⇒ 0 < (y1y2)12 < 1 y 0 <
(y2
y1
) 12
< 1
⇒ V =
(y1, y2) ∈ R+ ×R+| 0 < (y1y2)
12 < 1, 0 <
(y2
y1
) 12
< 1
.
Observacion 7.11.1. En los casos que la derivada de las funciones inversasresulten complicadas, se tiene la opcion de calcular el jacobiano de la funciong y luego usar la relacion del jacobiano de g−1 y el jacobiano de g. Ası, para
Ejemplo 7.11.3. Sea Xi ∼ Gamma(αi, λ) para i = 1, 2. Asuma que X1 yX2 son variables aleatorias independientes.
1. Encuentre la distribucion conjunta de Y1 = X1 +X2 y Y2 = X1/X2.
2. Encuentre la distribucion de Y2 cuando α1 = α2 = 1.
Solucion
1. Sean y1 = x1 + x2 y y2 = x1x2⇒ g−1(y1, y2) =
(y1y2y2+1
, y1y2+1
). Luego,
Jg−1(y) = det
∣∣∣∣∣ y2y2+1
y1(y2+1)2
1y2+1
− y1(y2+1)2
∣∣∣∣∣ = − y1
(y2 + 1)2.
fY1Y2(y1, y2) =
∣∣∣∣− y1
(y2 + 1)2
∣∣∣∣ fX1
(y1y2
y2 + 1
)fX2
(y1
y2 + 1
)IV (y1, y2)
=y1
(y2 + 1)2
λα1
Γ(α1)
(y1y2
y2 + 1
)α1−1
e−λ(y1y2y2+1
)×
λα2
Γ(α2)
(y1y2
y2 + 1
)α2−1
e−λ(y1y2y2+1
)IV (y1, y2)
donde V =
(y1, y2)|0 < y1y2y2+1
<∞, 0 < y1y2+1
<∞.
7.11. TRANSFORMACIONES INYECTIVAS DE VECTORES ALEATORIOS95
2.
fY2(y2) =yα2−1
2
(y2 + 1)2(y2 + 1)α1−1(y2 + 1)α2−1
∫ ∞0
λα1+α2
Γ(α1)Γ(α2)yα1
1 yα2−11 e−λy1dy1
=y1−1
2
(y2 + 1)2(y2 + 1)1−1(y2 + 1)1−1
∫ ∞0
λ2
Γ(1)Γ(1)y1y
1−11 e−λy1dy1
=1
(y2 + 1)2
∫ ∞0
λ2y1e−λy1dy1
=1
(y2 + 1)2Γ(2)
∫ ∞0
λ2
Γ(2)y2−1
1 e−λy1dy1
=1
(y2 + 1)2.
Observacion 7.11.2. Si g : Rk −→ Rn, entonces
i) para n > k no es posible tener g biyectiva y por lo tanto imposible deaplicar el Teorema anterior.
ii) Para n < k donde cada gi es diferenciable, para i = 1, 2, ..., n, entoncespara i = n+ 1, n+ 2, ..., k se buscan (si existen) funciones gi tales queg = (g1, g2, ..., gn, gn+1, gn+2, ..., gk) sea inyectiva con jacobiano distintode cero para todo y.
entonces, Para g, encontramos la distribucion de Y = (Y1, Y2, ..., Yn, Yn+1, ..., Yk)aplicando el Teorema anterior.
Observacion 7.11.3. Si en el ejercicio anterior X1 y X2 son v.a.i. entonces,
fY =
∫RfX1(y1 − y2)fX2(y2) dy2
fY (y) =
∫RfX1(y1 − y2)fX2(y2) dy2
denominada la convolucion de X1 y X2 la cual se denota por : (fX1 ∗ fX2)(y).
Ejemplo 7.11.5. Sean X, Y v.a.i. con distribucion Exp(λ) encontrar la dis-tribucion de la v.a. Z = X + Y.Solucion: Sea Z = X + Y y definamos V = Y entonces, X = Z − V yY = V. Luego,
Jg−1(z, v) = det
(1 −10 1
)= 1.
7.12. TRANSFORMACIONES NO INYECTIVAS 97
Entonces,
fZ(z) = (fX ∗ fY )(v)
=
∫ ∞−∞
fX(z − v)fY (v)IV (v) dv
=
∫ Z
0
λe−λ(z−v)λeλv dv
= λ2e−λz∫ z
0
dv
= λ2e−λzv|z0
= λ2ze−λz =λ2
Γ(2)z2−1e−λz.
Entonces, Z ∼ Gamma(2, λ).
7.12. Transformaciones no Inyectivas
Teorema 7.12.1. Sea X = (X1, X2, ..., Xk) un v.a. absolutamente continuocon densidad fX(x). Sea g = ∪hi=1Ai −→ Rk tal que Ai∩Aj = ∅ para i 6= j,una funcion tal que es inyectiva y diferenciable en Ai con Jg(x) 6= 0 para todox ∈ Ai. Entonces el vector Y = g(X) tambien es absolutamente continuocon densidad.
fY(y) =h∑i=1
fX(g−1i (y))|Jg−1(y)|Ivi(y)
donde vi = g(Ai), gi = g|vi , g−1i : vi −→ Ai es la inversa de gi.
Ejemplo 7.12.1. Sea X ∼ N(0, 1) y g : R −→ R tal que g(X) = X2.Entonces, como g no es inyectiva definamos y = g(x) = x2 y tomemosA1 = x : x < 0 y A2 = x : x > 0. Luego, g−1
Definicion 7.16.1. SeanX1, X2, ..., Xn v.a.i. definidas en (Ω,=, P ) y t1, t2, ..., tnnumeros reales definimos la FGMM por:
MX1,X2,...,Xn(t1, t2, ..., tn) = E[et′X]
= E[et1X1+...+tnXn
],
donde X = (X1, X2, ..., Xn)′
y t′
= (t1, t2, ..., tn) desde que la esperanza seafinita para los tj tomados en una vecindad de cero.La funcion caracterıstica multivariada se define en forma analoga por:
7.16. FUNCION GENERADORA DE MOMENTOS MULTIVARIADA (FGMM)107
Teorema 7.16.1. Sean X1, X2, ..., Xn v.a.i. y FGM respectivamente igualesa MXj(t), para j = 1, 2...n y t en alguna vecindad de cero. Sea Y = X1 +X2 + ...+Xn, entonces la FGM de Y es dada por:
MY (t) =n∏j=1
MXj(t).
Demostracion.
MY (t) = E(etX1+tX2+...+tXn)
=
∫R...
∫Retx1+tx2+...+txnfX1...Xn(x1...xn)
n∏j=1
dxj
=
∫R...
∫Retx1+tx2+...+txnfX1(x1fX2(x2)...fXn(xn)
n∏j=1
dxj
=
∫Retx1fX1(x1) dx1
∫Retx2fX2(x2) dx2...
∫RetxnfXn(xn) dxn
= MX1(t)MX2(t)...MXn(t)
=n∏j=1
MXj(t).
Teorema 7.16.2. Sean X1, X2, ..., Xn v.a con FGMM MX1...Xn(t1...tn) conlos tj tomados en una vecindad de cero. Entonces, las variables aleatoriasX1, X2, ..., Xn son independientes, si y solamente si la FGMM puede ser es-crita como: