UNIVERSIDAD NACIONAL EXPERIMENTAL POLITÉCNICA “ANTONIO JOSÉ DE SUCRE” VICERRECTORADO BARQUISIMETO DIRECCION DE INVESTIGACIÓN Y POSTGRADO TRABAJO No. 1. (Investigación correspondiente a la Cátedra: Introducción a los Procesos Estocásticos de la Maestría en Ingeniería Electrónica Opción Telecomunicaciones). Facilitadora: Participantes: MSc. Marienny Arrieche Héctor, R. Martínez C. I. 18.222.220 Oskar, J. Sánchez C. I. 18.950.734 Barquisimeto, Octubre, 2012
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
UNIVERSIDAD NACIONAL EXPERIMENTAL POLITÉCNICA“ANTONIO JOSÉ DE SUCRE”
VICERRECTORADO BARQUISIMETODIRECCION DE INVESTIGACIÓN Y POSTGRADO
TRABAJO No. 1.(Investigación correspondiente a la Cátedra: Introducción a los Procesos Estocásticos
de la Maestría en Ingeniería Electrónica Opción Telecomunicaciones).
Facilitadora: Participantes:MSc. Marienny Arrieche Héctor, R. Martínez C. I. 18.222.220
Oskar, J. Sánchez C. I. 18.950.734
Barquisimeto, Octubre, 2012
INTRODUCCIÓN
A lo largo de la vida, el ser humano debe tomar decisiones que le
permitan realizar acciones; y estas a su vez implican más y más decisiones;
de tal manera que algunas traen consigo resultados positivos y otras no. Así,
se ha visto en la necesidad de estudiar las probabilidades de ocurrencia de
los eventos para anteponerse a ellos o bien para tomar medidas en función a
esos resultados.
La probabilidad, expresa el grado de certeza y por ende posee un
carácter de seguridad en torno a un suceso aleatorio, cuando es relacionado
con un fenómeno determinístico. De allí que la probabilidad tiene un papel
crucial en la aplicación de la inferencia estadística porque una decisión, cuyo
fundamento se encuentra en la información contenida en una muestra
aleatoria, pudiera tener un error. En este sentido, se presenta el siguiente
informe monográfico, el cual se desarrolla en forma secuencial y organizada
en tres partes:
En la primera, dedicada al estudio de las variables aleatorias, el
proceso de Poisson, la distribución de Poisson, la distribución Gamma y la
distribución Exponencial negativa.
En la segunda, orientada al estudio de la probabilidad condicional para
las variables aleatorias discretas y continuas, en la cual se detallan la formula
de Bayes, la probabilidad y las particiones, el teorema de Bayes, y los
conceptos de probabilidad inicial y final.
Y en la tercera parte, se desarrolla la esperanza condicional para las
variables aleatorias discretas y continuas, cuyos tópicos se centran en las
definiciones de predicción, varianza, momentos, media, mediana, covarianza
y correlación. En cada aspectos se muestran algunos ejemplos orientados a
la practica profesional de la Ingeniería en Telecomunicaciones en el marco
de la tecnología de las radiocomunicaciones aeronáutica y para finalizar se
presentan las conclusiones y referencias bibliográficas y electrónicas que
soportan la presente investigación.
DESARROLLO
1. Variables Aleatorias
El estudio de la probabilidad tiene como finalidad predecir el valor que
pueda tener un evento, bajo ciertas condiciones. Este concepto, está
relacionado con la calidad en la producción bien sea de bienes o servicios,,
dado a que se pueden comprender y controlar datos y de allí hacer
conclusiones e inclusive aplicar correctivos y disminuir tendencias negativas;
o bien tomar medidas preventivas. Es por ello que este estudio, permite
confiar en la probabilidad de que un evento suceda o no.
Tanto así que, existen procesos que poseen un carácter variable y de
aleatoriedad; como el clima por citar un ejemplo. De allí que combinando
estos aspectos, las variables aleatorias son definidas por Walpole, R. Myers,
R. y Myers, S. (1999) como: “una función que asocia un número real con
cada elemento del espacio muestral” (p. 51).
La definición anterior, se relaciona al espacio muestral, es decir a los
diversos resultados que puede tener un determinado experimento, que
ciertamente está asociado a condiciones no controladas e inclusive al azar.
Este tipo de variables permite entonces convertir el resultado de un
experimento en una forma numérica, y se utiliza particularmente cuando el
investigador se centra en un aspecto específico del mismo, es decir en una
muestra.
Para ejemplificar una variable aleatoria se puede tomar en
consideración una situación en la que un estudiante de postgrado de la
UNEXPO intenta estacionar su vehículo en el estacionamiento de la misma.
Entonces puede conseguir un lugar para estacionarse (P) y hacerlo, o no
encontrar sitio (N) y tener que salir del mismo. Con S = {P, N} la variable
aleatoria (X) se puede definir mediante X (P) = 1, X (N) = 0. De manera que
1 indica que pudo estacionarse y 0 que no lo logró. Cabe acotar, que las
variables cuyos únicos valores que puede tomar son 1 y 0 se conocen como
variables de Bernoulli; no obstante en un sentido general se pueden clasificar
las variables aleatorias en dos tipos: continuas y discretas.
Devore, J (2005) refiere que: “una variable aleatoria discreta es una
variable aleatoria cuyos valores posibles constituyen un conjunto finito…//
una variable aleatoria es continua si su subconjunto de valores posibles
consiste en un intervalo completo en la recta numérica” (p. 100). Es decir
que una variable aleatoria es discreta cuando puede tomar valores que se
pueden contabilizar e incluso arreglar en forma secuencial, mientras que una
variable aleatoria es continua si sus valores consisten en intervalos
referenciados en la recta de los números reales.
En resumen, en el estudio probabilístico de cierto experimento se
pueden considerar variables aleatorias para generalizar sus resultados
posibles, y trabajar con las mismas sin tomar en consideración cual será el
resultado final. Evidentemente, esta variable pertenece al conjunto del
espacio muestral y puede ser un valor numérico, booleano, texto, etc. No
obstante, se suele trabajar con los valores numéricos porque son los que
aportan mayor cantidad de información al momento de medir magnitudes, o
incluso realizar operaciones para establecer conclusiones de los resultados
arrojados por dicho experimento.
Es importante destacar, que cuando un experimento arroja resultados
textuales, o booleanos se establecen parámetros de codificación para
transformar a forma numérica los elementos del espacio muestral. Por
ejemplo, si se realizase un experimento en el que se observara ¿cuál es la
rama de la ingeniería a la que pertenece el participante de la “Maestría en
Ingeniería Electrónica Opción Telecomunicaciones” que entra primero al aula
de clases?, el espacio muestral viniera dado por las ramas de la ingeniería
que poseen cada uno de los estudiantes de dicho programa, ejemplo:
Y la codificación sería algo como:
S = {Electrónica, Eléctrica, Sistemas, Telecomunicaciones}
S = {1: Electrónica, 2: Eléctrica, 3: Sistemas, 4: Telecomunicaciones}
Nótese, que en el ejemplo anterior la variable aleatoria (X) viene
determinada por la persona que entre primero al aula de clases (y la rama de
la ingeniería a la que pertenece); y el experimento en general es disjunto ya
que no van a entrar dos personas en forma simultanea.
Para el caso especifico de las variables aleatorias discretas, estas
pueden tomar valores que son numerables, lo que da un carácter de
posibilidad en cada punto aislado del espacio muestral; por ende hay una
cantidad finita de valores posibles entre los resultados que puede arrojar un
experimento. Por lo que en función a este tipo de variables aleatorias, se
realizaron estudios de distribución que permiten agrupar el conjunto de
valores posibles y relacionar a los mismos con sus respectivas
probabilidades de ocurrencia.
1.1 Distribución y Proceso de Poisson
Particularmente, el proceso de Poisson toma en cuenta un continuo en
el cual ocurren los eventos; de manera que se establece una relación entre
estos dos aspectos.
Por ejemplo: si se evalúan la cantidad de fallas de un sistema
cualquiera en 5 horas, el continuo sería el tiempo y los eventos serian las
fallas que ocurren. La referencia al continuo no necesariamente está ligada al
tiempo, tal que si se toma en consideración una rollo de cinta para
impresoras y se cuentan los tramos en los que el rollo no posee tinta, el
continuo sería la longitud de cinta que posee el rollo y los eventos la cantidad
de tramos sin tinta.
En este orden de ideas, el proceso de Poisson toma en cuenta 3
variables a saber:
T: representa la longitud de un intervalo del continuo que va a estudiarse
K: representa la cantidad de eventos en ese intervalo:
: representa la cantidad esperada de eventos por unidad de tiempo.
Estas 3 variables pueden observarse en el siguiente ejemplo: Si se
considera un equipo de Radio Ayudas (DVOR) el cual falla 2 veces cada una
hora, y se evalúa dicho evento durante 5 horas (desde las 13:00 hasta las
18:00), en los que falla 11 veces. Las variables serían vistas como:
De tal manera que, conocidas las cantidades de eventos que se
registran en la evaluación () podría cuestionarse acerca de la cantidad de
eventos en un determinado tiempo, o bien el tiempo que hay que esperar
hasta observar una cantidad de eventos. De este planteamiento surgen 3
distribuciones de probabilidad a estudiar en la presente investigación: a)
distribución de Poisson: en la cual se considera la cantidad de eventos en el
periodo de evaluación – el continuo, b) distribución Gamma en la cual se
determina la cantidad de tiempo necesario hasta observar cierta cantidad de
eventos, c) distribución exponencial negativa, que es una derivación de la
distribución Gamma y se determina la cantidad de tiempo para observar el
primer evento.
El proceso de Poisson se caracteriza por ser estacionario,
independiente en el número de resultados que suceden en un intervalo de
tiempo o región del espacio y simple. De manera que, de acuerdo a este
proceso la probabilidad de que ocurra un solo resultado durante un intervalo
de tiempo muy corto o en una región pequeña es proporcional al propio valor
tomado como referencia (bien sea de tiempo o región); mientras que la
probabilidad de que ocurra mas de un resultado en tal intervalo corto o que
caiga en tal región es prácticamente insignificante.
En referencia a la distribución de Poisson, se utiliza cuando existe un
determinado intervalo en el que suceden eventos y se necesita calcular la
T = 5 horas “el continuo – tiempo de evaluación”
K= 11 eventos “cantidad de fallas registradas”
= 2 eventos/hora “cantidad de eventos por horas”
cantidad de éstos en dicho intervalo, de manera que para utilizar esta
distribución se toma en consideración un parámetro denominado Media, que
no es más que una tendencia estadística. Sus aplicaciones se evidencian
con frecuencia en el control de calidad, la garantía de la calidad, el muestreo
e incluso para estudios de confiabilidad.
Para estudiar esta distribución, se puede tomar como referencia la
situación en la que un equipo falla 12 veces por hora, y es evaluado durante
15 minutos. Entonces el valor de la media viene dado por la relación:
= De tal manera que, se puede definir la variable aleatoria de Poisson
como:
= ( )La cual es una variable con media µ, y en donde X representa la
cantidad de eventos obtenidos en un intervalo de longitud T e intensidad: .
De allí que:
( = ) = − !Entonces, para el ejemplo anterior la media es igual a:
= 12 fallas/horas x 15 minutos = 12 fallas/60 minutos x 15 minutos
= 3 fallas.
Si se quiere determinar la probabilidad de que el equipo no falle en
esos 15 minutos sería
( = 0) = 3 ! = 0.04979
O bien, si se quiere determinar la probabilidad de que falle 4 veces en
ese tiempo:
( = 4) = 3 ! = 0.1680
Es de notar, que el valor de la media, siempre es positivo, y que al
sumar la probabilidad para todos los eventos que se pueden dar en un
experimento, el resultado debe ser igual a 1; esta regla es el fundamento de
la suma de probabilidades de Poisson que matemáticamente se representa
como:
( , )∞
= 1Formula que se resume con:
− !∞
= 1Con el ejemplo anterior se puede entonces realizar un histograma con
las probabilidades de eventos, tal como se muestra a continuación:
Cuadro 1
Tabla de Valores para Distribución de Poisson de un equipo que falla 12
En el cuadro 1 se observa la tabla de valores que se origina al evaluar
hasta un máximo de 12 fallas con la distribución de Poisson. En el gráfico 1
se puede observar que entre 2 y 3 fallas la curva gaussiana toma un valor
máximo de probabilidades de eventos a ocurrir en el tiempo evaluado.
Es de notar que en este proceso de Poisson se pueden observar
eventos discretos en un área de oportunidad, que al acortarse acorta las
posibilidades de suceso y permite observar estabilidad en la gráfica.
1.2 Distribución Gamma
Para definir la Distribución Gamma es preciso conocer a que se refiere
la función Gamma, la cual viene determinada con la relación:
Γ( ) = − −∞
La cual es valida para valores positivos de " ", y cuyo resultado al
integrar por partes, para valores mayores que uno, son Γ( ) = ( 1) ∙
-3.89E-16
0.05
0.1
0.15
0.2
0.25
0.3
0 1 2 3 4 5 6 7 8 9 10 11 12
Dis
trib
uci
òn
de
Po
isso
n
Eventos (Fallas)
P (X = x) Probabilidad
Los autores (2012)
Γ( 1); para cualquier entero positivo " ", el valor de Γ( ) = ( 1)!. Mientras que para Γ 2 = √
Las distribuciones Exponencial y Gamma tienen una amplia gama de
usos en lo que respecta a la teoría de colas y en la resolución de problemas
de confiabilidad, y permiten determinar la probabilidad de tener que esperar
un determinado tiempo hasta que suceda un primer evento o un número
determinado de eventos, respectivamente.
Evidentemente, la distribución Gamma, trabaja con una variable
aleatoria, la cuales viene representada por el tiempo que debe transcurrir
antes de que sucedan los eventos, de manera que la densidad de
probabilidad de esa variable viene dada por la relación matemática
( ; , ) = 1Γ( ) − exp ( ) x>0, a, θ>00 para cualquier otro valor
�Donde es el tiempo promedio entre dos eventos sucesivos y su
inverso (1/ ) se entiende como la frencuencia constante de ocurrencia.
Esta distribución es muy variada puesto que dependiendo del valor del
parámetro " " pueden suceder varios escenarios. En la siguiente tabla se
muestran las propiedades de la distribución Gamma:
La distribución Gamma (o también conocida como la distribución de
Erlang), se relaciona con la distribución de Poisson, tal que la probabilidad de
Fuente: Canavos, G. (1988)
que el tiempo que transcurre hasta el “ -ésimo” evento exceda el valor de
" " es igual a la probabilidad de que el numero de eventos de Poisson " "observados en no sea mayor que ( 1)”. De tal manera que:
“La distribución de Erlang es el modelo para el tiempo de espera hasta que ocurre el a-ésimo evento de Poisson, y la distribución de Poisson es el modelo para el numero de eventos independientes que ocurren en un tiempo x, encontrándose éste distribuido de acuerdo al modelo de Erlang” (et.al. p.152)
De allí que, al determinar la distribución Gamma, incluso se pueden
utilizar modelos matemáticos similares a los utilizados con la distribución de
Poisson. Cabe destacar, que el análisis matemático de esta distribución es
complejo, dada su dificultad para la integración; en tanto una forma
alternativa de determinarla podría ser considerando que la probabilidad de
que el tiempo que se tarda en obtener el evento esperado ( -ésimo) sea
menor que , es igual a la probabilidad de que en un intervalo de duración
existan " "o mas eventos. En este sentido, se tiene que ( ) = 1( 1) donde " " es la variable aleatoria Gamma, la cual posee los
parámetros , y ; en tanto que Y es una variable de Poisson cuyo = ∙ ,
con lo que se puede sustituir la integral por:
∫ ( ) = 1 ∑ ( = ).
Y se puede resumir la distribución Gamma como:
( ) = ( ) − −( 1)!
Es importante destacar, que la distribución Gamma se utiliza cuando
se describe el continuo temporal en el cual suceden los eventos, y se
continúa la observación de los mismos hasta que suceda una cantidad de
eventos determinada; asimismo, se utiliza cuando se conoce o puede
determinar la frecuencia promedio con la que suceden los eventos .
Entre las características que determinan esta definición se tiene que:
a) no es nula para todos los tiempos mayores a cero, ya que es imposible
tener que esperar un tiempo negativo hasta que sucedan eventos; b) no es
conveniente para tiempos muy grandes, ya que hace despreciable su uso; c)
todos los eventos involucrados deben ser independientes (como corresponde
a los Procesos de Poisson).
Para ejemplificar la distribución Gamma, se puede considerar una
situación en la que un equipo de transferencia de datos, transmita 50
mensajes durante un día. Si su tasa de transmisión es de 4 mensajes por
hora. Entonces, que probabilidad habría de transmitir todos los mensajes en
12 horas.
Tomando en consideración que cada mensaje es independiente, es
decir que no son correlativos, ni se relacionan con otros, se establece el
ejemplo como un Proceso de Poisson, cuya variable Gamma viene dada por
el tiempo que puede tomar transmitir los 50 mensajes, con = 4 y
= 50 . Por lo que la variable aleatoria Gamma se puede representar
como: = ( = 4; = 50), para t > 0.
En este sentido, la distribución Gamma viene dada por:
( ) = 4(4 ) − −(50 1)! = 16 −
6.08 ∙ 10 2 = .6904 ∙ 10− ( − )Entonces para que tarde menos de 12 horas, se debe solucionar la
integral Gamma, la cual queda expresada a continuación.