-
1
Relação entre níveis de significância
Bayesiano e freqüentista:
e-value e p-value em tabelas de contingência
Cátia Petri
DISSERTAÇÃO APRESENTADA
AO
INSTITUTO DE MATEMÁTICA E ESTATÍSTICA
DA
UNIVERSIDADE DE SÃO PAULO
PARA
OBTENÇÃO DO TÍTULO DE MESTRE
EM
CIÊNCIAS
Área de concentração: Estatística
Orientador: Prof. Dr. Carlos Alberto de Bragança Pereira
São Paulo, fevereiro de 2007.
-
2
Relação entre níveis de significância
Bayesiano e freqüentista:
e-value e p-value em tabelas de contingência
Este exemplar corresponde à redação final da dissertação
devidamente corrigida e defendida por Cátia Petri e aprovada pela
Comissão Julgadora.
São Paulo, 20 de Abril de 2005.
Banca Examinadora:
Prof. Dr. Carlos Alberto de Bragança Pereira (orientador) -
IME/USP
Prof. Dr. José Afonso Mazzon - FEA/USP
Prof. Dr. Sergio Wechsler - IME/USP
-
3
À memória de Elizabeth,
minha mãe querida
-
4
Agradecimentos
Em primeiro lugar, agradeço ao grande mestre e amigo, o
Professor
Carlinhos, pela orientação nesta dissertação e por todos os
ensinamentos que
valerão para a vida inteira.
Agradeço ao meu pai, João, por todos os conselhos perfeitos que
me guiaram
até aqui. Aos meus irmãos, João e Maciel, e meu sobrinho
Marquinhos, pelo carinho
e apoio sempre.
Ao Danillo Nakano e aos amigos do IME, que não me deixaram
desistir dos
estudos diante das dificuldades da vida.
Ao grande amigo Paulo Oliveira, da Poli, que com seu
conhecimento e
dedicação tornou possível a otimização dos programas aqui
utilizados.
À Universidade de São Paulo e ao Instituto de Matemática e
Estatística pela
oportunidade concedida de aperfeiçoar meus estudos.
-
5
Resumo
O FBST (Full Bayesian Significance Test) é um procedimento para
testar
hipóteses precisas, apresentado por Pereira e Stern (1999), e
baseado no cálculo da
probabilidade posterior do conjunto tangente ao conjunto que
define a hipótese nula.
Este procedimento é uma alternativa Bayesiana aos testes de
significância usuais.
Neste trabalho, estudamos a relação entre os resultados do FBST
e de um teste
freqüentista, o TRVG (Teste da Razão de Verossimilhanças
Generalizado), através
de alguns problemas clássicos de testes de hipóteses.
Apresentamos, também,
todos os procedimentos computacionais utilizados para a
resolução automática dos
dois testes para grandes amostras, necessária ao estudo da
relação entre os testes.
-
6
Abstract
FBST (Full Bayesian Significance Test) is a procedure to test
precise
hypotheses, presented by Pereira and Stern (1999), which is
based on the calculus
of the posterior probability of the set tangent to the set that
defines the null
hypothesis. This procedure is a Bayesian alternative to the
usual significance
tests. In the present work we study the relation between the
FBST's results and those
of a frequentist test, GLRT (Generalised Likelihood Ratio Test)
through some
classical problems in hypotesis testing. We also present all
computer procedures that
compose the automatic solutions for applying FBST and GLRT on
big samples what
was necessary for studying the relation between both tests.
-
7
Sumário
1. Introdução
...............................................................................................................9
2. Distribuição de
Dirichlet.........................................................................................11
2.1
Definição..........................................................................................................11
2.2 Uma
Propriedade.............................................................................................11
2.3 Uma Conjectura
...............................................................................................12
2.4 Família Conjugada de Distribuições
................................................................13
3. Testes Bayesiano e Clássico (Freqüentista)
.........................................................16
3.1 O FBST (Full Bayesian Significance
Test).......................................................16
3.2 O TRVG (Teste da Razão de Verossimilhanças Generalizado)
......................18
4.
Aplicações.............................................................................................................20
4.1 Teste para Proporção
......................................................................................21
4.1.1 Hipótese
Nula............................................................................................22
4.1.2
FBST.........................................................................................................22
4.1.3 TRVG
........................................................................................................23
4.1.4 Resultados e
Comparação........................................................................24
4.2 Teste para Homogeneidade de Proporções
....................................................28
4.2.1 Hipótese
Nula............................................................................................29
4.2.2
FBST.........................................................................................................29
4.2.3 TRVG
........................................................................................................31
4.2.4 Resultados e
Comparação........................................................................32
4.3 Teste de Homogeneidade de Marginais (O Problema de McNemar)
..............38
4.3.1 Hipótese
Nula............................................................................................39
4.3.2
FBST.........................................................................................................39
4.3.3 TRVG
........................................................................................................40
4.3.4 Resultados e
Comparação........................................................................41
4.4 Teste do Equilíbrio Populacional de Hardy-Weinberg
.....................................46
4.4.1 Hipótese
Nula............................................................................................47
4.4.2
FBST.........................................................................................................47
4.4.3 TRVG
........................................................................................................48
4.4.4 Resultados e
Comparação........................................................................50
4.5 Teste de Independência
..................................................................................55
4.5.1 Hipótese
Nula............................................................................................57
-
8
4.5.2
FBST.........................................................................................................57
4.5.3 TRVG
........................................................................................................58
4.5.4 Resultados e
Comparação........................................................................60
5. Considerações
Finais............................................................................................65
6. Referências
Bibliográficas.....................................................................................67
A. Anexo - Programação no MatLab
.........................................................................68
A.0 O Ajuste da função Beta
Acumulada...............................................................68
A.1 Teste para
Proporção......................................................................................70
A.1.1
FBST.........................................................................................................70
A.1.2
TRVG........................................................................................................71
A.1.3 O programa para calcular as duas estatísticas para grandes
amostras ...71
A.2 Teste para Homogeneidade de
Proporções....................................................74
A.2.1
FBST.........................................................................................................74
A.2.2
TRVG........................................................................................................75
A.2.3 O programa para calcular as duas estatísticas para grandes
amostras ...76
A.3 Teste de Homogeneidade de Marginais (O Problema de
McNemar)..............79
A.3.1
FBST.........................................................................................................79
A.3.2
TRVG........................................................................................................80
A.3.3 O programa para calcular as duas estatísticas para grandes
amostras ...81
A.4 Teste do Equilíbrio Populacional de Hardy-Weinberg
.....................................83
A.4.1
FBST.........................................................................................................83
A.4.2
TRVG........................................................................................................85
A.4.3 O programa para calcular as duas estatísticas para grandes
amostras ...86
A.5 Teste de Independência
..................................................................................88
A.5.1
FBST.........................................................................................................88
A.5.2
TRVG........................................................................................................90
A.5.3 O programa para calcular as duas estatísticas para grandes
amostras ...91
-
9
1. Introdução
A literatura estatística está repleta de procedimentos que visam
testar
hipóteses estatísticas. Este trabalho se restringe aos testes de
significância. Por
teste de significância entenda-se um procedimento criado para
medir a consistência
dos dados com a hipótese sendo testada, denominada hipótese
nula. Na literatura
estatística freqüentista, o cálculo do valor p (o p-value) é o
exemplo mais conhecido
de tais procedimentos. Diversos métodos estão disponíveis para
calcular o valor p.
Recentemente, uma alternativa Bayesiana foi criada, e o valor e
(e-value) passa a
ser a alternativa Bayesiana do valor p.
Esta dissertação irá focar a resolução de 5 problemas
estatísticos
amplamente divulgados na literatura através da utilização de
dois testes estatísticos
de significância:
i) Um teste Bayesiano: o Full Bayesian Significance Test (FBST)
ou
Teste de Significância Genuinamente Bayesiano, baseado na
distribuição a posteriori, através do qual será calculado o
e-value;
ii) Um teste Clássico: o Teste da Razão de Verossimilhanças
Generalizado (TRVG), baseado na razão entre os máximos - geral
e
sob a hipótese nula - através da qual será calculado o
p-value.
Os problemas aqui estudados serão baseados em hipóteses
precisas.
Entende-se por hipótese precisa aquela definida em um subespaço
do espaço
paramétrico cuja dimensão é menor do que a dimensão do espaço
paramétrico
original.
Os problemas estudados são:
1) Teste para a Proporção;
2) Teste para Homogeneidade de Proporções;
3) Teste de Homogeneidade de Marginais (o problema de
McNemar);
4) Teste do Equilíbrio Populacional de Hardy-Weinberg; e
5) Teste de Independência.
O objetivo desta dissertação é apresentar ambos os cálculos,
e-value e p-
value, para os diferentes problemas, apresentar os programas
utilizados para a
aplicação dos testes para amostras consideradas grandes e,
finalmente, determinar
o tipo de relação existente entre p-value e e-value para cada
problema. Na verdade
-
10
mostraremos que algumas funções Beta acumuladas realizam bem o
papel de
relacionar o e-value ao p-value.
O Capítulo 2 apresenta a distribuição de Dirichlet e os
principais resultados
necessários para a aplicação do FBST. O Capítulo 3 apresenta de
forma sucinta o
FBST e o TRVG. O Capítulo 4 apresenta os problemas com as
definições das
hipóteses de interesse, a resolução pelos dois métodos, a
comparação entre os
resultados e o melhor ajuste entre eles. Toda a programação foi
feita no software
MatLab, versão 6.5.0.180913a release 13, e encontra-se comentada
no Anexo e
disponível em CD. Também estão disponíveis no CD todos os dados
obtidos nos
exercícios aqui resolvidos e mostrados nos gráficos.
-
11
2. Distribuição de Dirichlet
2.1 Definição
Um vetor aleatório θ = (θ1, θ2,..., θk), com θi > 0 e 1’θ =
1, tem distribuição de
Dirichlet de ordem k com parâmetros a = (a1, a2, ..., ak), ai
> 0, se a densidade de θ é
a função
( )∏∑ =
−
=
=
k
1i i
1ai
k
1ii a
θa)g(
i
ΓΓθ ,
onde )(a iΓ é a função Gama avaliada no ponto ai. Em símbolos,
escreve-se:
θθθθ|a ~ Dk(a).
2.2 Uma Propriedade
Considerando as componentes do vetor aleatório z = (z1, z2 ...,
zk) como
variáveis possuindo distribuição Gama, mutuamente independentes,
com
parâmetros (a, b), com a = (a1, a2 ..., ak), um vetor de
componentes reais positivas, e
mesmo parâmetro escala b > 0, ou seja:
zi | (a, b) ~ G(ai , b)
e
)(ae
zbb),|f(
ibz
1ai
a
ii
ii
Γ=
−
az ,
se t = z1+ z2 + ... + zk, então são válidas as seguintes
propriedades:
i) t | (a, b) ~ G(1’a, b);
ii) se tz
θ = , então θθθθ|a ~ Dk(a);
-
12
iii) tz
e t são independentes, fixado a;
iv) a média e a matriz de covariâncias para θ são,
respectivamente:
−−−
−−−
−−−
+=Σ==
µµµµµµµ
µµµµµµµ
µµµµµµµ
aa | θµ
'''
'''
'''
2
1
kK
MOMM
K
K
1t1
e t
)E(
onde cada iµ é uma componente do vetor µ .
A demonstração das propriedades acima pode ser verificada em
Pereira &
Basu (1982).
Diversos autores já mencionaram que o logaritmo de uma variável
Gama é
bem aproximado por uma variável Normal, ou seja, se um vetor z
tem distribuição
Gama, então existe uma variável y com distribuição Log-normal
equivalente a z.
Para maiores detalhes, veja Aitchison & Shen (1980).
No trabalho de Rodrigues (2005) é feita uma longa discussão a
respeito deste
resultado, inclusive graficamente mostrando a qualidade da
aproximação entre as
distribuições Gama(a,b) e Log-normal de acordo com as possíveis
variações de a e
b. Ainda no mesmo trabalho estão disponíveis outros resultados
importantes, como
sobre a partição do vetor θ que possui distribuição Dirichlet
resultar em vetores
independentes também com distribuição de Dirichlet ou ainda a
definição da Dirichlet
de segundo tipo obtida através de uma reparametrização do vetor
θ.
Com todos os resultados já apresentados, pode-se trabalhar com
a
aproximação normal para a reparametrização do vetor θ com
distribuição Dirichlet,
conforme segue:
2.3 Uma Conjectura
Seja θθθθ|a ~ Dk(a), ao aplicar no vetor θ = (θ1, θ2, ..., θk) a
reparametrização
( )
== − 1-k21
k1k21 θ,...,θ,θ
θ
1ln)w,...,w,(ww ,
-
13
pode-se dizer que w tem distribuição aproximadamente normal
k-dimensional com
vetor de médias dado por:
==
)(a - )(a
)(a - )(a
)(a - )(a
)E(µ
k1-k
k2
k1
w
ΨΨ
ΨΨ
ΨΨ
Mw ,
e matriz de covariâncias dada por:
+
+
+
=Σ
)(a )(a)(a)(a
)(a)(a )(a)(a
)(a)(a)(a )(a
k1-kkk
kk2k
kkk1
w
Ψ'Ψ'Ψ'Ψ'
Ψ'Ψ'Ψ'Ψ'
Ψ'Ψ'Ψ'Ψ'
L
MOMM
L
L
,
onde )(akΨ e )(akΨ' são respectivamente as funções digama e
trigama avaliadas
no ponto ak e definidas como:
)(aa
)(a e )(a)(a'
)(a lna
)(a kk
kk
kk
kk ΨΨ'Ψ
∂
∂=
Γ
Γ=Γ
∂
∂= .
2.4 Família Conjugada de Distribuições
Segundo Berger e Casella (2001), na metodologia Bayesiana, o
parâmetro θ
(ou vetor de parâmetros θ) é tido como uma quantidade
desconhecida, porém fixa,
cuja variação pode ser descrita por uma distribuição de
probabilidade, chamada de
distribuição a priori. Esta distribuição é subjetiva, baseada
apenas no conhecimento
do pesquisador e é definida antes que os dados sejam
observados.
Após se retirar uma amostra da população, a distribuição a
priori pode ser
atualizada com a informação observada de modo a se obter a
distribuição a
posteriori. Esta atualização é feita utilizando-se o fator de
Bayes.
Ao denotar a distribuição a priori por π(θ) e a distribuição
amostral por f(x| θ),
a distribuição a posteriori é dada por
-
14
( ) ( )( )∫
=dθθθ)π|f(
θθ)π|f(|θπ
x
xx ,
note que a distribuição a posteriori é uma distribuição
condicional aos dados
observados na amostra. Esta distribuição agora é utilizada para
se fazer inferências
a respeito do parâmetro θ.
Os problemas que serão estudados neste trabalho estão restritos
aos vetores
de dados observados x = (x1, x2, x3, x4), com 1’x = n,
associados ao vetor de
parâmetros θ = (θ1, θ2, θ3, θ4), com 1’θ = 1. A distribuição
condicional de x dado θ
chama-se Distribuição Multinomial e é dada por
∏=
==4
1i i
xi
!xθ
n!)|P(i
θxX ,
em símbolos, escreve-se x|θ ~ M4(n; θ). Para os problemas em que
x e θ possuem
dimensão 2, a distribuição de x|θ chama-se trinomial e, no caso
de dimensão 1, a
distribuição de x|θ coincide com a distribuição binomial.
Pereira e Viana (1982) demonstram que a distribuição Dirichlet
está
naturalmente conjugada com a distribuição Multinomial, por isso,
a distribuição
Dirichlet torna-se uma escolha natural como distribuição a
priori para os parâmetros
aqui estudados.
Desta maneira, se θθθθ|a ~ D4(a), conforme definido em 2.1 e se
x|θ ~ M4(n; θ),
conforme definido acima, então
θθθθ|x ~ D4(a+x).
Demonstração: pelo fator de Bayes, tem-se
( ) ( )( )
( )
( )∫ ∏∑∏
∏∑∏
∫
==
=
−
==
=
−
==
θθθθx
θθxxθ
da
θa
!x
θn!
a
θa
!x
θn!
d)π|P(
)π|P(|f
4
1i i
1ai
4
1ii
4
1i i
xi
4
1i j
1ai
4
1ii
4
1i i
xi
ii
ii
ΓΓ
ΓΓ
-
15
( )
( )
∫∏
∏
∫ ∏∏
∑
∏∏
∑
=
−+
=
−+
=
−
=
=
=
−
=
=
=
=
θ
θ
dθ
θ
dθθa!x
an!
θθ
a!x
an!
4
1i
1xi
4
1i
1xi
4
1i
1ai
xi4
1ji
k
1ii
4
1i
1ai
xi4
1ji
k
1ii
i
i
ii
ii
i
i
a
a
i
i
Γ
Γ
Γ
Γ
.
Pereira e Viana (1982) demonstram que
( )
=
∑
∏∫∏
=
=
=
−
k
1ii
k
1ii4
1i
1i
a
adθ
Γ
Γ
θia
e, desta forma, segue que θθθθ|x ~ D4(a+x).
As prioris utilizadas neste trabalho serão de dimensão 4 ou
menor com vetor
de parâmetros a = 1.
-
16
3. Testes Bayesiano e Clássico (Freqüentista)
3.1 O FBST (Full Bayesian Significance Test)
O FBST (Full Bayesian Significance Test ou Teste de
Significância
Genuinamente Bayesiano) foi primeiro apresentado por Pereira
& Stern (1999) como
um teste Bayesiano coerente e intuitivo. Trata-se de um teste de
significância
estatístico baseado apenas na distribuição a posteriori, com o
objetivo de determinar
a evidência que os dados carregam a favor de uma hipótese
precisa. Este teste
pode ser implementado utilizando metódos de otimização numérica
e técnicas de
integração. Como dito anteriormente, por hipótese precisa
entende-se , :H HΘθ∈
ΘΘH ⊂ e )dim( )dim( ΘΘH < .
Neste trabalho será utilizada uma versão generalizada do FBST,
descrita por
Madruga et al (2003) que utiliza uma densidade referência no
espaço paramétrico.
A densidade referência é escolhida no espaço das densidades
sobre o
espaço paramétrico original, onde a densidade a priori é
definida. Em geral, a
escolha da referência recai sobre a densidade que descreve a
menor informação
sobre θ. Para este trabalho, a escolha da classe de
distribuições a priori está restrita
à classe de distribuições de Dirichlet de ordem k. Uma escolha
intuitiva e natural
para a densidade referência é a própria Dirichlet com vetor de
parâmetros formado
por 1 em todas as posições, que é, na realidade, a própria
densidade Uniforme.
Sejam uma hipótese precisa HΘθ :H ∈ , f(θ) e r(θ) as densidades
a posteriori e
referência para θ, respectivamente, define-se:
=
=
=∈∈ )r(
)f(
)r( )f(
max s e )r( )f(
max arg *
***
θ
θ
θ
θ
θ
θθ
HH ΘθΘθ.
A função)r( )f(
)s(θ
θθ = é chamada “surpresa relativa”. Define-se também no
espaço paramétrico Θ o conjunto de maior surpresa relativa (em
inglês, highest
-
17
relative surprise set - HRSS), *Θ de pontos Θθ ∈ com surpresa
relativa s(θ) maior do
que em qualquer ponto de HΘ , ou seja:
≥∈= *s )r( )f(
θ
θΘθΘ * .
Note que o conjunto *Θ é tangente ao conjunto HΘ em *Θ . A
evidência
contra H, de acordo com os dados amostrais x é dada pela
probabilidade a posteriori
do conjunto tangente *Θ :
∫=*
)df( Θ
θθev .
O valor da evidência a favor de H é o complementar de ev , ou
seja, e-value =
1 - ev . O FBST rejeita a hipótese nula quando o e-value
resultar em um valor
pequeno.
O cálculo do FBST é feito em duas etapas:
i) Otimização numérica: consiste em encontrar o argumento que
maximiza
a surpresa relativa sob a hipótese H:
=∈ )r(
)f( max arg *
θ
θθ
Θθ H
;
ii) Integração numérica: consiste em integrar a densidade a
posteriori sobre
a região tangente:
∫=*
)df( Θ
θθev .
Esta definição da evidência contra H é invariante quanto a uma
possível
reparametrização de θ.
Voltando aos problemas que serão analisados neste trabalho, ao
aplicar em θ
= (θ11, θ12, θ21, θ22) a reparametrização vista na conjectura
2.3, obtém-se:
-
18
== ) , ,(
1ln ) w, w,(w 211211
22321 θθθ
θw ,
e, de acordo com a conjectura, o vetor w tem distribuição
aproximadamente normal
com matriz de médias µw e de covariâncias Σw, respectivamente,
ou seja, g(w) ~
N(µw, Σw).
Da mesma forma, a densidade referência também será aproximada
por uma
normal com matriz de médias µr e de covariâncias Σr,
respectivamente, ou seja, q(w)
~ N(µr, Σr).
Deste modo, a função “surpresa relativa” passa a ser:
−
−
==
r
r
rΣ
µw
Σ
Σ
µw
Σ
w
ww
w
w
w
2
2
)(21
exp2
1
)(21
exp2
1
)r( )f(
)s(
π
π
[ ]
−Σ−−Σ−=−
)()'( - )()'(21
exp21
21
wwwrrrr µwµwµwµwΣΣw .
As particularidades para cada tipo de problema e hipóteses
serão
apresentadas no próximo capítulo junto da resolução dos
testes.
3.2 O TRVG (Teste da Razão de Verossimilhanças
Generalizado)
Definição 3.2.1 - Seja x1, x2, ..., xn uma amostra aleatória da
variável aleatória X,
com função de densidade ou probabilidade f(x|θ), com Θθ ∈ . A
função de
verossimilhança de θ associada a esta amostra é dada por:
) |f(x );L(n
1ii θxθ ∏
=
= .
-
19
Definição 3.2.1 - O estimador de máxima verossimilhança de θ,
chamado de θ̂ , é o
valor de Θ que maximiza a função de verossimilhança definida
acima.
Sejam as hipóteses:
A
Η
Θθ
Θθ
∈
∈
:A
:H
onde ∅≠∅≠∅=∩∪= AAA ΘΘΘΘΘΘΘ , , , HHH .
O Teste da Razão de Verossimilhanças Generalizado pode ser
definido como
o teste que utiliza como estatística a razão )λ(x de duas
maximizações:
i) o máximo restrito ao subespaço definido por H;
ii) o máximo da verossimilhança.
A razão);L(sup
);L(sup )λ(
xθ
xθx
Θθ
Θθ H
∈
∈= , ou seja, a razão das verossimilhanças calculadas
em seus máximos, deve variar entre 0 e 1. É intuitivo notar que
quando H é
verdadeira, espera-se que )λ(x esteja “próximo” de 1 e, quando H
for falsa, espera-
se que )λ(x esteja “próximo” de 0.
Wilks (1935, 1938) mostrou que, quando n → ∞, a distribuição
nula
(distribuição sob H) de -2λ(x) é aproximadamente Qui-Quadrado,
com número de
graus de liberdade determinado pela diferença entre as dimensões
do espaço
paramétrico original e do subespaço definido por H.
-
20
4. Aplicações
Para o Cálculo do FBST, a etapa de otimização numérica pode ser
realizada
de duas maneiras:
i) utilizando o estimador de máxima verossimilhança θ̂ de θ como
o máximo
da função surpresa relativa;
ii) embora o uso do EMV de θ seja correto, pode-se calcular o
ponto de
máximo da função utilizando algum método de otimização próprio
do
software utilizado.
Apesar de os dois cálculos apresentarem resultados idênticos,
ambos serão
apresentados nos programas do anexo. Quando o ponto de máximo θ̂
for de fácil
cálculo, basta substituí-lo na função surpresa relativa para
encontrar seu máximo,
dessa forma economizando tempo de processamento. Quando o ponto
de máximo
não for conhecido, o máximo da função surpresa relativa pode ser
encontrado com
técnicas de otimização próprias do software. A obtenção do ponto
de máximo pelos
dois métodos é apresentada no anexo. Quando o número de pontos
amostrais cujas
funções devem ser otimizadas é muito grande, como em alguns
exemplos
mostrados a seguir, o fato de conhecer o ponto de máximo através
de θ̂ é muito
vantajoso pois ajudará a reduzir sensivelmente o tempo de
processamento
computacional.
Ainda para o FBST, a etapa de integração numérica é feita
através do cálculo
da função surpresa relativa em 10 mil amostras apresentando
distribuição normal
com média e variância definida em cada problema, estes pontos
amostrais são
aleatorizados pelo software. A proporção de pontos que
apresentarem valor da
função surpresa relativa inferior ao valor obtido no ponto de
máximo é o próprio e-
value.
Todos os cálculos do TRVG produzindo os p-values também
foram
programados e serão apresentados no anexo.
Para elucidar a relação entre p-value e e-value, em todos os
exemplos, os
pontos (p-value, e-value) foram apresentados em forma de
gráfico. Será possível
notar que existe uma forte correlação entre os mesmos. Um dos
objetivos deste
trabalho é explicitar esta relação através de funções Beta
acumuladas, isto é,
-
21
mostrar que a relação entre p-value e e-value é aproximada por
uma função de
distribuição Beta:
( )( )
( )∫−− −=
x
0
1b1a dtt1tba,B
1ba,|xf ,
com ( ) ( )∫−− −=
1
0
1b1a dtt1tba,B .
Para a obtenção dos parâmetros a e b da função Beta acumulada, o
primeiro
passo foi considerar, para os pontos do gráfico dos e-values em
função dos p-
values, uma discretização no eixo dos p-values, calculando-se
para cada intervalo o
valor médio dos e-values. Após este cálculo, gerou-se uma spline
de ordem cúbica
para interpolar os valores obtidos na discretização.
Esta spline é utilizada como base para obter-se os coeficientes
da função
Beta acumulada. Para isso foram calculados os valores de
referência para a spline
através de uma nova discretização, maior que a utilizada para
sua construção.
Os parâmetros da função Beta acumulada foram variados em um
dado
intervalo e, com um passo conhecido, foi utilizado o método dos
mínimos quadrados
para minimizar o erro entre as duas curvas testadas (o erro
minimizado é a soma
dos quadrados das diferenças entre os valores de referência
calculados para as
duas curvas consideradas), sendo os valores da função Beta
acumulada obtidos na
mesma discretização utilizada para o cálculo dos valores de
referência da spline.
A precisão dos parâmetros calculados para as Betas chegou à
ordem de
1.0x10-10.
4.1 Teste para Proporção
O teste para a Proporção é um exemplo padrão que tem por
objetivo
determinar se a taxa de ocorrência de uma determinada
característica em uma
população X pode ser representada por um valor conhecido p. O
espaço
paramétrico é o intervalo unitário Θ = {0 ≤ θ ≤ 1}.
Uma amostra de n indivíduos é retirada da população. Seja x1 o
número de
indivíduos na amostra que apresentam a característica em estudo,
se a proporção
-
22
de indivíduos com a característica na população for representada
por θ1, ( 1 θ 0 1 ≤≤ ),
então X ~ Bin(n, θ1).
Como exemplos de aplicação deste teste, podemos citar as
pesquisas feitas
antes e após as propagandas eleitorais para verificar se a
preferência por um
determinado candidato aumentou; se o tempo de cura para
determinada doença
dimunui após a utilização de um certo medicamento ou se as
vendas de um produto
de consumo aumentaram após a veiculação de uma propaganda na
televisão.
4.1.1 Hipótese Nula
Para este teste, as hipóteses de interesse são:
H: 1 p 0 , p θ1 ≤≤=
A: P θ1 ∈ , onde P é um conjunto próprio de [0, 1]
4.1.2 FBST
Considere o vetor de parâmetros θ = (θ1, θ2) que, para este
teste, pode ser
reescrito na forma θ = (θ1, 1 - θ1), associado ao vetor de dados
observados x = (x1,
x2). A priori adotada para θ será D2(1), x|θ, como já foi
mencionado, possui
distribuição Binomial com parâmetros n e θ e, portanto, de
acordo com a discussão
feita em 2.4, θθθθ|x ~ D2(1+x). Ao aplicar em θ a
reparametrização θ
θln )(w w
2
11
== ,
testar H fica equivalente a testar:
H: w = v θ - 1θ
ln 1
1 =
Com esta reparametrização e de acordo com a conjectura 2.3, a
densidade a
posteriori f(w) e a densidade de referência r(w) podem ser
aproximadas pela normal
com médias µw e µr, e variâncias 2wσ e 2rσ , respectivamente,
dadas por:
-
23
0 E(r) µ e )x(1 - )x(1 E(w) µ r21w ==+Ψ+Ψ==
e
(1)'2 e )x(1' )x(1' 2212 Ψ=+Ψ++Ψ= rw σσ .
Com as densidades a posteriori e referência definidas, pode-se
calcular a
surpresa relativa:
( )
−
==
2w
2w
2r
2
w
r
σ
µ-w
σ
w21
expσ
σ
r(w)f(w)
s(w) .
O teste é aplicado conforme descrito em 3.1.
4.1.3 TRVG
Seja x = (x1, x2) o vetor de dados observados na amostra. Sob H,
p θ1 = . Sob
A, a estimativa para 1θ é dada pelo estimador de máxima
verossimilhança nx
θ 11 = .
Deste modo, as funções de verossimilhança sob H e sob A H ∪
são:
11
11
x- n
1
x
1
1AH
x- nx
1H n
x - 1
nx
x
n );L(θ e p) - (1p
x
n );L(θ
=
= ∪ xx .
De modo que a estatística qui-quadrado da razão de
verossimilhanças é dada
por:
==
nx
- 1nx
x
n
p) - (1p x
n
ln*2- λ(x) ln*2- Q11
11
x- n
1
x
1
1
x- nx
12 .
Simplificando λ(x) , obtém-se:
−
=
11 x- n
1
x
1
2
xnp) - (1 n
xp n
*2- Q ,
-
24
e, aplicando o ln, chega-se a:
( )2211212 xln x xln x- n ln n p) - (1 ln x p ln x*2- Q −++=
.
Para o caso geral (sob A H ∪ ), o espaço paramétrico é
determinado pela
proporção θ1 sujeita à restrição ( 1 θ 0 1 ≤≤ ), portanto a
dimensão é 1. Sob H, θ1 é
fixo, portanto a dimensão é 0. A diferença entre as duas
dimensões é 1 - 0 = 1.
Portanto, para amostras grandes, 212 ~ Q χ e )Q P( -p 221 >=
χvalue .
4.1.4 Resultados e Comparação
As tabelas a seguir apresentam alguns resultados do e-value e do
p-value
para diferentes valores do vetor x = (x1, x2) com diferentes
tamanhos de amostra e
valores da proporção p:
Tabela 4.1.4.1 - Aplicação do teste da Proporção em amostras de
tamanho n = 100
com diferentes valores de p
p = 0,3 p = 0,5 p = 0,9
x1 x2 e-value p-value x1 x2 e-value p-value x1 x2 e-value
p-value
15 85 0,002 0,000 16 84 0,000 0,000 35 65 0,000 0,00018 82 0,008
0,006 65 35 0,003 0,003 79 21 0,000 0,00140 60 0,032 0,034 37 63
0,009 0,009 83 17 0,026 0,03223 77 0,124 0,117 61 39 0,029 0,027 84
16 0,052 0,06337 63 0,124 0,134 41 59 0,068 0,071 95 5 0,076
0,06835 65 0,276 0,282 58 42 0,111 0,109 85 15 0,106 0,11826 74
0,374 0,376 56 44 0,232 0,230 86 14 0,201 0,20633 67 0,514 0,516 48
52 0,684 0,689 87 13 0,344 0,33728 72 0,650 0,660 49 51 0,833 0,841
89 11 0,796 0,74230 70 0,991 1,000 50 50 1,000 1,000 90 10 0,933
1,000
Tabela 4.1.4.2 - Aplicação do teste da Proporção em amostras de
tamanho n =
1.000 com diferentes valores de p
-
25
p = 0,3 p = 0,5 p = 0,9
x1 x2 e-value p-value x1 x2 e-value p-value x1 x2 e-value
p-value
142 858 0,000 0,000 386 614 0,000 0,000 807 193 0,000 0,000337
663 0,012 0,012 461 539 0,015 0,014 987 13 0,000 0,000334 666 0,022
0,020 462 538 0,017 0,016 879 121 0,027 0,032316 684 0,278 0,272
470 530 0,055 0,058 880 120 0,033 0,040309 691 0,548 0,536 476 524
0,124 0,129 890 110 0,300 0,299295 705 0,733 0,730 478 522 0,163
0,164 906 94 0,499 0,523296 704 0,782 0,782 516 484 0,306 0,312 903
97 0,727 0,751304 696 0,783 0,783 510 490 0,536 0,527 897 103 0,778
0,753297 703 0,835 0,836 496 504 0,803 0,800 902 98 0,809 0,833300
700 0,997 1,000 500 500 1,000 1,000 900 100 0,978 1,000
Tabela 4.1.4.3 - Aplicação do teste da Proporção em amostras de
tamanho n =
10.000 com diferentes valores de p
p = 0,3 p = 0,5 p = 0,9
x1 x2 e-value p-value x1 x2 e-value p-value x1 x2 e-value
p-value
2.905 7.095 0,038 0,038 4.904 5.096 0,053 0,055 8.906 1.094
0,002 0,0023.066 6.934 0,157 0,151 5.075 4.925 0,134 0,134 8.959
1.041 0,175 0,1742.951 7.049 0,287 0,284 5.060 4.940 0,235 0,230
8.964 1.036 0,234 0,2332.959 7.041 0,370 0,370 5.046 4.954 0,362
0,358 8.967 1.033 0,272 0,2743.037 6.963 0,421 0,420 4.960 5.040
0,420 0,424 8.970 1.030 0,318 0,3193.028 6.972 0,540 0,542 5.033
4.967 0,506 0,509 8.975 1.025 0,410 0,4062.980 7.020 0,660 0,662
5.021 4.979 0,685 0,674 9.017 983 0,564 0,5703.013 6.987 0,786
0,777 4.983 5.017 0,729 0,734 9.010 990 0,742 0,7392.991 7.009
0,842 0,844 4.992 5.008 0,869 0,873 9.006 994 0,837 0,8412.998
7.002 0,966 0,965 4.997 5.003 0,950 0,952 9.002 998 0,942 0,947
Com o intuito de verificar se a relação entre p-value e e-value
não se modifica
de acordo com o tamanho da amostra observada e com o valor de p
testado, foram
realizadas diversas simulações com diferentes tamanhos de
amostras n e valores de
p, varrendo todo o espaço amostral, ou seja, utilizando todas as
combinações
possíveis de elementos nas duas posições do vetor x = (x1, x2)
de modo a se obter
soma x1 + x2 = n e, também, de forma que nenhum xi < 5.
Os resultados podem ser observados nos gráficos do e-value em
função do
p-value disponibilizados a seguir:
-
26
0 0.5 10
0.5
1Teste de Proporçao p = 0.3
p-value
e-va
lue
0 0.5 10
0.5
1Teste de Proporçao p = 0.5
p-value0 0.5 1
0
0.5
1Teste de Proporçao p = 0.9
p-value
Figura 4.1.4.1 - Relação entre e-value e p-value para n = 100
com diferentes valores
de p
0 0.5 10
0.5
1Teste de Proporçao p = 0.3
p-value
e-va
lue
0 0.5 10
0.5
1Teste de Proporçao p = 0.5
p-value0 0.5 1
0
0.5
1Teste de Proporçao p = 0.9
p-value
Figura 4.1.4.2 - Relação entre e-value e p-value para n = 1.000
com diferentes
valores de p
0 0.5 10
0.5
1Teste de Proporçao p = 0.3
p-value
e-va
lue
0 0.5 10
0.5
1Teste de Proporçao p = 0.5
p-value0 0.5 1
0
0.5
1Teste de Proporçao p = 0.9
p-value
Figura 4.1.4.3 - Relação entre e-value e p-value para n = 10.000
com diferentes
valores de p
-
27
Em todos os gráficos, pode-se verificar que, independentemente
dos valores
de n e p, a curva que melhor representa os pontos é sempre
igual. A linha vermelha
representa a curva da função Beta acumulada com parâmetros a =
0,9957 e b =
0,9956. Estes valores foram ajustados com base nos pontos
amostrais obtidos para
n = 10.000 e p =0,5, conforme descrito no início do
capítulo.
Para a obtenção desta curva, o primeiro passo é a discretização
dos pontos
(p-value, e-value) para obtenção dos pontos médios necessários
para garantir a
unicidade no mapeamento dos pares (p-value, e-value) e, dessa
forma possibilitar o
ajuste da curva spline:
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Obtençao dos pontos medios com discretizacao 0.01 e a beta
experimental
p-value
e-va
lue
datamedias
Figura 4.1.4.4 Discretização dos pontos (p-value, e-value)
Neste gráfico, os pontos amarelos com rótulo “data” representam
os pontos
(p-value, e-value) obtidos com os dois métodos de resolução do
teste e os pontos
verdes com rótulo “medias” representam as médias dos e-values no
intervalo
discretizado dos p-values.
Com base nos pontos médios, a spline é ajustada e, após mais
alguns
passos, a curva da Beta acumulada é obtida:
-
28
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Obtençao das spline cubica com discretizacao 0.01 e a beta
experimental
p-value
e-va
lue
datasplinebeta
Figura 4.2.4.4 - Ajuste da Beta acumulada pela spline
Neste gráfico, os pontos amarelos com rótulo “data” representam
os pontos
(p-value, e-value) obtidos com os dois métodos de resolução do
teste, a linha azul
com rótulo “spline” representa a curva spline ajustada após a
discretização dos
dados e, finalmente, a linha vermelha com rótulo “beta”
representa a curva da Beta
acumulada melhor ajustada aos pontos deste teste.
4.2 Teste para Homogeneidade de Proporções
O teste de Homogeneidade tem por objetivo determinar se a taxa
de
ocorrência de uma determinada característica é a mesma para duas
populações
distintas (X1 e X2). Uma amostra de n indivíduos é retirada da
primeira população e
uma amostra de m indivíduos é retirada da segunda.
Suponha que x11 e x21 sejam o número de indivíduos de cada uma
das
amostras que apresentam a característica em estudo, se a
proporção de indivíduos
com a característica na população X1 for representada por θ11, (
1 θ 0 11 ≤≤ ) e a
proporção na população X2 for representada por θ21, ( 1 θ 0 21
≤≤ ), então pode-se
afirmar que X1 ~ Bin(n, θ11) e X2 ~ Bin(m, θ21), com X1 e X2
independentes.
A tabela de freqüências observadas para as duas amostras
encontra-se a
seguir:
-
29
Tabela 4.2.1 - Freqüências observadas
Ocorrência
Sim Não Total
População X n11 n12 n
População Y n21 n22 m
Total n11 + n21 n + m - n11 - n21 n + m
Para este caso, vale a relação n12 = n - n11 e n22 = m -
n21.
Dados os vetores de parâmetros θ(1) = (θ11, θ12) e θ(2) = (θ21,
θ22), sujeitos às
restrições θ12 = 1 - θ11 e θ12 = 1 - θ21, a função de
verossimilhança para x11 e x21 é
dada pelo produto das Binomiais:
21211111 m2121
21
xn11
x11
11
)θ(1θx
m)θ(1θ
x
n ),|L( xx −− −
−
=21 xxθ .
O espaço paramétrico para este caso é dado por Θ = {0 ≤ θij ≤ 1
| θ11 + θ12 = 1
^ θ21 + θ22 = 1}.
Como exemplos de aplicação deste teste, podemos citar a
comparação de
duas populações com relação à incidência de uma determinada
doença,
comportamento de consumo ou preferência eleitoral.
4.2.1 Hipótese Nula
Para este teste, as hipóteses de interesse são:
H: θ11 = θ21 (as probabilidades de ocorrência da característica
são iguais para
as duas populações)
A: θ11 ≠ θ21 (as probabilidades de ocorrência da característica
são diferentes)
4.2.2 FBST
Considere os vetores de parâmetros θ(1) = (θ11, θ12) e θ(2) =
(θ21, θ22) que, para
este teste, podem ser reescritos na forma θ(1) = (θ11, 1 - θ11)
e θ(2) = (θ21, 1 - θ21),
-
30
associados aos vetores de dados observados x1 = (x11, x12) e x2
= (x21, x22). As
prioris adotadas para θ(1) e θ(2) serão D2(1), x1|θ e x2|θ, como
já foi mencionado,
possuem distribuição Binomial com parâmetros (n, θ(1)) e (m,
θ(2)) respectivamente e,
portanto, de acordo com a discussão feita em 2.4, θθθθ(1)|x1 ~
D2(1+x1) e θθθθ(2)|x2 ~
D2(1+x2).
Ao aplicar em θ a reparametrização
==
22
21
12
1121
θ
θ ,
θ
θln ) w,(w w
=
21
21
11
11
θ - 1θ
,θ - 1θ
ln ,
testar H fica equivalente a testar:
H: w1 = w2
=
→
21
21
11
11
θ - 1θ
ln θ - 1θ
ln
Com esta reparametrização e de acordo com a conjectura 2.3, as
densidades
a posteriori f(w1) e f(w2) e a densidade de referência r(w)
podem ser aproximadas
pela normal, com médias 1
µw , 2µw e µr, e variâncias 2
1wσ , 2
2wσ e 2
rσ ,
respectivamente, dadas por:
0µ ),x(1 - )x(1µ ),x(1 - )x(1µ 22211211 21 =+Ψ+Ψ=+Ψ+Ψ= rww
e
(1)'2 ),x(1' )x(1' ),x(1' )x(1' 222212
12112
21
Ψ=+Ψ++Ψ=+Ψ++Ψ=r
σσσww
.
Com as densidades a posteriori e referência definidas, pode-se
calcular a
surpresa relativa:
r(w)
(w)f.
r(w)(w)f
s(w) 21=
( ) ( )
−
−
=
2w
2w2
2r
22
w
r2w
2w1
2r
21
w
r
2
2
21
1
1σ
µ-w
σ
w21
expσ
σ .
σ
µ-w
σ
w21
expσ
σ
-
31
( ) ( )
−
+
−
=
2w
2w2
2r
22
2w
2w1
2r
21
ww
2r
2
2
1
1
21σ
µ-w
σ
w
σ
µ-w
σ
w21
expσσ
σ.
O teste é aplicado conforme descrito em 3.1.
4.2.3 TRVG
Utilizando a função de verossimilhança definida em 4.2, o
estimador de
máxima verossimilhança para θ sob H: θ11 = θ21 é dado por m n
xx
θ̂ 2111+
+= . Sob A, a
estimativa para θ11 e θ21 é dada pelos respectivos estimadores
de máxima
verossimilhança n
x θ̂ 11 11 = e m
x θ̂ 21 21 = . Deste modo, as funções de verossimilhança
sob H e sob A H ∪ são:
21211111 xm
2111
x
2111
21
xn
2111
x
2111
11H m n
xx1
m n xx
x
m
m n xx
1m n xx
x
n )|L(
−−
+
+−
+
+
+
+−
+
+
=yx,θ
e
21211111 xm
21
x
21
21
xn
11
x
11
11AH m
x1
mx
x
m
nx
1n
xx
n ),;L(
−−
∪
−
−
=yxθ .
De modo que a estatística qui-quadrado da razão de
verossimilhanças é dada
por:
λ(x) ln*2- Q2 =
−
−
+
+−
+
+
+
+−
+
+
=−−
−−
21211111
21211111
xm
21
x
21
21
xn
11
x
11
11
xm
2111
x
2111
21
xn
2111
x
2111
11
mx
1mx
x
m
nx
1n
xx
n
m n xx
1m n xx
x
m
m n xx
1m n xx
x
n
ln *2- .
Simplificando λ(x) , obtém-se:
-
32
+
+
+
+−
+
+=
− 211111 x
21
2111
xn
11
2111
x
11
21112
xm
m n xx
x-nn
m n xx
1xm n
xxln *2- Q
n
+
+−
− 21xm
21
2111
x- mm
m n xx
1 ,
e, aplicando o ln, chega-se a:
( ) ( ) ( ) ( ) ( ) ( ){ mnlnmnxxlnxxxxlnxx *2- Q
22122212211121112 ++−+++++=
}2222121221211111 xln x xln x xln x xln xm ln mn ln n −−−−++
.
Para o caso geral (sob A H ∪ ), o espaço paramétrico é
determinado pelas
proporções θij sujeitas às restrições lineares 1 θ2
1jij =∑
=
, para i = 1, 2, portanto a
dimensão é 1 + 1 = 2. Sob H, θ11 = θ21, portanto a dimensão é 1.
A diferença entre
as duas dimensões é 2 - 1 = 1.
Portanto, para amostras grandes, 212 ~ Q χ e )Q P( -p 221 >=
χvalue .
4.2.4 Resultados e Comparação
As tabelas que seguem apresentam alguns resultados do e-value e
do p-
value para diferentes valores do vetor x = (x11, x12, x21, x22)
com diferentes tamanhos
de amostras n e m:
Tabela 4.2.4.1 - Aplicação do teste de Homogeneidade no caso n =
m
-
33
n = m = 30 n = m = 50
x11 x12 x21 x22 e-value p-value x11 x12 x21 x22 e-value
p-value
20 10 6 24 0,002 0,000 22 28 9 41 0,018 0,00412 18 25 5 0,003
0,000 30 20 16 34 0,019 0,00525 5 15 15 0,023 0,005 18 32 30 20
0,055 0,01610 20 16 14 0,276 0,117 38 12 45 5 0,157 0,05919 11 13
17 0,292 0,119 23 27 14 36 0,170 0,0619 21 13 17 0,551 0,283 9 41
14 36 0,478 0,2338 22 6 24 0,818 0,541 21 29 26 24 0,609 0,31610 20
9 21 0,958 0,781 22 28 18 32 0,716 0,41412 18 13 17 0,965 0,793 15
35 17 33 0,906 0,6685 25 5 25 0,994 1,000 5 45 5 45 0,988 1,000
n = m = 100
x11 x12 x21 x22 e-value p-value
54 46 78 22 0,002 0,00041 59 26 74 0,081 0,02478 22 65 35 0,121
0,04151 49 40 60 0,289 0,11814 86 22 78 0,329 0,14079 21 71 29
0,422 0,19180 20 76 24 0,785 0,49528 72 30 70 0,952 0,75546 54 44
56 0,958 0,7765 95 5 95 0,967 1,000
Tabela 4.2.4.2 - Aplicação do teste de Homogeneidade no caso n
< m
-
34
n = 30, m = 60 n = 50, m = 100
x11 x12 x21 x22 e-value p-value x11 x12 x21 x22 e-value
p-value
15 15 13 47 0,022 0,007 26 24 76 24 0,014 0,0038 22 6 54 0,117
0,046 16 34 50 50 0,111 0,03524 6 38 22 0,248 0,099 21 29 58 42
0,179 0,06414 16 36 24 0,475 0,231 10 40 33 67 0,237 0,09020 10 46
14 0,585 0,317 39 11 88 12 0,269 0,11713 17 20 40 0,652 0,356 19 31
49 51 0,438 0,20017 13 29 31 0,750 0,455 41 9 89 11 0,488 0,2447 23
11 49 0,857 0,580 21 29 52 48 0,503 0,24711 19 25 35 0,902 0,647 44
6 86 14 0,923 0,73223 7 46 14 0,999 1,000 23 27 45 55 0,993
0,908
Tabela 4.2.4.3 - Aplicação do teste de Homogeneidade no caso n
> m
n = 50, m = 25 n = 80, m = 40
x11 x12 x21 x22 e-value p-value x11 x12 x21 x22 e-value
p-value
25 25 20 5 0,041 0,010 48 32 32 8 0,085 0,02517 33 14 11 0,180
0,069 41 39 27 13 0,229 0,08823 27 17 8 0,194 0,069 44 36 16 24
0,292 0,1208 42 8 17 0,270 0,118 56 24 33 7 0,310 0,13114 36 11 14
0,366 0,170 56 24 32 8 0,487 0,23518 32 13 12 0,403 0,186 40 40 16
24 0,576 0,29935 15 14 11 0,475 0,233 57 23 25 15 0,617 0,3357 43 6
19 0,540 0,290 53 27 24 16 0,798 0,50213 37 7 18 0,984 0,854 30 50
14 26 0,965 0,78817 33 8 17 0,984 0,862 35 45 18 22 0,993 0,897
Com o intuito de verificar se a relação entre p-value e e-value
não se modifica
de acordo com o tamanho da amostra observada, foram realizadas
simulações com
diferentes tamanhos de amostras n e m, varrendo todo o espaço
amostral, ou seja,
utilizando todas as combinações possíveis de elementos nas
quatro posições do
vetor x = (x11, x12, x21, x22) de modo a se obter soma x11 + x12
= n e x21 + x22 = m e,
também, de forma que nenhum xij < 5.
Os gráficos do e-value em função do p-value para diferentes
valores de n e
m, com n = m encontram-se a seguir:
-
35
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Teste de Homogeneidade n = 30 m = 30
p-value
e-va
lue
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Teste de Homogeneidade n = 50 m = 50
p-value
e-va
lue
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Teste de Homogeneidade n = 100 m = 100
p-value
e-va
lue
Figura 4.2.4.1 - Relação entre e-value e p-value para n = m
Os gráficos do e-value em função do p-value para diferentes
valores de n e
m, com n ≠ m encontram-se a seguir:
-
36
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Teste de Homogeneidade n = 30 m = 60
p-value
e-va
lue
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Teste de Homogeneidade n = 50 m = 100
p-value
e-va
lue
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Teste de Homogeneidade n = 50 m = 25
p-value
e-va
lue
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Teste de Homogeneidade n = 80 m = 40
p-value
e-va
lue
Figura 4.2.4.2 - Relação entre e-value e p-value para n ≠ m
Em todos os gráficos, pode-se verificar que, independentemente
dos valores
de n e m e da relação entre eles (iguais ou diferentes), a curva
que melhor
representa os pontos é sempre igual. A linha vermelha representa
a curva da função
Beta acumulada com parâmetros a = 0,8299 e b = 1,9586. Estes
valores foram
ajustados com base nos pontos amostrais obtidos para n = m =
100, conforme
descrito no início do capítulo.
Para a obtenção desta curva, o primeiro passo é a discretização
dos pontos
(p-value, e-value) para obtenção dos pontos médios necessários
para garantir a
unicidade no mapeamento dos pares (p-value, e-value) e, dessa
forma possibilitar o
ajuste da curva spline:
-
37
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Obtençao dos pontos medios com discretizacao 0.01 e a beta
experimental
p-value
e-va
lue
datamedias
Figura 4.2.4.1 Discretização dos pontos (p-value, e-value)
Neste gráfico, os pontos amarelos com rótulo “data” representam
os pontos
(p-value, e-value) obtidos com os dois métodos de resolução do
teste e os pontos
verdes com rótulo “medias” representam as médias dos e-values no
intervalo
discretizado dos p-values.
Com base nos pontos médios, a spline é ajustada e, após mais
alguns
passos, a curva da Beta acumulada é obtida:
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Obtençao das spline cubica com discretizacao 0.01 e a beta
experimental
p-value
e-va
lue
datasplinebeta
Figura 4.2.4.2 - Ajuste da Beta acumulada pela spline
-
38
Neste gráfico, os pontos amarelos com rótulo “data” representam
os pontos
(p-value, e-value) obtidos com os dois métodos de resolução do
teste, a linha azul
com rótulo “spline” representa a curva spline ajustada após a
discretização dos
dados e, finalmente, a linha vermelha com rótulo “beta”
representa a curva da Beta
acumulada melhor ajustada aos pontos deste teste.
4.3 Teste de Homogeneidade de Marginais (O Problema de
McNemar)
Dados dois eventos A e B, cada um com 2 categorias, ao
classificar n
indivíduos de uma população segundo cada uma das categorias de A
e B, obtém-se
a tabela de contingência 2X2:
Tabela 4.3.1 - Freqüências observadas
Evento B
Evento A Categoria 1 Categoria 2 Total
Categoria 1 n11 n12 n1.
Categoria 2 n21 n22 N2.
Total n.1 n.2 n
onde
∑∑==
==2
1iij
2
1j.jiji. n n e n n .
Cada indivíduo é classificado em apenas uma combinação de
categorias de A
e B, em outras palavras, as combinações são exaustivas e
mutuamente exclusivas.
Pode-se dizer que esta população apresenta homogeneidade
marginal quanto
à distribuição dos dois eventos quando:
.ji. n n = , para i = j.
-
39
Considerando o vetor de parâmetros θ = (θ11, θ12, θ21, θ22)
associado a cada
uma das caselas da tabela acima, a função de verossimilhança
para os dados x é
dada pelo modelo Multinomial com parâmetro θ:
22211211 x22
x21
x12
x11
22211211
θθθθ!x!x!x!x
n! ) | L(
=xθ
O espaço paramétrico para este caso é dado por Θ = {0 ≤ θij ≤ 1
| θ11 + θ12 +
θ21 + θ22 = 1}.
Este teste pode ser aplicado, por exemplo, para verificar se
dois professores
de uma mesma matéria são igualmente exigentes na avaliação da
mesma turma de
alunos.
4.3.1 Hipótese Nula
Para este teste, as hipóteses de interesse são:
H: θ21 = θ12
A: θ21 ≠ θ12
4.3.2 FBST
Considere o vetor de parâmetros θ = (θ11, θ12, θ21, θ22)
associado ao vetor de
dados observados x = (x11, x12, x21, x22). A priori adotada para
θ será D4(1), x|θ, como
já foi mencionado, possui distribuição Multinomial com
parâmetros n e θ e, portanto,
de acordo com a discussão feita em 2.4, θθθθ|x ~ D4(1+x). Ao
aplicar em θ a
reparametrização ( )
== 211211
22321 θ ,θ ,θ
θ
1ln ) w, w,(w w , testar H fica equivalente a
testar:
H: w2 = w3
=
→
22
21
22
12
θ
θln
θ
θln
-
40
Com esta reparametrização e de acordo com a conjectura 2.3, a
densidade a
posteriori f(w) e a densidade de referência r(w) podem ser
aproximadas pela normal
com matrizes de médias µw e µr, e de covariâncias Σw e Σr,
respectivamente, dadas
por:
==
+Ψ+Ψ
+Ψ+Ψ
+Ψ+Ψ
==
0
0
0
)E( e
)x(1 - )x(1
)x(1 - )x(1
)x(1 - )x(1
)E(
2221
2212
2211
rµwµw r
e
e
)x(1' )x(1')x(1')x(1'
)x(1')x(1' )x(1')x(1'
)x(1')x(1')x(1' )x(1'
22212222
22221222
22222211
+Ψ++Ψ+Ψ+Ψ
+Ψ+Ψ++Ψ+Ψ
+Ψ+Ψ+Ψ++Ψ
=wΣ
ΨΨΨ
ΨΨΨ
ΨΨΨ
=
(1)'2(1)'(1)'
(1)'(1)'2(1)'
(1)'(1)'(1)'2
rΣ .
Com as densidades a posteriori e referência definidas, pode-se
calcular a
surpresa relativa:
[ ]
== −−−
)µ -(w Σ)'µ -(w wΣw'ΣΣw
ww w
1w
1rw wr - 2
1exp
)r()f(
)s( 21
21
.
O teste é aplicado conforme descrito em 3.1.
4.3.3 TRVG
Utilizando a função de verossimilhança definida em 4.3, o
estimador de
máxima verossimilhança para θ sob H: θ12 = θ21 é dado por 2n
xx θ̂ 2112
+= . Sob A, a
estimativa para o vetor de parâmetros θ é dada pelo estimador de
máxima
verossimilhança nx
θ̂ ii = . Deste modo, as funções de verossimilhança sob H e
sob
A H ∪ são:
-
41
n
x2n
xxn
x!x!x!x!x
n! );L(
22211211
22
xx
211211
22211211H
xx
+
=
+
xθ
e
n
xn
xn
xn
x!x!x!x!x
n! );L(
22211211
22211211
22211211AH
xxxx
=∪ xθ .
De modo que a estatística qui-quadrado da razão de
verossimilhanças é dada
por:
λ(x) ln*2- Q2 =
+
=
+
22211211
22211211
nx
nx
nx
nx
!x!x!x!xn!
n
x2n
xxn
x!x!x!x!x
n!
ln *2- 22211211
22211211
22
xx
211211
22211211
xxxx
xx
.
Simplificando λ(x) , obtém-se:
+=
+
2112
2112
x21
x12
xx
21122
xx1
2 xx
ln *2- Q
e, aplicando o ln, chega-se a:
( ) ( ) ( )[ ]212112122112211221122 xlnxxlnx2ln xx xxln xx*2- Q
−−+−++= .
Para o caso geral (sob A H ∪ ), o espaço paramétrico é
determinado pelas
proporções ijp sujeitas à restrição linear 1p ij2
1i
2
1j
=∑∑= =
, portanto a dimensão é 2X2 - 1
= 3. Sob H: θ12 = θ21, a dimensão do espaço é 2. A diferença
entre as duas
dimensões é 3 - 2 = 1.
Portanto, para amostras grandes, 212 ~ Q χ e )Q P( -p 221 >=
χvalue .
4.3.4 Resultados e Comparação
-
42
A tabela a seguir apresenta alguns resultados do e-value e do
p-value para
diferentes valores do vetor x = (x11, x12, x21, x22) com
diferentes tamanhos de
amostra:
Tabela 4.3.4.1 - Aplicação do teste de Homogeneidade de
Marginais em amostras
de tamanhos diferentes
x11 x12 x21 x22 n e-value p-value
6 5 12 7 30 0,381 0,0856 6 12 6 30 0,554 0,1538 6 10 6 30 0,779
0,31510 7 8 5 30 0,994 0,7969 5 15 21 50 0,158 0,0226 5 14 25 50
0,208 0,0356 11 18 15 50 0,627 0,1915 5 7 33 50 0,942 0,56310 10 30
50 100 0,019 0,0018 27 35 30 100 0,792 0,30910 17 22 51 100 0,882
0,42318 35 38 9 100 0,988 0,725
Com o intuito de verificar se a relação entre p-value e e-value
não se modifica
de acordo com o tamanho da amostra observada, foram realizadas
simulações com
diferentes tamanhos de amostra n, varrendo todo o espaço
amostral, ou seja,
utilizando todas as combinações possíveis de elementos nas
quatro posições do
vetor x = (x11, x12, x21, x22) de modo a se obter soma x11 + x12
+ x21 + x22 = n e,
também, de forma que nenhum xij < 5.
Os resultados podem ser observados nos gráficos do e-value em
função do
p-value disponibilizados a seguir:
-
43
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Teste de McNemar
p-value
e-va
lue
Figura 4.3.4.1 - Relação entre e-value e p-value para n = 30
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Teste de McNemar
p-value
e-va
lue
Figura 4.3.4.2 - Relação entre e-value e p-value para n = 50
-
44
Figura 4.3.4.3 - Relação entre e-value e p-value para n =
100
Em todos os gráficos, pode-se verificar que, independentemente
dos valores
de n, a curva que melhor representa os pontos é sempre igual. A
linha vermelha
representa a curva da função Beta acumulada com parâmetros a =
0,6871 e b =
3,0189. Estes valores foram ajustados com base nos pontos
amostrais obtidos para
n = 100, conforme descrito no início do capítulo.
Para a obtenção desta curva, o primeiro passo é a discretização
dos pontos
(p-value, e-value) para obtenção dos pontos médios necessários
para garantir a
unicidade no mapeamento dos pares (p-value, e-value) e, dessa
forma possibilitar o
ajuste da curva spline:
-
45
Figura 4.3.4.4 Discretização dos pontos (p-value, e-value)
Neste gráfico, os pontos amarelos com rótulo “data” representam
os pontos
(p-value, e-value) obtidos com os dois métodos de resolução do
teste e os pontos
verdes com rótulo “medias” representam as médias dos e-values no
intervalo
discretizado dos p-values.
Com base nos pontos médios, a spline é ajustada e, após mais
alguns
passos, a curva da Beta acumulada é obtida:
-
46
Figura 4.3.4.5 - Ajuste da Beta acumulada pela spline
Neste gráfico, os pontos amarelos com rótulo “data” representam
os pontos
(p-value, e-value) obtidos com os dois métodos de resolução do
teste, a linha azul
com rótulo “spline” representa a curva spline ajustada após a
discretização dos
dados e, finalmente, a linha vermelha com rótulo “beta”
representa a curva da Beta
acumulada melhor ajustada aos pontos deste teste.
4.4 Teste do Equilíbrio Populacional de Hardy-Weinberg
Considere que em uma população uma característica atribuída a
um
determinado par de genes apresente 3 genótipos: AA, Aa ou aa. As
proporções de
cada um dos genótipos na população são representadas no vetor θ
= (θ1, θ2, θ3),
com θi > 0 e sujeitas à restrição linear 1θ3
1ii =∑
=
. A Lei do Equilíbrio de Hardy-
Weinberg estabelece que esta população está em equilíbrio gênico
se a proporção
de cada um dos genótipos puder ser escrita sob a forma
2
322
1 θ) - (1 θ e θ) - θ(12 θ ,θ θ === , para algum 0 θ 1 ≤≤ .
-
47
A fim de se testar a hipótese de equilíbrio, observa-se uma
amostra de n
indivíduos desta população. O vetor x = (x1, x2, x3) representa
as freqüências
observadas de indivíduos classificados sob cada um dos
genótipos, e o vetor de
parâmetros θ = (θ1, θ2, θ3) representa a probabilidade de
ocorrência de cada
genótipo. A função de verossimilhança para os dados x é dada
pelo modelo
Trinomial com parâmetro θ:
321 x3
x2
x1
321
θθθ!x!x!x
n! ) | L(
=xθ .
O espaço paramétrico para este caso é dado por Θ = {0 ≤ θi ≤ 1 |
θ1 + θ2 + θ3
= 1}.
Como exemplos de aplicação deste teste, podemos citar a
comparação de
duas populações com relação à incidência de uma determinada
doença,
comportamento de consumo ou preferência eleitoral.
4.4.1 Hipótese Nula
Para este teste, as hipóteses de interesse são:
H: 2322
1 p) - (1 p e p) - 2p(1 p ,p p | 1] [0, p ===∈∃ (a população
está em
equilíbrio gênico)
A: as 3 proporções acima não se aplicam simultaneamente (a
população não
está em equilíbrio gênico)
4.4.2 FBST
Considere o vetor de parâmetros θ = (θ1, θ2, θ3) que, para este
teste, pode ser
reescrito na forma )θ) - (1 θ), - θ(12 ,(θ 22=θ , associado ao
vetor de dados
observados x = (x1, x2, x3). A priori adotada para θ será D3(1),
x|θ, como já foi
mencionado, possui distribuição Trinomial com parâmetros n e θ
e, portanto, de
-
48
acordo com a discussão feita em 2.4, θθθθ|x ~ D3(1+x). Ao
aplicar em θ a
reparametrização ) w,(w 21=w ( )
= 21
3
θ ,θθ
1ln , testar H fica equivalente a testar:
H:
==
22
2
21θ) - (1θ) - θ(12
,θ) - (1θ
ln ) w,(w w
Com esta reparametrização e de acordo com a conjectura 2.3, a
densidade a
posteriori f(w) e a densidade de referência r(w) podem ser
aproximadas pela normal
com matrizes de médias µw e µr, e de covariâncias Σw e Σr,
respectivamente, dadas
por:
==
+Ψ+Ψ
+Ψ+Ψ==
0
0 )E( e
)x(1 - )x(1
)x(1 - )x(1 )E(
32
31rµwµw r
e
ΨΨ
ΨΨ=
+Ψ++Ψ+Ψ
+Ψ+Ψ++Ψ=
(1)'2(1)'
(1)'(1)'2 e
)x(1' )x(1')x(1'
)x(1')x(1' )x(1'
323
331rΣΣw .
Com as densidades a posteriori e referência definidas, pode-se
calcular a
surpresa relativa:
[ ]
== −−−
)µ -(w Σ)'µ -(w wΣw'ΣΣw
ww w
1w
1rw wr - 2
1exp
)r()f(
)s( 21
21
.
O teste é aplicado conforme descrito em 3.1.
4.4.3 TRVG
Utilizando a função de verossimilhança definida em 4.4, o
estimador de
máxima verossimilhança para θ sob H é dado por 2n
x2x θ̂ 21
+= . Sob A, a estimativa
-
49
para o vetor de parâmetros θ é dada pelo estimador de máxima
verossimilhança
nx
θ̂ ii = . Deste modo, as funções de verossimilhança sob H e sob
A H ∪ são:
2n
x2x2n
x2x - 1
2n x2x
22n
x2x!x!x!x
n! );L(
321 2x
21
x
2121
2x
21
321H
+
+
+
+
=xθ
e
321 x
3
x
2
x
1
321AH n
xnx
nx
!x!x!xn!
);L(
=∪ xθ .
De modo que a estatística qui-quadrado da razão de
verossimilhanças é dada
por:
λ(x) ln*2- Q2 =
+
+
+
+
=321
321
x
3
x
2
x
1
321
2x
21
x
2121
2x
21
321
n
x
n
x
n
x
!x!x!xn!
2n x2x
2n x2x
- 12n
x2x2
2n x2x
!x!x!xn!
ln *2- .
Simplificando λ(x) , obtém-se:
( )( )2
31
231
22121
2
21
2
21x-x2x22 222 2x2 2x2ln *2- Q
xxx
n
xxnxxn
xnn
x
−−+
−−
+= −−
321 -x
3
-x
2
-x
1 xxxnnn
e, aplicando o ln, chega-se a:
( ) ( ) ( ) ( ) ( ){ n ln n2x xln2x x x 2xln x 2x 2 lnx2n- *2- Q
3232212122 −+++++++=
}332211 xln x xln x xln x −−− .
-
50
Para o caso geral (sob A H ∪ ), o espaço paramétrico é
determinado pelas
proporções θi sujeitas à restrição linear 1 θ3
1ii =∑
=
, portanto a dimensão é 3 - 1 = 2.
Sob H, é determinado por θ e 1 - θ, portanto a dimensão é 2 - 1
= 1. A diferença
entre as duas dimensões é 2 - 1 = 1.
Portanto, para amostras grandes, 212 ~ Q χ e )Q P(χ -p 221
>=value .
4.4.4 Resultados e Comparação
A tabela a seguir apresenta alguns resultados do e-value e do
p-value para
diferentes valores do vetor x = (x1, x2, x3) com diferentes
tamanhos de amostra:
Tabela 4.4.4.1 - Aplicação do teste do Equilíbrio de
Hardy-Weinberg em amostras
de tamanhos diferentes
n = 30 n = 50 n = 100
x1 x2 x3 e-value p-value x1 x2 x3 e-value p-value x1 x2 x3
e-value p-value
6 6 18 0,021 0,005 13 10 27 0,000 0,000 28 25 47 0,000 0,00015 9
6 0,182 0,064 14 15 21 0,023 0,006 5 57 38 0,015 0,0045 19 6 0,314
0,139 5 32 13 0,077 0,024 17 33 50 0,038 0,0107 11 12 0,401 0,178
12 32 6 0,098 0,033 11 57 32 0,148 0,0525 11 14 0,584 0,291 6 15 29
0,263 0,100 20 59 21 0,192 0,0717 12 11 0,584 0,309 16 28 6 0,467
0,235 5 46 49 0,306 0,1478 17 5 0,704 0,426 18 21 11 0,600 0,311 34
54 12 0,383 0,174
11 13 6 0,839 0,552 6 24 20 0,938 0,768 33 44 23 0,532 0,26612
13 5 0,907 0,648 9 25 16 0,988 0,888 38 50 12 0,738 0,4675 15 10
0,978 0,876 5 21 24 0,997 0,898 29 48 23 0,936 0,715
Com o intuito de verificar se a relação entre p-value e e-value
não se modifica
de acordo com o tamanho da amostra observada, foram realizadas
simulações com
diferentes tamanhos de amostra n, varrendo todo o espaço
amostral, ou seja,
utilizando todas as combinações possíveis de elementos nas três
posições do vetor
x = (x1, x2, x3) de modo a se obter soma x1 + x2 + x3 = n e,
também, de forma que
nenhum xi < 5.
Os resultados podem ser observados nos gráficos do e-value em
função do
p-value disponibilizados a seguir:
-
51
Figura 4.4.4.1 - Relação entre e-value e p-value para n = 30
Figura 4.4.4.2 - Relação entre e-value e p-value para n = 50
-
52
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Teste de Hardy-Weinberg
p-value
e-va
lue
Figura 4.4.4.3 - Relação entre e-value e p-value para n =
100
Em todos os gráficos, pode-se verificar que, independentemente
do valor de
n, a curva que melhor representa os pontos é sempre igual. A
linha vermelha
representa a curva da função Beta acumulada com parâmetros a =
0,8278 e b =
1,9751. Estes valores foram ajustados com base nos pontos
amostrais obtidos para
n = 100, conforme descrito no início do capítulo.
Para a obtenção desta curva, o primeiro passo é a discretização
dos pontos
(p-value, e-value) para obtenção dos pontos médios necessários
para garantir a
unicidade no mapeamento dos pares (p-value, e-value) e, dessa
forma possibilitar o
ajuste da curva spline:
-
53
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Obtençao dos pontos medios com discretizacao 0.01 e a beta
experimental
p-value
e-va
lue
datamedias
Figura 4.4.4.4 Discretização dos pontos (p-value, e-value)
Neste gráfico, os pontos amarelos com rótulo “data” representam
os pontos
(p-value, e-value) obtidos com os dois métodos de resolução do
teste e os pontos
verdes com rótulo “medias” representam as médias dos e-values no
intervalo
discretizado dos p-values.
Com base nos pontos médios, a spline é ajustada e, após mais
alguns
passos, a curva da Beta acumulada é obtida:
-
54
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Obtençao das spline cubica com discretizacao 0.01 e a beta
experimental
p-value
e-va
lue
datasplinebeta
Figura 4.4.4.5 - Ajuste da Beta acumulada pela spline
Neste gráfico, os pontos amarelos com rótulo “data” representam
os pontos
(p-value, e-value) obtidos com os dois métodos de resolução do
teste, a linha azul
com rótulo “spline” representa a curva spline ajustada após a
discretização dos
dados e, finalmente, a linha vermelha com rótulo “beta”
representa a curva da Beta
acumulada melhor ajustada aos pontos deste teste.
A tabela a seguir mostra os parâmetros a e b obtidos através do
modelo de
ajuste da Beta acumulada para os testes de Hardy-Weinberg e de
Homogeneidade:
Tabela 4.4.4.1 – Comparação entre os parâmetros a e b
Teste a b
Hardy-Weinberg 0,8278 1,9751
Homogeneidade 0,8299 1,9586
Estes resultados mostram que as duas curvas são extremamente
próximas. A
diferença na curva causada por estas variações entre os
parâmetros é muito sutil e,
também, pode-se atribuir esta diferença ao fato de, no caso do
FBST, ser feita uma
aleatorização para se calcular o e-value mas, como já foi dito,
esta diferença é muito
sutil e tende a convergir caso os testes sejam repetidos um
número grande de
-
55
vezes. Para estes dois testes, a dimensão do espaço paramétrico
original é dois,
enquanto que sob a hipótese H a dimensão é um.
4.5 Teste de Independência
Dependência e associação são dois conceitos intimamente ligados.
Dizer que
dois eventos são associados significa que um influencia a
ocorrência do outro, ou
seja, a ocorrência de um deles pode aumentar ou diminuir a
chance do outro ocorrer
e, assim, a associação (ou dependência) pode ser chamada de
positiva ou negativa.
Dois eventos são independentes quando, ao saber que um deles
ocorreu, a
probabilidade de o outro ocorrer não se altera.
Dados dois eventos A e B, cada um com 2 categorias, ao
classificar n
indivíduos de uma população segundo cada uma das categorias de A
e B, obtém-se
a tabela de contingência 2X2:
Tabela 4.5.1 - Freqüências observadas
Evento B
Evento A Categoria 1 Categoria 2 Total
Categoria 1 n11 n12 n1.
Categoria 2 n21 n22 n2.
Total n.1 n.2 N
onde
∑∑==
==2
1iij
2
1j.jiji. n n e n n .
Cada indivíduo é classificado em apenas uma combinação de
categorias de A
e B, em outras palavras, as combinações são exaustivas e
mutuamente exclusivas.
Se a e b são não associadas ou independentes, então:
2 1, i ,nn
nn
.2
i2
.1
i1 ==
ou, ainda,
-
56
2 1, i ,nn
n
ni.
.j
ij==
de onde se deduz que:
n
n n n .ji.ij = .
Ao dividir as freqüências observadas em cada combinação das
categorias de
a e b pelo tamanho da amostra, obtém-se a matriz de proporções
observadas:
Tabela 4.5.2 - Proporções observadas
onde
∑∑==
==2
1iij.j
2
1jiji. θ θ e θ θ .
e, para a e b independentes:
.ji.ij θ θ θ =
A fim de se testar a hipótese de independência, observa-se uma
amostra de n
indivíduos da população. O vetor x = (x11, x12, x21, x22)
representa a freqüência
observada de indivíduos classificados na i-ésima categoria do
evento A e na j-ésima
categoria do evento B, e o vetor de parâmetros θ = (θ11, θ12,
θ21, θ22) representa a
probabilidade de ocorrência de cada uma das caselas. A função de
verossimilhança
para os dados x é dada pelo modelo Multinomial com parâmetro
θ:
22211211 x22
x21
x12
x11
22211211
θθθθ!x!x!x!x
n! ) | L(
=xθ
Evento B
Evento A Categoria 1 Categoria 2 Total
Categoria 1 θ11 θ 12 θ 1.
Categoria 2 Θ 21 θ 22 θ 2.
Total θ .1 θ .2 1
-
57
O espaço paramétrico para este caso é dado por Θ = {0 ≤ θij ≤ 1
| θ11 + θ12 +
θ21 + θ22 = 1}.
Como exemplos de aplicação deste teste, podemos citar pesquisas
para
verificar se o hábito de fumar influencia ou não a ocorrência de
determinadas
doenças ou se a durabilidade de uma peça automotiva depende do
tipo de material
utilizado ou mesmo do fabricante.
4.5.1 Hipótese Nula
Para este teste, as hipóteses de interesse são:
H: 2
.ji.ij n
n n θ = (os eventos a e b são independentes)
A: 2
.ji.ij n
n n θ ≠ (os eventos a e b não são independentes)
4.5.2 FBST
Considerando a tabela 4.5.2, testar a hipótese H é equivalente a
testar:
H:
−==
==
==
=
)θ - (1 )θ1(θ θ θ
θ )θ - (1θ θ θ
)θ - (1 θθ θ θ
θ θ θ
.11..22.22
.11..12.21
.11..21.12
.11.11
portanto, o vetor de parâmetros θ = (θ11, θ12, θ21, θ22)
associado ao vetor de dados
observados x = (x11, x12, x21, x22), para este teste, pode ser
reescrito na forma
[ ])θ - (1 )θ(1 ,θ )θ - (1 ),θ - (1 θ ,θ (θ .11..11..11..11. −=θ
.
A priori adotada para θ será D4(1), x|θ, como já foi mencionado,
possui
distribuição Multinomial com parâmetros n e θ e, portanto, de
acordo com a
discussão feita em 2.4, θθθθ|x ~ D4(1+x).
-
58
Ao aplicar em θ a reparametrização ( )
== 211211
22321 θ ,θ ,θ
θ
1ln ) w, w,(w w , testar H
fica equivalente a testar:
H:
−−−==
)θ - (1 )θ(1)θθ - (1
,)θ - (1 )θ(1
)θ - (1 θ ,
)θ - (1 )θ(1θ θ
ln ) w, w,(w .11.
.11.
.11.
.11.
.11.
.11.321w
Com esta reparametrização e de acordo com a conjectura 2.3, a
densidade a
posteriori f(w) e a densidade de referência r(w) podem ser
aproximadas pela normal
com matrizes de médias µw e µr, e de covariâncias Σw e Σr,
respectivamente, dadas
por:
==
+Ψ+Ψ
+Ψ+Ψ
+Ψ+Ψ
==
0
0
0
)E( e
)x(1 - )x(1
)x(1 - )x(1
)x(1 - )x(1
)E(
2221
2212
2211
rµwµw r
e
e
)x(1' )x(1')x(1')x(1'
)x(1')x(1' )x(1')x(1'
)x(1')x(1')x(1' )x(1'
22212222
22221222
22222211
+Ψ++Ψ+Ψ+Ψ
+Ψ+Ψ++Ψ+Ψ
+Ψ+Ψ+Ψ++Ψ
=wΣ
ΨΨΨ
ΨΨΨ
ΨΨΨ
=
(1)'2(1)'(1)'
(1)'(1)'2(1)'
(1)'(1)'(1)'2
rΣ .
Com as densidades a posteriori e referência definidas, pode-se
calcular a
surpresa relativa:
[ ]
== −−−
)µ -(w Σ)'µ -(w wΣw'ΣΣw
ww w
1w
1rw wr - 2
1exp
)r()f(
)s( 21
21
.
O teste é aplicado conforme descrito em 3.1.
4.5.3 TRVG
-
59
Sob H, 2
.ji.ij n
xx θ = . Sob A, a estimativa para ijθ é dada pelo estimador
de
máxima verossimilhança n
x θ̂ ijij = . Deste modo, as funções de verossimilhança sob
H
e sob A H ∪ são respectivamente:
ijij x2
1i
2
1j
ijAH
x2
1i
2
1j2
.ji.H n
x );L( e
n
xx );L( ∏∏∏∏
= =
∪
= =
=
= xθxθ .
De modo que a estatística qui-quadrado da razão de
verossimilhanças é dada
por:
==
∏∏
∏∏
= =
= =
n
x
n
xx
ln 2- λ(x) ln 2- Qij
ij
n2
1i
2
1j
ij
x2
1i
2
1j2
.ji.
2 .
Simplificando λ(x) , obtém-se:
( )
( )
=
∏∏
∏∏
= =
= =
xn
xx
ln 2- Qij
ij
x2
1i
2
1jij
n
x2
1i
2
1j.ji.
2 ,
e, aplicando o ln, chega-se a:
= ∑∑
= =
2
1i
2
1j ij
ijij
2
µ̂
xlnx 2 Q
( 2222212112121111 xln x xln x xln x xln x2 +++=
)2222212112121111 µ̂ ln x µ̂ ln x µ̂ ln x µ̂ ln x −−−− ,
-
60
onde n
xx µ̂ .ji.ij = .
Para o caso geral (sob A H ∪ ), o espaço paramétrico é
determinado pelas
proporções ijθ sujeitas à restrição linear 1θ2
1i
2
11ij =∑∑
= =
, portanto a dimensão é 2X2 - 1
= 3. Sob H, ijθ é determinado por i.θ e .jθ , portanto a
dimensão é (2 - 1) + (2 - 1) =
2. A diferença entre as duas dimensões é 3 - 2 = 1.
Portanto, para amostras grandes, 212 ~ Q χ e )Q P( -p 221 >=
χvalue .
4.5.4 Resultados e Comparação
A tabela a seguir apresenta alguns resultados do e-value e do
p-value para
diferentes valores do vetor x = (x11, x12, x21, x22) com
diferentes tamanhos de
amostra:
Tabela 4.5.4.1 - Aplicação do teste de Independência em amostras
de
tamanhos diferentes
x11 x12 x21 x22 n e-value p-value
9 5 5 11 30 0,318 0,0685 13 6 6 30 0,655 0,2176 8 5 11 30 0,927
0,5105 8 7 10 30 0,999 0,88010 7 5 28 50 0,016 0,00211 24 8 7 50
0,541 0,1478 17 11 14 50 0,849 0,38111 16 10 13 50 0,998 0,8455 34
16 45 100 0,398 0,09913 30 10 47 100 0,519 0,13716 66 6 12 100
0,709 0,21717 22 20 41 100 0,759 0,277
Com o intuito de verificar se a relação entre p-value e e-value
não se modifica
de acordo com o tamanho da amostra observada, foram realizadas
simulações com
diferentes tamanhos de amostra n, varrendo todo o espaço
amostral, ou seja,
utilizando todas as combinações possíveis de elementos nas
quatro posições do
-
61
vetor x = (x11, x12, x21, x22) de modo a se obter soma x11 + x12
+ x21 + x22 = n e,
também, de forma que nenhum xij < 5.
Os resultados podem ser observados nos gráficos do e-value em
função do
p-value disponibilizados a seguir:
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Teste de Independencia
p-value
e-va
lue
Figura 4.5.4.1 - Relação entre e-value e p-value para n = 30
0 0.2 0.4 0.6 0.8 10
0.2
0.4
0.6
0.8
1Teste de