Teste de hipótese e distância total da variação vs. divergência Kullback-Leibler

10

Na minha pesquisa, encontrei o seguinte problema geral: tenho duas distribuições e no mesmo domínio e um grande (mas finito) número de amostras dessas distribuições. As amostras são distribuídas de forma independente e idêntica a partir de uma dessas duas distribuições (embora as distribuições possam estar relacionadas: por exemplo, pode ser uma mistura de e alguma outra distribuição). A hipótese nula é de que as amostras provêm de ; a hipótese alternativa é que amostras vêm de .PQQPPQ

Estou tentando caracterizar o tipo I e tipo II erros no teste da amostra, conhecendo as distribuições e . Particularmente, eu estou interessado em delimitadora um erro dada a outro, além do conhecimento de e .PQPQ

Fiz uma pergunta sobre math.SE sobre a relação entre a distância total da variação entre e e o teste de hipóteses, e recebi uma resposta que aceitei. Essa resposta faz sentido, mas ainda não fui capaz de compreender o significado mais profundo por trás da relação entre teste de distância e hipótese de variação total no que se refere ao meu problema. Assim, eu decidi recorrer a este fórum.PQ

Minha primeira pergunta é: a variação total está vinculada à soma das probabilidades de erros do tipo I e do tipo II, independentemente do método de teste de hipóteses empregado? Em essência, desde que haja uma probabilidade diferente de zero de que a amostra possa ter sido gerada por qualquer uma das distribuições, a probabilidade de pelo menos um dos erros deve ser diferente de zero. Basicamente, você não pode escapar da possibilidade de seu testador de hipóteses cometer um erro, não importa quanto processamento de sinal você faça. E a variação total limita essa possibilidade exata. Meu entendimento está correto?

Há também outra relação entre os erros do tipo I e II e as distribuições de probabilidade subjacentes e : a divergência de KL . Assim, minha segunda pergunta é: a divergência de KL é apenas aplicável a um método específico de teste de hipóteses (parece surgir muito em torno do método da razão de verossimilhança de log) ou pode-se aplicá-la geralmente em todos os métodos de teste de hipóteses? Se é aplicável a todos os métodos de teste de hipóteses, por que parece ser tão diferente do limite da Variação Total? Ele se comporta de maneira diferente?PQ

E a minha pergunta subjacente é: existe um conjunto prescrito de circunstâncias em que devo usar um ou outro, ou é apenas uma questão de conveniência? Quando o resultado derivado usando um limite deve ser mantido usando o outro?

Peço desculpas se essas perguntas são triviais. Eu sou um cientista da computação (então isso parece um problema sofisticado de correspondência de padrões para mim :).) Conheço a teoria da informação razoavelmente bem e também tenho formação em teoria da probabilidade. No entanto, estou apenas começando a aprender todas essas coisas de teste de hipóteses. Se necessário, farei o possível para esclarecer minhas perguntas.

MBM
fonte

Respostas:

8

Literatura: A maioria das respostas que você precisa está certamente no livro de Lehman e Romano . O livro de Ingster e Suslina trata de tópicos mais avançados e pode fornecer respostas adicionais.

Resposta: No entanto, as coisas são muito simples: (ou T V ) é a distância "verdadeira" a ser usada. Não é conveniente para computação formal (especialmente com medidas de produto, ou seja, quando você possui uma amostra de tamanho n ) e outras distâncias (limites superiores de L 1 ) podem ser usadas. Deixe-me dar os detalhes.eu1 1TVneu1 1

Desenvolvimento: Vamos denotar por

  • o erro mínimo do tipo II com erro do tipo Iα 0 para P 0 e P 1 o nulo e a alternativa.g1(α0,P1,P0)α0P0P1
  • a soma doserros t possíveis mínimos dotipo I + ( 1 - t ) do tipo II, com P 0 e P 1 o nulo e a alternativa.g2(t,P1,P0)t(1t)P0P1 1

Esses são os erros mínimos que você precisa analisar. As igualdade (limites não inferiores) são dadas pelo teorema 1 abaixo (em termos de distância (ou distância da TV, se você escolher)). As desigualdades entre a distância L 1 e outras distâncias são dadas pelo Teorema 2 (observe que, para limitar os erros, você precisa dos limites superiores de L 1 ou T V ). L1 1L1 1L1 1TV

O que deve ser usado então é uma questão de conveniência, porque geralmente é mais difícil de calcular do que Hellinger, Kullback ou χ 2 . O principal exemplo dessa diferença aparece quando P 1 e P 0 são medidas do produto P i = p n i i = 0 , 1 que surgem no caso em que você deseja testar p 1 versus p 0 com uma amostra de tamanho n iid . Nesse caso, h ( P 1 , Peu1 1χ2P1 1P0 0PEu=pEun Eu=0 0,1 1p1 1p0 0n e os outros são obtidos facilmente a partir de h ( p 1 , p 0 ) (o mesmo para K L e χ 2 ), mas você não pode fazer isso com L 1 ...h(P1 1,P0 0)h(p1 1,p0 0)Keuχ2eu1 1

Definição: A afinidade de entre as duas medidas v 1 e v 2 é definido como A 1 ( ν 1 , ν 0 ) = min ( d ν 1 , d ν 0 ) .UMA1 1(ν1 1,ν0 0)ν1 1ν2

UMA1 1(ν1 1,ν0 0)=min(dν1 1,dν0 0)

Teorema 1 Se (metade da TV dist), então |ν1 1-ν0 0|1 1=|dν1 1-dν0 0|

  • .2UMA1 1(ν1 1,ν0 0)=(ν1 1+ν0 0)-|ν1 1-ν0 0|1 1
  • g1 1(α0 0,P1 1,P0 0)=supt[0 0,1 1/α0 0](UMA1 1(P1 1,tP0 0)-tα0 0)
  • g2(t,P1 1,P0 0)=UMA1 1(tP0 0,(1 1-t)P1 1)

Eu escrevi a prova aqui .

Teorema 2 Para distribuições de probabilidade e P 0 : 1P1 1P0 0

1 12|P1 1-P0 0|1 1h(P1 1,P0 0)K(P1 1,P0 0)χ2(P1 1,P0 0)

Esses limites se devem a vários estatísticos bem conhecidos (LeCam, Pinsker, ...). é a distância de Hellinger, divergência K KL e χ 2 a divergência qui-quadrado. Eles são todos definidos aqui . e as provas desses limites são dadas (outras coisas podem ser encontradas no livro de Tsybacov ). Há também algo que é quase um limite inferior de L 1 por Hellinger ...hKχ2eu1 1

Robin Girard
fonte
11
Obrigado pela resposta, agora estou tentando digeri-lo. No meu problema, permiti o erro Tipo I. Eu também tenho as duas distribuições e P 1 . Eu sei que TV entre eles (bem como KL). Então, o que você está dizendo é que a TV oferece um limite inferior mais apertado ao erro Tipo II do que o KL, o que significa que eu deveria usar a TV para minha análise se desejar um limite mais baixo possível? P0 0P1 1
MBM
E obrigado pela sugestão do livro de Lehmann e Romano, parece muito útil e não muito exagerado. Além disso, minha biblioteca possui uma cópia! :)
MBM
UMA1 1
g1 1g2UMA1 1
-1 12π|exp(-x2/2σ1 12)σ1 1-exp(-x2/2σ22)σ2|dx
UMA1 1
-1 12πmin(exp(-x2/2σ1 12)σ1 1,exp(-x2/2σ22)σ2)dx
(ν1 1+ν2)
1

Responda à sua primeira pergunta: Sim, um menos a distância total da variação é um limite mais baixo na soma das taxas de erro Tipo I + Tipo II. Esse limite inferior se aplica, independentemente do algoritmo de teste de hipótese escolhido.

UMA

(Estritamente falando, essa linha de raciocínio assume que seu teste de hipóteses é um procedimento determinístico. Mas mesmo se você considerar procedimentos aleatórios, é possível mostrar que o mesmo limite ainda se aplica.)

DW
fonte