Antes de mais, gostaria de precisar que não sou especialista no assunto.
Suponha que duas variáveis aleatórias e sejam binomiais, respectivamente e observe aqui que é o mesmo. Eu sei que
Vamos ser uma amostra para e ser uma amostra de , existe um método padrão para estimar e ?
Isto é o que fizemos:
- pegue a "nova amostra" para fornecida por ,
- usando o estimador de verossimilhança, obtemos estimativas para e ,
- com as informações de Fisher, tentamos entender os erros sobre e .
O método parece funcionar, mas ainda temos algumas dúvidas. Deixe o grupo de permutação sobre elementos. Para cada , podemos considerar a "amostra" fornecida por Aplicando o estimador de verossimilhança para cada uma das "novas amostras" (existem Somas diferentes), obtemos estimativas diferentes para e .
Qual o significado disso? Como os novos valores são correlacionados? Pode ser usado para calcular o erro para ?
Alguns comentários: A questão foi postada anteriormente aqui , mas um usuário sugere que eu use o tats / crossvalidated SE.
No exemplo que tenho em mente, é o número de aves em uma determinada região a probabilidade de visibilidade. Preciso agregar regiões com similar , caso contrário, os dados são muito pequenos. Em particular, eu preciso, se possível, de uma estimativa apenas para , onde a priori é desconhecidop p n p
Um exemplo Para ser claro e em vista da resposta de kjetil b halvorsen, tentarei colocar aqui um exemplo prático. Suponha que temos apenas uma região dividida em duas zonas com probabilidade igual a um fixo e nossos dados são os seguintes:
Zone 1 Zone 2
a1 b1
a2 b2
a3 b3
a4 b4
a5 b5
a6 b6
Podemos então considerar o seguinte:
Zone 1+2
c1=a1+b1
c2=a2+b2
c3=a3+b3
c4
c5
c6
Em seguida, podemos usar o método de probabilidade de log para estimar também onde é o parâmetro para o binômio das variáveis observadas na Zona . Está certo? p N i i
Agora, eu sei que o método da probabilidade não é estável (para mim estável significa apenas bom). Podemos usar as informações de Fisher? Se sim, que tipo de informação podemos ter?
Finalmente, be e duas permutações sobre elementos (existem pares diferentes) do que podemos considerar os novos dados dados porτ 6 ( 6 ! ) 2
Zona 1 + 2
c1 = a + b
c2 = a + b
c3 = a + b
c4 = a + b
c5 = a + b
c6 = a + bτ ( 1 ) σ ( 2 ) τ ( 2 ) σ ( 3 )
Refazendo o método da verossimilhança, com essas novas variáveis, obtemos diferentes estimativas para .
Portanto, a pergunta é: o conjunto de estimativas me fornece algumas informações sobre os erros?
fonte
Respostas:
Vou tentar uma resposta, mesmo que não esteja completamente claro sobre a situação. As fórmulas terão que ser adaptadas! O problema de estimativa de na distribuição binomial é antigo e existem vários trabalhos relevantes. Vou dar algumas referências no final.N
Haja regiões (no exemplo OP ), com amostras (de intervalos de tempo separados de igual comprimento) de cada região. As variáveis observadas são que são variáveis aleatórias binomiais independentes, cada uma com a distribuição ambas desconhecidas. A função de probabilidade de log se torna Observe que, no problema usual quando é conhecido, de modo que apenas é desconhecido, a soma (ou a média) do binômio contaR R=2 T xit Bin(Ni,p) ℓ(Ni,p)=∑ln(Nixit)+lnp⋅∑xit+ln(1−p)⋅∑(Ni−xit) Ni p xit é um resumo suficiente; portanto, a análise pode ser feita em termos da distribuição binomial da soma. No nosso problema, no entanto, devido ao primeiro termo na função de probabilidade de log, esse não é o caso, e a probabilidade de log depende de cada uma das contagens individualmente! Então, o que você propõe, reduzir à soma das contagens (acima de ), NÃO DEVE SER FEITO, pois isso perderá informações (quanto, eu não sei, mas isso pode ser investigado ...). Vamos tentar entender isso um pouco melhor. Primeiro, vemos abaixo que é um estimador consistente dei maxt(xit) Ni , mas esse estimador consistente não é uma função das contagens somadas. Essa é uma indicação clara de que a soma perde informações! Note-se também que a média é um estimador imparcial de sua expectativa de que é , mas não parece informações hold sobre e individualmente, quando nada se sabe sobre o outro parâmetro. Isso indica que, se houver informações úteis sobre na função de probabilidade, devem estar contidas na propagação dos valoresNip Ni p Ni xi1…,xiT , novamente indicando que o somatório está ruim. O artigo de Olkin e cols., Mencionado abaixo, mostra de fato que o estimador do método dos momentos em muitos casos é melhor que a probabilidade máxima! e que usa a variação empírica de , portanto não pôde ser calculado a partir dos dados somados.xi1…,xiT
Esse problema é conhecido por ser instável. Vamos tentar entender o porquê. No problema usual, estimando quando conhecido, a estimativa pode ser feita a partir de alguma característica grosseira dos dados, a média. Ao tentar estimar e , usamos propriedades muito mais refinadas da função de probabilidade de log (portanto, dos dados). Para entender por que, lembre-se de que podemos obter a distribuição de Poisson como um limite do binômio quando for zero e cresce sem limites, com um produto positivo constante. Então, se é pequeno ep Ni Ni p p N p N grande, a distribuição binomial será bastante próxima desse limite. Tome dois casos: (A) , (B) . Desenhe histogramas para as duas distribuições (binomiais):N=100,p=0.01 N=20,p=0.05
Acima de uma tabela com essas probabilidades. Para detectar, a partir dos dados observados, quais dessas duas distribuições são necessárias, é necessário decidir, nesse caso, se ou se . É obviamente bastante difícil, e a instabilidade dos estimadores resultantes é apenas esperada. Este exemplo também indicou que a instabilidade é principalmente para pequenos . Você diz que espera torno de 0,7, então o problema pode ser mais estável. Você pode investigar isso para seus dados, localizando o estimador de probabilidade máxima em função de um conhecido e plotando-o paraN=100 N=20 p p p p em algum intervalo de confiança. Ou você pode entrar em contato com Bayes, esse é um caso em que mesmo algumas informações anteriores bastante vagas podem ser úteis.
Os parâmetros são realmente estimados. É claro que , por isso é possível usar essa contagem máxima como um estimador de . Esse estimador será fortemente consistente e um parâmetro com um estimador consistente deve ser estimado. Mas, como mostra o exemplo acima, a estimativa é quase uma formalidade; na prática, distribuições com muito diferente são muito próximas, portanto é muito fracamente estimado.Ni≥maxt(xit) N N N
Não vou dar detalhes dos métodos de estimativa aqui, mas algumas referências que você pode conferir:
Ingram Olkin, John Petkau, James V Zidek: Uma comparação dos estimadores de N para a Distribuição Binomial. JASA 1981. Este é um artigo clássico que desenvolve e analisa ML e estimadores de momento, e algumas variantes mais estáveis. Também mostra, curiosamente, que em muitos casos o estimador de método de momentos é melhor que o estimador de ML!
Raymond J Carrol e F Lombard: Uma nota sobre N estimadores para a distribuição binomial. JASA 1985.p
Desenvolve um estimador alternativo, mais estável e talvez melhor, baseado na integração de fora da probabilidade. Também observa a falta de suficiência das contagens somadas.
J Andrew Royle: N_Mixture Models para estimar o tamanho da população a partir de contagens espacialmente replicadas. Biometrics, 2004. Isso fornece outra abordagem bayesiana alternativa que você pode tentar.
Voltar à sua pergunta concreta. Você não deve somar as contagens em suas duas regiões! Isso perderá informações. Se você introduzir , a função de probabilidade do log poderá ser escrita como uma função de , e (ou ). Em seguida, o parâmetro extra deve ser eliminado por algum procedimento. Voltarei a isso, mas não, não há tempo!N=N1+N2 N p N1 N2 N1
fonte