Por que devemos discutir comportamentos de convergência de diferentes estimadores em diferentes topologias?

14

No primeiro capítulo do livro Geometria Algébrica e Teoria Estatística da Aprendizagem, que fala sobre a convergência de estimativas em diferentes espaços funcionais, ele menciona que a estimativa bayesiana corresponde à topologia de distribuição de Schwartz, enquanto a estimativa de máxima verossimilhança corresponde à topologia de super-norma. (na página 7):

Por exemplo, sup-norma, eup -orm, topologia fraca do espaço Hilbert eu2 , topologia de distribuição Schwartz e assim por diante. Depende fortemente da topologia do espaço de função se a convergência Kn(W)K(W) mantém ou não. A estimativa de Bayes corresponde à topologia de distribuição de Schwartz, enquanto a probabilidade máxima ou um método a posteriori corresponde à norma. Essa diferença afeta fortemente os resultados da aprendizagem em modelos singulares.

em que Kn(W) e K(W) são, respectivamente, o empírica KL-divergência (soma sobre observações) e o verdadeiro KL-divergência (WRT integrante da distribuição de dados) entre o verdadeiro modelo e um modelo paramétrico (com parâmetro W ).

Alguém pode dar uma explicação ou me indicar qual lugar do livro tem a justificativa? Obrigado.

Atualização : o conteúdo dos direitos autorais é removido.

ziyuang
fonte
o que são e K n ? KKn
Taylor
@ Taylor Adicionei algumas informações necessárias.
ziyuang
Responderei sua pergunta mais tarde, conheço o livro de watanabe relativamente bem. No entanto, não gosto muito da maneira como você cita um livro. Pode causar um problema em potencial de direitos autorais se você colocar seções diretamente aqui. Usar números de página e digitar citações com o babador apropriado será uma escolha melhor.
Henry.L
@ Henry.L Obrigado, e o conteúdo dos direitos autorais é removido.
ziyuang
@Henry: Embora eu acredite que há valor em ser cauteloso e consciente na reprodução de partes de obras protegidas por direitos autorais, acho que, neste caso, ziyuang não tem absolutamente nada com que se preocupar. O uso de pequenos trechos do OP para críticas acadêmicas se enquadra muito bem na doutrina do "uso justo" (EUA). De fato, ter a reprodução exata às vezes pode ser especialmente valiosa, pois remove quaisquer ambiguidades que poderiam ser introduzidas pelas reformulações do conteúdo. (Tudo o que disse, IANAL.) #
1112

Respostas:

2

Para entender a discussão de Watanabe, é importante perceber o que ele quis dizer com "singularidade". A singularidade (estrita) coincide com a noção geométrica de métrica singular em sua teoria.

p.10 [Watanabe]: "Um modelo estatístico é considerado regular se for identificável e tem uma métrica definida positiva. Se um modelo estatístico não é regular, é chamado estritamente singular".p(xW)

Na prática, a singularidade geralmente surge quando a métrica de informações de Fisher induzida pelo modelo degenerada no coletor definido pelo modelo, como baixa classificação ou casos esparsos em trabalhos de "aprendizado de máquina".

O que Watanabe disse sobre a convergência da divergência empírica de KL para seu valor teórico pode ser entendido a seguir. Uma origem da noção de divergência vem de estatísticas robustas. Os estimadores M, que incluem MLE como um caso especial com função de contraste , são geralmente discutidos usando topologia fraca. É razoável discutir o comportamento da convergência usando topologia fraca sobre o espaço M ( X ) (a variedade de todas as medidas possíveis definidas no espaço polonês Xρ(θ,δ(X))=-registrop(Xθ)M(X)X) porque queremos estudar o comportamento da robustez do MLE. Um teorema clássico em [Huber] afirmou que com a função de divergência bem separada . inf | θ - θ 0 | ϵ ( | D ( θ 0 , θ ) - D ( θ 0 , θ 0 ) | ) > 0D(θ0 0,θ)=Eθ0 0ρ(θ,δ)

inf|θ-θ0 0|ϵ(|D(θ0 0,θ)-D(θ0 0,θ0 0)|)>0 0
e boa aproximação empírica da função de contraste à divergência, juntamente com a regularidade, podemos produzir consistência no sentido ^ θ n :=arg
supθ|1nEuρ(θ,δ(XEu))-D(θ0 0,θ)|0 0,n
irá convergir para θ 0 na probabilidade P θ 0 . Este resultado requer condições muito mais precisas se comparamos com o resultado de Doob [Doob] em consistência fraca do estimador Bayesiano.
θn^: =umargmEunθρ(θ,δ(Xn))
θ0 0Pθ0 0

Então aqui os estimadores bayesianos e o MLE divergem. Se ainda usarmos uma topologia fraca para discutir a consistência dos estimadores bayesianos, não faz sentido porque os estimadores bayesianos sempre (com probabilidade 1) serão consistentes por Doob. Portanto, uma topologia mais apropriada é a topologia de distribuição de Schwarz, que permite derivadas fracas e a teoria de von Mises entrou em cena. Barron tinha um relatório técnico muito bom sobre esse tópico, como poderíamos usar o teorema de Schwartz para obter consistência.

D

O "resultado singular da aprendizagem" é afetado porque, como vemos, o teorema da consistência de Doob garante que os estimadores bayesianos sejam fracamente consistentes (mesmo no modelo singular) em topologia fraca, enquanto o MLE deve atender a certos requisitos na mesma topologia.

Apenas uma palavra, [Watanabe] não é para iniciantes. Ela tem implicações profundas em conjuntos analíticos reais, que exigem mais maturidade matemática do que a maioria dos estatísticos, portanto, provavelmente não é uma boa ideia lê-la sem a orientação apropriada.

[Watanabe] Watanabe, Sumio. Geometria algébrica e teoria estatística de aprendizagem. Vol. 25. Cambridge University Press, 2009.

[Huber] Huber, Peter J. "O comportamento das estimativas de máxima verossimilhança em condições fora do padrão". Anais do quinto simpósio de Berkeley sobre estatística matemática e probabilidade. Vol. 1. No. 1. 1967.

[Doob] Doob, Joseph L. "Aplicação da teoria de martingales". O cálculo das probabilidades e aplicações (1949): 23-27.

Henry.L
fonte
Estou tentando dar alguma intuição para partes da resposta, então me corrija se estiver errado. O estimador de Bayes é consistente se o considerarmos como um estimador de pontos (MAP, em vez de uma distribuição probabilística). Requer menos condições para sua consistência do que o MLE intuitivamente, devido à atuação prévia como regularização. Por outro lado, a topologia de distribuição de Schwartz é mais adequada quando vemos o estimador Bayes como uma distribuição, também ajuda a construir uma relação mais próxima entre a consistência do MLE e do estimador Bayes, de modo que o caso em que um diverge e o outro converge não aconteça. .
ziyuang 31/01
Desculpe, mas acho que sua explicação não está correta. O anterior atua como uma regularização, mas que não controla necessariamente a taxa de convergência. Priores, na verdade planos, diminuem a convergência. Eles são simplesmente duas topologias diferentes.
precisa saber é o seguinte