Estou estudando 'Introdução à aprendizagem estatística' de James, Witten, Hastie, Tibshirani.
Na página 139 do livro, eles começaram introduzindo o Teorema de Bayes . não é constante matemática, mas denota a probabilidade anterior. Nada é estranho nesta equação. π
O livro afirma que deseja obter uma estimativa para que possa ser conectada à equação fornecida acima. Para estimar , assume que isso é normal. Na configuração unidimensional, , onde e são a média e a variância da ésima classe. Supõe-se que . (Comecei a ficar confuso com a última declaração.)f k ( x ) f k ( x ) = 1μkσ 2 k kσ 2 1 =σ 2 2 =⋯=σ 2 K
Conectando em , você tem essa equação bastante confuso (1):p x
Novamente, não há surpresas aqui, pois é apenas uma substituição.
O classificador de Bayes envolve atribuir uma observação à classe cuja equação (1) é a maior. Tomando o log da Equação (1) e reorganizando os termos, não é difícil mostrar que isso equivale a atribuir a observação à classe para a qual a seguinte é a maior:
Pergunta: Eu não entendo de onde isso veio e o que isso significa. Eu tentei fazer o log da equação e não se torna isso. Estamos levando a derivada para algum lugar aqui, já que esta é a maior observação?