Abordagens bayesianas e de Fisher para análise discriminante linear

10

Conheço duas abordagens para fazer LDA, a abordagem bayesiana e a abordagem de Fisher .

Suponha que tenhamos os dados , onde é o preditor dimensional e é a variável dependente de classes.x p y K(x,y)xpyK

Pela abordagem bayesiana , calculamos o posterior e como Como dito nos livros, suponha que seja gaussiano, agora temos a função discriminante para a ésima classe como , posso ver que é linear função de , portanto, para todas as classes , temos funções discriminantes lineares.p(x|yk)k f k ( x )

p(yk|x)=p(x|yk)p(yk)p(x)p(x|yk)p(yk)
p(x|yk)kfk(x)xKK
fk(x)=lnp(x|yk)+lnp(yk)=ln[1(2π)p/2|Σ|1/2exp(12(xμk)TΣ1(xμk))]+lnp(yk)=xTΣ1μk12μkTΣ1μk+lnp(yk)
fk(x)xKK

No entanto, pela abordagem de Fisher , tentamos projetar para espaço dimensional para extrair os novos recursos que minimizam a variação dentro da classe e maximizam a variação entre classes , digamos que a matriz de projeção seja com cada coluna sendo uma projeção direção. Essa abordagem é mais como uma técnica de redução de dimensão .( K - 1 )x(K1)W

Minhas perguntas são

(1) Podemos fazer redução de dimensão usando a abordagem bayesiana? Quero dizer, podemos usar a abordagem bayesiana para fazer a classificação encontrando as funções discriminantes que dão o maior valor para o novo , mas essas funções discriminantes ser usadas para projetar para subespaço dimensional inferior ? Assim como a abordagem de Fisher .x * f k ( x ) Xfk(x)xfk(x)x

(2) Como e as duas abordagens se relacionam? Não vejo nenhuma relação entre eles, porque um parece ser capaz de fazer a classificação com o valor , e o outro visa principalmente a redução de dimensão.fk(x)

ATUALIZAR

Graças a @amoeba, de acordo com o livro da ESL, encontrei o seguinte: insira a descrição da imagem aqui

e esta é a função discriminante linear, derivada do teorema de Bayes e assumindo que todas as classes têm a mesma matriz de covariância . E essa função discriminante é a mesma que que escrevi acima.f k ( x )Σfk(x)

Posso usar como a direção na qual projetar , a fim de reduzir a dimensão? Não tenho certeza disso, já que no AFAIK, a redução de dimensão é alcançada através da análise de variância entre os mesmos . xΣ1μkx

ATUALIZAR NOVAMENTE

Na seção 4.3.3, é assim que essas projeções derivam:

insira a descrição da imagem aqui

e, é claro, assume uma covariância compartilhada entre classes, que é a matriz de covariância comum (para covariância dentro da classe)W , certo? Meu problema é como computo esse partir dos dados? Como eu teria diferentes matrizes de covariância dentro da classe se tentar calcular partir dos dados. Então, eu tenho que agrupar a covariância de todas as classes para obter uma comum?K WWKW

abacate
fonte
11
Você pergunta mistura duas coisas. Acho que você não digeriu nossa conversa sobre sua pergunta anterior . O que você descreve primeiro é a abordagem bayesiana da classificação (não a "abordagem bayesiana da LDA"). Essa abordagem pode ser usada (1) com variáveis ​​originais como classificadores ou (2) com discriminantes obtidos na LDA como classificadores. Qual é a abordagem de Fisher então?
ttnphns
11
(Cont.) Bem, "LDA de Fisher" é simplesmente LDA com K = 2. Ao fazer a classificação dentro desse LDA, Fisher inventou suas próprias fórmulas para fazer a classificação. Essas fórmulas também podem funcionar para K> 2. Atualmente, seu método de classificação é pouco usado porque a abordagem de Bayes é mais geral.
ttnphns
11
@ttnphns, a razão pela qual estou confuso é porque quase todos os livros que me referi a falar sobre LDA usando essa abordagem bayesiana, ensinando LDA como um modelo generativo, eles não mencionam a razão de variação entre os grupos e a variação dentro do grupo .
abacate
11
@loganecolss: Você viu minha resposta abaixo? Você tem alguma dúvida sobre isso? Estou um pouco confuso, porque pensei ter explicado o que você está perguntando novamente nos comentários. A abordagem "variação interna" é matematicamente equivalente à "abordagem bayesiana", com uma suposição de covariâncias iguais. Você pode pensar nisso como um teorema matemático surpreendente, se quiser. A prova é dada no livro de Hastie, disponível gratuitamente on-line, e em alguns outros livros didáticos de aprendizado de máquina. Portanto, não tenho certeza do que "a única maneira autêntica de fazer LDA" possa significar; essas duas maneiras idênticas.
Ameba
11
@ loganecolss: acredite, eles são equivalentes :) Sim, você deve conseguir derivar as projeções, mas precisa de uma suposição adicional de matrizes de covariância iguais (como escrevi na minha resposta). Veja meu comentário abaixo.
Ameba

Respostas:

11

Fornecerei apenas uma resposta informal curta e encaminhá-lo-á à seção 4.3 de Os elementos do aprendizado estatístico para obter detalhes.

Atualização: "Os Elementos" abrangem detalhadamente exatamente as perguntas que você está fazendo aqui, incluindo o que você escreveu na atualização. A seção relevante é 4.3 e, em particular, 4.3.2-4.3.3.

(2) Como e as duas abordagens se relacionam?

x

xx

Um insight importante é que as equações simplificam consideravelmente se alguém assumir que todas as classes têm covariância idêntica [ Update: se você assumiu isso o tempo todo, isso pode ter sido parte do mal-entendido] . Nesse caso, os limites de decisão se tornam lineares, e é por isso que esse procedimento é chamado de análise discriminante linear, LDA.

É preciso algumas manipulações algébricas para perceber que, nesse caso, as fórmulas se tornam exatamente equivalentes ao que Fisher elaborou usando sua abordagem. Pense nisso como um teorema matemático. Veja o livro de Hastie para todas as contas.

(1) Podemos fazer redução de dimensão usando a abordagem bayesiana?

Se por "abordagem bayesiana" você quer dizer lidar com diferentes matrizes de covariância em cada classe, então não. Pelo menos, não será uma redução linear da dimensionalidade (ao contrário do LDA), por causa do que escrevi acima.

Σ1μkkM μ kΣ1MMμk

ameba
fonte
11
+1. Também posso vincular minha resposta mencionando QDA stats.stackexchange.com/a/71571/3277 .
ttnphns
+1 na parte de responder à minha pergunta 2). Eu sei que, ao fazer a análise de variância entre os intervalos , eu poderia encontrar as melhores direções para projetar a variável original e obter esses discriminantes. Com o que estou lutando agora, é possível encontrar essas direções de projeção usando Bayesiano, sem me referir à razão de variação entre os dois ? X
abacate
@ loganecolss: Como eu disse, você precisa assumir adicionalmente que todas as classes têm a mesma matriz de covariância! Então, começando com sua abordagem bayesiana + essa suposição, você pode derivar as projeções LDA padrão. A idéia é diagonalizar . Isso está escrito com alguns detalhes em Os elementos do aprendizado estatístico, seção 4.3. Σ
Ameba
Vou ler essa seção mais tarde. Como você disse, assumindo que todas as classes têm a mesma matriz de covariância, posso derivar uma função que escrevi no meu post , certo? E é de fato uma função linear de , e de acordo com seu comentário, deve ser a matriz de projeção do LDA? f k ( x ) x Σ - 1 μ kfk(x)fk(x)xΣ-1 1μk
abacate
Eu atualizo minha postagem adicionando um clipe da seção 4.3
abacate