O PCA e o autoencoder podem reduzir a demension, então, qual é a diferença entre eles? Em que situação devo usar um sobre o outro?
machine-learning
pca
neural-networks
autoencoders
RockTheStar
fonte
fonte
Como bayerj aponta, o PCA é um método que assume sistemas lineares onde os Autoencoders (AE) não. Se nenhuma função não linear for usada no EA e o número de neurônios na camada oculta for de menor dimensão, então o da entrada então o PCA e o EA poderão produzir o mesmo resultado. Caso contrário, o EA poderá encontrar um subespaço diferente.
Uma coisa a notar é que a camada oculta em um EA pode ser de maior dimensionalidade do que a da entrada. Nesses casos, os EA podem não estar reduzindo a dimensionalidade. Nesse caso, nós os percebemos fazendo uma transformação de um espaço de recurso para outro, em que os dados no novo espaço de recurso separam fatores de variação.
fonte
Isso é mais adequado como comentário, mas como eu não tenho a reputação de que isso será dado como resposta.
Um tanto confuso com a noção de quase na resposta de bayerj: s. Leitura de redes neurais e análise de componentes principais: aprendendo com exemplos sem mínimos locais onde a prova é fornecida.
Este não é exatamente o espaço correspondente, conforme estendido pelo PCA?
fonte
fonte