Eu não sou especialista em auto-codificadores ou redes neurais, por qualquer meio, então me perdoe se essa é uma pergunta boba.
Para fins de redução de dimensão ou visualização de clusters em dados de alta dimensão, podemos usar um autoencoder para criar uma representação bidimensional (com perdas) inspecionando a saída da camada de rede com 2 nós. Por exemplo, com a arquitetura a seguir, inspecionaríamos a saída da terceira camada
onde é os dados de entrada e N L é o número de nós da l camada th.
Agora, minha pergunta é: por que queremos uma arquitetura simétrica? Um espelho da fase profunda de "compressão" não significa que podemos ter uma fase de "descompressão" igualmente complexa, resultando em uma saída de 2 nós que não é forçada a ser muito intuitiva? Em outras palavras, não ter uma fase de decodificação mais simples resultaria na saída da camada com 2 nós necessariamente sendo mais simples também?
Meu pensamento aqui é que, quanto menos complexa a fase de descompressão, mais simples (mais linear?) A representação 2D deve ser. Uma fase de descompressão mais complexa permitiria uma representação 2D mais complexa.