Eu projetei um classificador M que reconhece gestos e sempre o classifica em qualquer categoria. Um gesto é classificado com base na distância entre a série temporal da amostra y e a série temporal do treinamento x. O resultado do classificador são valores probabilísticos. Existem 3 classes / categorias com os rótulos A, B, C que classificam os gestos com as mãos, onde há 100 amostras para cada classe a serem classificadas (recurso único e comprimento dos dados = 100). Os dados são séries temporais diferentes (coordenada x x tempo). O conjunto de treinamento é usado para atribuir probabilidades, indicando qual gesto ocorreu quantas vezes. Assim, das 10 amostras de treinamento, se o gesto A apareceu 6 vezes, a probabilidade de um gesto se enquadrar na categoria A é
P (A) = 0,6 similarmente P (B) = 0,3
e
P (C) = 0,1
Agora, estou tentando comparar o desempenho desse classificador com o classificador Bayes, K-NN, análise de componentes principais (PCA) e rede neural.
- Em que base, parâmetro e método devo fazê-lo se considerar ROC ou validação cruzada, pois os recursos para o meu classificador são os valores probabilísticos do gráfico ROC, portanto, quais devem ser os recursos para k-nn, classificação bayes e PCA?
- Existe um código para isso que será útil.
- Qual deve ser o valor de k, existem 3 classes de gestos?
Por favor ajude. Eu estou em uma correção.
fonte
Respostas:
Não há uma maneira fácil de fazer isso. De fato, um artigo recente de Charles Parker explica alguns dos problemas com o uso de medidas de curva ROC (há uma visão geral amigável no meu blog - alerta de autopromoção !!). Seu artigo faz algumas recomendações sobre as melhores maneiras de comparar diferentes classificadores, então você encontrará algo útil lá.
fonte
A maneira geral de comparar classificadores é compará-los usando ROC. Para um intervalo fixo de taxas de alarmes falsos, verifique qual classificador alcançou a maior precisão. Se você deseja uma única medida, pode usar Área sob ROC (AUC). Existem muitas outras medidas também, procure-as. Para uma comparação justa, você precisa comparar todos os classificadores em pé de igualdade, isso significa os mesmos recursos e as mesmas condições de treinamento.
O valor de k é algo que você precisará descobrir tentando valores diferentes. Escolha o valor com melhor desempenho no seu conjunto de validação, mas relate apenas os resultados no seu conjunto de testes, que você não usou durante o ajuste de parâmetros.
fonte