Precisão = 1 - taxa de erro de teste

14

Desculpas se esta é uma pergunta muito óbvia, mas eu tenho lido várias postagens e parece que não consigo encontrar uma boa confirmação. No caso de classificação, a precisão de um classificador é = taxa de erro de 1 teste ? Percebo que a precisão é , mas minha pergunta é exatamente como a precisão e a taxa de erro de teste estão relacionadas. TP+TNP+N

micro_gnomics
fonte

Respostas:

5

Em princípio, sim, a precisão é a fração de casos previstos corretamente, portanto 1 - a fração de casos mal classificados, ou seja, erro (taxa). Entretanto, os dois termos podem ser usados ​​de uma maneira mais vaga, e abrangem coisas diferentes, como erro / precisão equilibrados por classe ou mesmo pontuação F ou AUROC - é sempre melhor procurar / incluir um esclarecimento adequado no artigo ou relatório.

Observe também que a taxa de erro de teste implica erro em um conjunto de testes, portanto, é provável que haja uma precisão de um conjunto de testes, e pode haver outras precisões voando por aí.


fonte
Sim, acho que esse foi o problema que tive com os termos vagamente usados, e você argumenta que deve ser relatado no contexto de sua análise. Obrigado por esclarecer!
micro_gnomics
2

@mbq respondeu:

"1 - a fração de casos mal classificados, ou seja, erro (taxa)"

No entanto, parece errado, pois erros de classificação e erro são a mesma coisa. Veja abaixo (em http://www.dataschool.io/simple-guide-to-confusion-matrix-terminology/ ):

Precisão: em geral, com que frequência o classificador está correto? (TP + TN) / total = (100 + 50) / 165 = 0,91

Taxa de classificação incorreta: No geral, com que frequência está errado? (FP + FN) / total = (10 + 5) / 165 = 0,09 equivalente a 1 menos Precisão

também conhecido como "taxa de erro"

Israel Kloss
fonte