Perguntas com a marcação «accuracy»

A precisão de um estimador é o grau de proximidade das estimativas com o valor verdadeiro. Para um classificador, precisão é a proporção de classificações corretas. (Esse segundo uso não é uma boa prática. Consulte a tag wiki para obter um link para mais informações.)

25
Um modelo equipado demais é necessariamente inútil?

Suponha que um modelo tenha 100% de precisão nos dados de treinamento, mas 70% de precisão nos dados de teste. O argumento a seguir é verdadeiro sobre esse modelo? É óbvio que este é um modelo com excesso de ajuste. A precisão do teste pode ser aprimorada, reduzindo o sobreajuste. Mas, esse modelo...

24
F1 / Dice-Score vs IoU

Eu estava confuso sobre as diferenças entre a pontuação da F1, a pontuação dos dados e a IoU (cruzamento sobre a união). Até agora eu descobri que F1 e Dice significam a mesma coisa (certo?) E IoU tem uma fórmula muito semelhante às outras duas. F1 / Dados:2 TP2 TP+ FP+...

16
Precisão vs. área sob a curva ROC

Eu construí uma curva ROC para um sistema de diagnóstico. A área sob a curva foi então estimada não parametricamente como AUC = 0,89. Quando tentei calcular a precisão na configuração de limite ideal (o ponto mais próximo do ponto (0, 1)), obtive a precisão do sistema de diagnóstico em 0,8, que é...

15
Boa precisão apesar do alto valor de perda

Durante o treinamento de um classificador binário de rede neural simples, recebo um alto valor de perda usando entropia cruzada. Apesar disso, o valor da precisão no conjunto de validação é bastante bom. Isso tem algum significado? Não existe uma correlação estrita entre perda e precisão? Tenho no...

14
Precisão = 1 - taxa de erro de teste

Desculpas se esta é uma pergunta muito óbvia, mas eu tenho lido várias postagens e parece que não consigo encontrar uma boa confirmação. No caso de classificação, a precisão de um classificador é = taxa de erro de 1 teste ? Percebo que a precisão é , mas minha pergunta é exatamente como a precisão...