Eu tenho abaixo um exemplo que tirei da documentação sklearn.metrics.classification_report do sklearn.
O que não entendo é por que existem valores de pontuação f1, precisão e recordação para cada classe em que acredito que classe é o rótulo do preditor? Eu pensei que a pontuação f1 informa a precisão geral do modelo. Além disso, o que a coluna de suporte nos diz? Não consegui encontrar nenhuma informação sobre isso.
print(classification_report(y_true, y_pred, target_names=target_names))
precision recall f1-score support
class 0 0.50 1.00 0.67 1
class 1 0.00 0.00 0.00 1
class 2 1.00 0.67 0.80 3
avg / total 0.70 0.60 0.61 5
avg / total
? Parece não coincidir com os meios da coluna ... Como é calculado e o que significa?(0.50*1 + 0.0*1 + 1.0*3)/5 = 0.70
. O total é apenas para suporte total, que é 5 aqui.