Esta é a pontuação F beta:
O artigo da Wikipedia afirma que . "measures the effectiveness of retrieval with respect to a user who attaches β times as much importance to recall as precision"
Eu não entendi a ideia. Por que definir assim? Posso definir assim:
E como mostrar β times as much importance
?
Respostas:
Permitindo que seja o peso na primeira definição fornecida e ˜ β o peso na segunda, as duas definições são equivalentes quando você define ˜ β = β 2 ; portanto, essas duas definições representam apenas diferenças notacionais na definição da pontuação F β . Eu já vi isso definido tanto da primeira maneira (por exemplo, na página da Wikipedia ) quanto da segunda (por exemplo, aqui ).β β~ β~=β2 Fβ
O medida é obtida tomando a média harmónica de precisão e retirada, ou seja, o inverso da média do recíproco de precisão e o recíproco da Sensibilidade:F1
Em vez de usar pesos no denominador iguais e somados a 1 ( para recall e112 para precisão), podemos atribuir pesos que ainda somam 1, mas para os quais o peso na recuperação éβvezes maior que o peso na precisão (β12 β para recall e1ββ+1 para precisão). Isso produz sua segunda definição dapontuaçãoFβ:1β+1 Fβ
Novamente, se tivéssemos usado vez de β aqui, teríamos chegado à sua primeira definição, portanto as diferenças entre as duas definições são apenas notacionais.β2 β
fonte
O motivo para definir a pontuação F-beta comβ2 é exatamente a citação que você fornece (ou seja, querer atribuir β vezes mais importância à recordação do que precisão), dada uma definição específica para o que significa atribuir β vezes a importância da recordação que precisão.
A maneira particular de definir a importância relativa das duas métricas que leva à formulação deβ2 pode ser encontrada em Information Retrieval (Van Rijsbergen, 1979):
A motivação para este ser:
Para ver que isto conduz àβ2 formulação que pode começar com a fórmula geral para a média harmónica ponderada de P e R e calcular as suas derivadas parciais em relação a P e R . A fonte citada usos E (para "medir a eficácia"), que é apenas 1 - F ea explicação é equivalente se considerarmos E ou F .
Agora, definindo os derivados iguais uns aos outros locais de restrição de uma sobre a relação entreα e a relação P/ R . Dado que desejamos atribuir β vezes mais importância à recordação do que precisão, consideraremos a razão R / P 1 :
Definirβ como essa razão e reorganizar para α fornece as ponderações em termos de β2 :
Nós obtemos:
Que pode ser reorganizado para fornecer o formulário em sua pergunta.
Você pode definir uma pontuação como sugere, no entanto, esteja ciente de que, neste caso, a interpretação discutida não é mais válida ou está implicando alguma outra definição para quantificar a troca entre precisão e recall.
Notas de rodapé:
Referências:
fonte
Para apontar algo rapidamente.
Na verdade, acho que é o contrário - já que maior é melhor na pontuação de F-β, você deseja que o denominador seja pequeno. Portanto, se você diminuir β, o modelo será menos punido por ter uma boa pontuação de precisão. Se você aumentar β, a pontuação F-β será mais punida quando a precisão for alta.
Se você deseja ponderar a pontuação F-β para que ela valorize a precisão, β deve ser 0 <β <1, onde β-> 0 valoriza apenas a precisão (o numerador se torna muito pequeno e a única coisa no denominador é recall, portanto, a pontuação F-β diminui à medida que a recuperação aumenta).
http://scikit-learn.org/stable/modules/generated/sklearn.metrics.fbeta_score.html
fonte
A razão pela qual β ^ 2 é multiplicada com precisão é exatamente a maneira como os F-Scores são definidos. Isso significa que, à medida que o valor beta aumenta, você valoriza mais a precisão. Se você quiser multiplicá-lo com recall, isso também funcionaria, apenas significaria que, à medida que o valor beta aumenta, você valoriza o recall mais.
fonte
O valor beta maior que 1 significa que queremos que nosso modelo preste mais atenção ao modelo Recall comparado ao Precision. Por outro lado, um valor menor que 1 coloca mais ênfase na precisão.
fonte