Como o limite de probabilidade de um classificador pode ser ajustado no caso de várias classes? [duplicado]

10

Distribuição de Probabilidade Binária

O exemplo acima é um exemplo muito simples de ter uma saída do classificador de probabilidade para um caso de classe binária, 0 ou 1, com base em algumas probabilidades.
Além disso, é simples como você pode alterar o limite. Você define o limite superior ou inferior a 50% para alterar o balanço de precisão / recall e, assim, otimizar para sua própria situação.

No entanto, quando tentamos ter o mesmo pensamento para um cenário multiclasse, até as três classes mostradas na figura abaixo (imagine que sejam probabilidades)

Three Prob Dist

Como você começa a pensar em como mudar o limite?
O padrão é levar a classe com a maior probabilidade (aqui é a classe 3).
Se você deseja obter esse equilíbrio (para afetar a precisão / recall), o que você pode fazer?
Uma idéia poderia ser levar as primeiras classes mais dominantes à normalizá-las e considerar colocar um limite entre essas duas, mas isso não parece uma solução elegante.
Existe uma metodologia sólida a seguir?

George Pligoropoulos
fonte

Respostas:

10

Você pode usar uma distribuição anterior pelas classes.

vπvπcvcπc

Se você deseja uma distribuição adequada, basta renormalizar.

π=(0.4,0.3,0.3)

vf(x)

f(x)={2v2θ1otherwise
θ(0,1)

(v11θ,v2θ)π=(11θ,1θ)

π

Para uma maneira mais fundamentada de incorporar esse tipo de suposições prévias em seu modelo, convém examinar a inferência bayesiana.

cangrejo
fonte
Obrigado pela sua resposta. Isso faz sentido. Então você está sugerindo depois de fazer a multiplicação elemento-wise com os priores para, em seguida, basta pegar o maior número como você faria normalmente
George Pligoropoulos
Sim. Observe que se você renormalizar o vetor resultante, obterá uma distribuição com a mesma ordem.
Cangrejo 31/10
1
Isso é simplesmente lindo, thaks!
guyos