De acordo com algum artigo que estou lendo, a distância de Jeffries e Matusita é comumente usada. Mas não consegui encontrar muita informação, exceto a fórmula abaixo
JMD (x, y) =
É semelhante à distância euclidiana, exceto pela raiz quadrada
E (x, y) =
A distância JM é reivindicada como mais confiável que a distância euclidiana em termos de classificação. Alguém pode explicar por que essa diferença melhora a distância JM?
classification
k-nearest-neighbour
euclidean
romy_ngo
fonte
fonte
Respostas:
Algumas diferenças importantes, que precedem uma explicação mais longa abaixo, são as seguintes:
Uma vantagem prática da distância JM, de acordo com este artigo, é que esta medida "tende a suprimir altos valores de separabilidade, enfatizando excessivamente os baixos valores de separabilidade".
As medidas Bhattacharrya distância a dissimilaridade de duas distribuições de e o seguinte sentido contínuo resumo: Se o distribuições e são capturados por histogramas, representados por vetores de comprimento unitário (em que o ésimo elemento é a contagem normalizada de és de posições), isto se torna: E, consequentemente, a distância JM para os dois histogramas é: Qual, observando isso para histogramas normalizadosp q
fonte