A questão está praticamente contida no título. Qual é a distância de Mahalanobis para duas distribuições de matrizes de covariância diferentes? O que eu descobri até agora assume a mesma covariância para ambas as distribuições, ou seja, algo desse tipo:
E se eu tiver dois diferentes s?
Nota: - O problema é este: existem duas distribuições bivariadas que têm as mesmas dimensões, mas que são rotacionadas e traduzidas uma em relação à outra (desculpe, eu venho de um fundo matemático puro, não de estatística). Preciso medir o grau de sobreposição / distância.
* Atualização: * O que pode ou não estar implícito no que estou perguntando é que preciso de uma distância entre os meios das duas distribuições. Eu sei onde os meios são, mas desde que as duas distribuições são rodados em relação um ao outro, eu preciso atribuir pesos diferentes para diferentes orientações e, portanto, a distância euclidiana simples entre os meios não funciona. Agora, como eu entendi, a distância de Mahalanobis não pode ser usada para medir essas informações se as distribuições tiverem formas diferentes (aparentemente, ela funciona com duas distribuições normais multivariadas de covariâncias idênticas, mas não no caso geral). Existe uma boa medida que codifique esse desejo de codificar orientações com pesos diferentes?
fonte
Respostas:
Existem muitas noções de distância entre distribuições de probabilidade. Qual usar depende de seus objetivos. A distância total da variação é uma maneira natural de medir a sobreposição entre distribuições. Se você estiver trabalhando com normais multivariados, a divergência Kullback-Leibler é matematicamente conveniente. Embora na verdade não seja uma distância (como não é simétrica e não obedece à desigualdade do triângulo), ela limita mais a distância total da variação - veja Desigualdade de Pinsker .
fonte
Introdução Como o @vqv mencionou Variação total e Kullback Leibler, são duas distâncias interessantes. O primeiro é significativo porque pode estar diretamente relacionado aos erros de primeiro e segundo tipo no teste de hipóteses. O problema com a distância total da variação é que pode ser difícil calcular. A distância de Kullback Leibler é mais fácil de calcular e chegarei a isso mais tarde. Não é simétrico, mas pode ser simétrico (de alguma forma um pouco artificial).
para um bem escolhido .P1/2
Em palavras simples :
Deixe-me explicar por que esse é o meu sentimento, como você pode calcular isso no caso de e como escolher .C1≠C0 P1/2
Caixa linear Se .C1=C0=Σ
onde é o "interpolar" entre e (gaussiano com covariância e média ). Observe que, neste caso, a distância de Hellinger, a distância total de variação pode ser escrita usando .P1/2 P1 P0 Σ (μ1+μ0)/2 σ
Como calcular no caso geralL A pergunta natural que surge da sua pergunta (e meu ) é o que é um "interpolate" natural entre e quando . Aqui a palavra natural pode ser específica do usuário, mas, por exemplo, pode estar relacionada à melhor interpolação para ter um limite superior apertado com outra distância (por exemplo, distância aqui )P1 P0 C1≠C0 L1
Escrevendo ( ) pode ajudar a ver onde está a tarefa de interpolação, mas:
com
e
é mais relevante para fins computacionais. Para qualquer gaussiano com média e covariância o cálculo de da Equação é um pouco técnico mas viável. Você também pode usá-lo para calcular a distância do Kulback leibler.P1/2 s01 C ∥L∥2L2(P1/2) 1
Que interpolação devemos escolher (ou seja, como escolher )P1/2
É claramente entendido na Equação que existem muitos candidatos diferentes para (interpolação) no caso "quadrático". Os dois candidatos que achei "mais naturais" (subjetivos :)) surgem da definição de uma distribuição gaussiana com média :1 P1/2 t∈[0,1] Pt tμ1+(1−t)μ0
EDIT: O que você propõe em um comentário à sua pergunta pode ser , por que não ...Ct,5=Ct1C1−t0
Eu tenho minha escolha favorita, que não é a primeira :) não tenho muito tempo para discutir isso aqui. Talvez eu edite esta resposta mais tarde ...
fonte
Isso é antigo, mas para outros que estão lendo isso, a matriz de covariância reflete a rotação das distribuições gaussianas e a média reflete a tradução ou posição central da distribuição. Para avaliar a distância mahab, é simplesmente D = ((m2-m1) * inv ((C1 + C2) / 2) * (m2-m1) '). Agora, se você suspeitar que as duas distribuições bivariadas são iguais, mas suspeitar que foram rotacionadas, calcule os dois pares de vetores próprios e valores próprios para cada distribuição. Os autovetores apontam na direção da propagação dos dados bivariados ao longo dos eixos maiores e menores e os autovalores denotam o comprimento dessa propagação. Se os autovalores forem iguais, as duas distribuições são iguais, mas rotacionadas. Faça acos do produto escalar entre os autovetores para obter o ângulo de rotação.
fonte