Se e são variáveis aleatórias e e são constantes, então
centragem é o caso especial de e , de modo centragem não afectar covariância.XYabCov(X+a,Y+b)=E[(X+a−E[X+a])(Y+b−E[Y+b])]=E[(X+a−E[X]−E[a])(Y+b−E[Y]−E[b])]=E[(X+a−E[X]−a)(Y+b−E[Y]−b)]=E[(X−E[X])(Y−E[Y])]=Cov(X,Y).
a=−E[X]b=−E[Y]
Além disso, como a correlação é definida como
podemos ver que
portanto, a correlação também não é afetada pela centralização.Corr(X,Y)=Cov(X,Y)Var(X)Var(Y)−−−−−−−−−−−−√,
Corr(X+a,Y+b)=Cov(X+a,Y+b)Var(X+a)Var(Y+b)−−−−−−−−−−−−−−−−−−√=Cov(X,Y)Var(X)Var(Y)−−−−−−−−−−−−√,
Essa era a versão populacional da história. A versão de exemplo é a mesma: Se usarmos
como nossa estimativa de covariância entre e de uma amostra emparelhada , em seguida,
Covˆ(X,Y)=1n∑i=1n(Xi−1n∑j=1nXj)(Yi−1n∑j=1nYj)
XY(X1,Y1),…,(Xn,Yn)Covˆ(X+a,Y+b)=1n∑i=1n(Xi+a−1n∑j=1n(Xj+a))(Yi+b−1n∑j=1n(Yj+b))=1n∑i=1n(Xi+a−1n∑j=1nXj−nna)(Yi+b−1n∑j=1nYj−nnb)=1n∑i=1n(Xi−1n∑j=1nXj)(Yi−1n∑j=1nYj)=Covˆ(X,Y)
para qualquer e .ab
A definição da covariância de e é . A expressão em que a fórmula é a versão centrado de . Então, nós já centralizamos o quando assumimos a covariância, e a centralização é um operador idempotente; uma vez que uma variável é centralizada, a aplicação do processo de centralização mais vezes não a altera. Se a fórmula não adotasse as versões centralizadas das variáveis, haveria todos os tipos de efeitos estranhos, como a covariância entre temperatura e outra variável sendo diferente dependendo se medimos a temperatura em graus Celsius ou Kelvin.X Y E[(X−E[X])(Y−E[Y])] X−E[X] X X
fonte
"em algum lugar" tende a ser uma fonte pouco confiável ...
Covariância / correlação são definidas com centralização explícita . Se você não centralizar os dados, não estará computando covariância / correlação. (Precisamente: correlação de Pearson)
A principal diferença é se você centraliza com base em um modelo teórico (por exemplo, o valor esperado deve ser exatamente 0) ou com base nos dados (média aritmética). É fácil ver que a média aritmética produzirá covariância menor do que qualquer outro centro.
No entanto, covariância menor não implica menor correlação, ou o contrário. Suponha que temos os dados X = (1,2) e Y = (2,1). É fácil ver que, com a média aritmética centralizada, isso produzirá uma correlação perfeitamente negativa, enquanto que se soubermos que o processo de geração produz 0 em média, os dados são realmente correlacionados positivamente. Portanto, neste exemplo, estamos centralizando - mas com o valor teórico esperado de 0.
Isso pode surgir facilmente. Considere que temos uma matriz de sensores, 11x11, com as células numeradas de -5 a +5. Em vez de assumir a média aritmética, faz sentido usar a média "física" de nossa matriz de sensores aqui ao procurar a correlação de eventos do sensor (se enumerássemos as células de 0 a 10, usaríamos 5 como média fixa, e obteríamos exatamente os mesmos resultados, para que a escolha da indexação desapareça da análise - bom).
fonte