Atualmente, estou estudando para minhas finais em estatística básica para meu bacharel em educação infantil.
Embora eu ache que as contas estão em geral, não tenho uma compreensão intuitiva do que os números realmente significam (preâmbulo: usarei uma linguagem um tanto desleixada).
Eu sei que E [X] é a "média ponderada" de todos os resultados de X ponderados por sua probabilidade.
Var [X] fornece a variação esperada daquele E [X] ao quadrado, então nos diz algo sobre o "embaçamento" da distribuição.
As outras propriedades conheço as fórmulas, mas não têm nenhum tipo de intuição. Alguém tem boas explicações / recursos para ajudar nisso?
Respostas:
A covariância , como você pode imaginar, indica a tendência de duas variáveis co-variarem ou "se moverem" juntas. Se cov ( , ) é positiva, então os valores maiores de estão associadas com maiores valores de e menores valores de estão associados com menores valores de . Se a covariância for negativa, o oposto vale: s pequenos são associados a s maiores e vice-versa. Por exemplo, esperamos ver uma alta covariância entre salário e anos de experiência, mas uma covariância baixa ou negativa entre peso e velocidade de corrida máxima.Y X Y X Y X YX Y X Y X Y X Y
A covariância depende da escala (por exemplo, você terá uma covariância diferente se o peso for medido em quilogramas ou libras) e as unidades forem um pouco estranhas (anos-dólar e quilogramas-metro-por-segundo em nossos dois exemplos), então normalmente normalizamos as covariâncias dividindo por para obter correlação . A correlação é sem unidade e varia de -1 a 1, o que a torna uma medida útil de associações lineares . (Esse bit linear é uma ressalva muito importante!)σx⋅σy
Agora, suponha que tenhamos uma série de valores que são de alguma forma ordenados; estas são frequentemente, mas nem sempre, uma série temporal. A função de autocorrelação é a correlação entre o valor na posição / hora é com valores em outras posições ,( t - 1 ) ( t - 2 )t (t−1) (t−2) , etc. Altas autocorrelações podem indicar que a série muda lentamente ou, equivalentemente, que o valor presente é previsível em relação aos valores anteriores. Embora variância e covariância sejam escalares (ou seja, valores únicos), a correlação automática é um vetor - você obtém um valor de correlação automática para cada "atraso" ou "intervalo". O ruído branco tem uma função de autocorrelação muito plana, pois é aleatório; as imagens naturais geralmente possuem autocorrelações espaciais amplas, já que os pixels próximos são geralmente de cor e brilho semelhantes. Um eco pode ter um pico próximo ao centro (já que os sons são auto-similares), uma região plana durante o silêncio e, em seguida, outro pico que constitui o próprio eco.
A correlação cruzada compara duas séries deslocando uma delas em relação à outra. Como a correlação automática, produz um vetor. O meio do vector é apenas a correlação entre e . A entrada anterior é a correlação entre uma cópia de deslocada levemente para um lado e Y; a entrada, depois o meio é a correlação entre uma cópia de ligeiramente deslocada para o outro lado e . (Se você conhece a convolução, isso é muito parecido). Se e forem cópias (possivelmente atrasadas) um do outro, eles terão uma função de correlação cruzada com um pico de 1,0 em algum lugar, com a localização do pico fornecida pelo atraso.Y X X Y X YX Y X X Y X Y
Os auto-covariância e transversal covariância funções são como os seus equivalentes de correlação, mas fora de escala; é a mesma diferença entre covariância e correlação.
Uma densidade espectral de potência informa como a potência de um sinal é distribuída por várias frequências. O PSD do tom puro (ou seja, uma onda senoidal) é plano, exceto na frequência do tom; Sinais e sons naturalistas têm PSDs muito mais complicados, com harmônicos, sobretons, ressonância, etc. Está relacionado a outros conceitos, porque a transformação de Fourier da função de autocorrelação é o PSD.
fonte