Qual é a caracterização mais surpreendente da distribuição gaussiana (normal)?

52

Uma distribuição gaussiana padronizada em pode ser definida fornecendo explicitamente sua densidade: R

12πex2/2

ou sua função característica.

Como lembrado nesta pergunta, também é a única distribuição para a qual a média e a variância da amostra são independentes.

Quais são outras caracterizações alternativas surpreendentes das medidas gaussianas que você conhece? Vou aceitar a resposta mais surpreendente

robin girard
fonte

Respostas:

39

Meu mais surpreendente é o que diz respeito à média e variância da amostra, mas aqui está outra caracterização (talvez) surpreendente: se e são IDI com variância finita com e independentes, então e são normais.XYX+YXYXY

Intuitivamente, geralmente podemos identificar quando as variáveis ​​não são independentes de um gráfico de dispersão. Imagine um gráfico de dispersão de pares que pareça independente. Agora gire 45 graus e olhe novamente: se ainda parecer independente, as coordenadas e individualmente deverão ser normais (isso tudo está falando vagamente, é claro).X Y(X,Y)XY

Para ver por que o bit intuitivo funciona, veja

[cos45sin45sin45cos45][xy]=12[xyx+y]
user1108
fonte
3
Jay - isso é basicamente uma afirmação de que a média e a variação são independentes. é uma média redimensionada e é um desvio padrão redimensionado. X - YX+YXY
probabilityislogic
5
@probabilityislogic - eu gosto da intuição do que você disse, mas não acho que seja exatamente uma reformulação porque não é exatamente um redimensionamento do SD: o SD esquece o sinal. Portanto, a independência da média e do DP decorre da independência de , (quando ), mas não o contrário. Isso pode ter sido o que você quis dizer com "basicamente". Enfim, é uma coisa boa. X + Y X - Y n = 2XYX+YXYn=2
4
Onde podemos encontrar provas para esta propriedade?
Royi 02/08/19
11
@Royi veja 16. aqui . Para (a), observe que . Para (b) observe que que anseia pela substituição do qual você obtém . Se , então , portanto, para todos os , e existe uma sequência tal que e para todo , o que contradiz a continuidade de emφ ( 2 t ) φ ( - 2 t ) = ( φ ( t ) φ ( - t ) ) 4 ψ ( t ) = φ ( t ) φ ( - t ) ψ ( t ) = ψ 2 2 n2X=(X+Y)+(XY)φ(2t)φ(2t)=(φ(t)φ(t))4ψ(t)=φ(t)φ(t)φ(t0)=0ψ(t0)=0nψ(t0ψ(t)=ψ22n(t2n)φ(t0)=0ψ(t0)=0ntntn0φ(tn)=0nφ0ψ(t02n)=0tntn0φ(tn)=0nφ0. (c) é direto [continuação]
Gabriel Romon 15/04
11
Para (d), . Observe que , portanto . Conecte isso na igualdade anterior e prove que, para fixo , que implica para todos os . Isso significa que é real e a igualdade em (a) se transforma no que é solicitado. Novamente, prove que e use para obter . Portanto eφ(t)=1-t2γ(t)=γ2n(t2n)φ(t)=1t22+o(t2)γ(t)=1+o(t2)tlimnγ2n(t2n)=1γ(t)=1tφφ(t)=φ22n(t2n)φ(t)=1t22+o(t2)limnφ22n(t2n)=et2/2φ(t)=et2/2X é normal.
Gabriel Romon
27

A distribuição contínua com variância fixa que maximiza a entropia diferencial é a distribuição gaussiana.

shabbychef
fonte
22

Há um livro inteiro escrito sobre isso: "Caracterizações da lei de probabilidade normal", AM Mathai e G. Perderzoli. Uma breve revisão em JASA (dezembro de 1978) menciona o seguinte:

Seja sejam variáveis ​​aleatórias independentes. Então e são independentes, onde , se e somente se [estiver] normalmente distribuído.X1,,Xni=1naixii=1nbixiaibi0Xi

whuber
fonte
3
deve haver uma condição como ausente? por exemplo, se n = 2 e não são independentes. <a,b>=0ai=bi=1 X1+X2X1+X2
Robin girard
11
@robin boa captura. Também tenho intrigado os quantificadores implícitos. Infelizmente, tudo o que tenho acesso é a citação (emocionante) da resenha, não o livro. Seria divertido encontrá-lo em uma biblioteca e navegar por ele ...
whuber
Parece uma generalização da resposta de G. Jay Kerns (atualmente nº 1).
precisa
Acho que você pode estar procurando o artigo de Lukacs & King (1954). Veja esta resposta em math.SE com um link para o documento mencionado acima.
cardeal
2
Onde esta proposição diz "onde " significa para CADA conjunto de escalares em que "? Detesto ver" onde "é usado no lugar de" para todos "ou" para alguns ". Onde "deve ser usado para explicar a notação, como em" onde é a velocidade da luz é o produto interno bruto ", etc.aibi0aibi0cg
Michael Hardy
17

As distribuições gaussianas são as únicas distribuições soma-estáveis com variância finita.

shabbychef
fonte
8
O fato de eles serem estáveis ​​e os únicos com variação finita são ambos impostos pelo CLT. A parte interessante dessa afirmação é que existem outras distribuições com soma estável!
whuber
11
@ Whuber: de fato! essa caracterização é um pouco distorcida e as outras distribuições com soma estável são talvez mais curiosas.
shabbychef
@ Whuber, na verdade, não vejo como a CLT implica esse fato. Parece apenas nos dizer que , assintoticamente , a soma dos normais é normal, não que qualquer soma finita seja normalmente distribuída. Ou você também precisa usar o teorema de Slutsky?
shabbychef
3
Adotando a padronização usual, uma soma de duas normais é a soma de uma distribuição normal X_0 mais a distribuição limitadora de uma série X_1, X_2, ..., de onde a soma é a distribuição limitadora de X_0, X_1, ..., que pelo Lindeberg-Levy CLT é normal.
whuber
17

O Lema de Stein fornece uma caracterização muito útil. é gaussiano padrão se para todas as funções absolutamente contínuas com .Z

Ef(Z)=EZf(Z)
fE|f(Z)|<
vqv
fonte
12

Teorema [Herschel-Maxwell]: Seja um vetor aleatório para o qual (i) projeções em subespaços ortogonais são independentes e (ii) a distribuição de depende apenas do comprimento. Então é normalmente distribuído.ZRnZZZ

Citado por George Cobb em Ensino de estatística: algumas tensões importantes (Chilean J. Statistics Vol. 2, No. 1, abril de 2011) na p. 54

Cobb utiliza esta caracterização como um ponto de partida para obter os , , e distribuições, sem o uso de cálculo (ou teoria probabilidade muito).χ2tF

whuber
fonte
9

Sejam e duas variáveis ​​aleatórias independentes com uma distribuição simétrica comum tal queηξ

P(|ξ+η2|t)P(|ξ|t).

Então essas variáveis ​​aleatórias são gaussianas. (Obviamente, se e são gaussianos centrados, é verdade.)ξη

Este é o Teorema de Bobkov-Houdre

robin girard
fonte
9

Esta não é uma caracterização, mas uma conjectura, que remonta a 1917 e é devida a Cantelli:

Se é uma função positiva em e e são variáveis ​​aleatórias independentes, de modo que é normal, então é uma constante quase em toda parte.fRXYN(0,1)X+f(X)Yf

Mencionado por Gérard Letac aqui .

Did
fonte
é bom que você mencionou! Não consigo descobrir a intuição, não é?
22611 robin girard
@robin É isso que torna essa conjectura tão especial: uma afirmação completamente elementar, algumas abordagens óbvias que falham miseravelmente (funções características), e não resta nada a entender ... A propósito, deve-se apostar na conjectura que é verdadeira ou falso? Mesmo isso não é óbvio (para mim).
Será que
2
Se Gérard Letac não conseguiu provar isso, poderia permanecer uma conjectura aberta por um bom tempo ...!
Xian
@ Xi'an: concordo plenamente, é claro. (Não sabia que você estava em roaming nestes quartos da web ... Boa notícia de que você é.)
Fez
6
@ Xi'an Aqui está uma pré - impressão de Victor Kleptsyn e Aline Kurtzmann com um contra-exemplo da conjectura de Cantelli. A construção utiliza uma nova ferramenta, que os autores chamam de transporte de massa browniano, e produz uma função descontínua . Os autores afirmam que acreditam que a conjectura de Cantelli se aplica se alguém perguntar que é contínuo (o deles é uma mistura de duas funções contínuas). ff
Será que
8

Suponha que alguém esteja estimando um parâmetro de localização usando dados iid . Se é o estimador de probabilidade máxima, a distribuição da amostra é gaussiana. De acordo com a teoria da probabilidade de Jaynes : The Logic of Science, pp. 202-4, foi assim que Gauss originalmente a derivou.{x1,...,xn}x¯

Ciano
fonte
Não sei se entendi isso como uma caracterização da distribuição normal, então provavelmente estou perdendo alguma coisa. E se tivéssemos incluído os dados de Poisson e desejássemos estimar ? O MLE é mas a distribuição amostral de não é gaussiana - primeiro, deve ser racional; segundo, se fosse gaussiano, seria mas isso é . μx¯x¯x¯xiPoisson(nμ)
Silverfish
2
A média de Poisson não é um parâmetro de localização!
Kjetil b halvorsen
6

Uma caracterização mais particular da distribuição normal entre a classe de distribuições infinitamente divisíveis é apresentada em Steutel e Van Harn (2004) .

Uma variável aleatória não degenerada e infinitamente divisível tem uma distribuição normal se e somente se ela satisfizer X

lim supxlogP(|X|>x)xlog(x)=.

Este resultado caracteriza a distribuição normal em termos de comportamento da cauda.

user10525
fonte
11
Uma prova curta do limite declarado é a seguinte: Se é normal normal, então como , então . Mas e, portanto, o resultado segue. Um esboço aproximado do caso de Poisson parece indicar que o limite especificado é , mas não cheguei muito perto. XxP(X>x)/φ(x)1xlogP(X>x)logφ(x)+logx02logφ(x)x2λ
cardeal
6

No contexto de suavização de imagem (por exemplo , espaço de escala ), o Gaussiano é o único núcleo separável * rotativamente simétrico.

Ou seja, se exigirmos onde , a simetria rotacional requer que é equivalente a .

F[x,y]=f[x]f[y]
[x,y]=r[cosθ,sinθ]
Fθ=f[x]f[y]xθ+f[x]f[y]yθ=f[x]f[y]y+f[x]f[y]x=0f[x]xf[x]=f[y]yf[y]=const.
log[f[x]]=cx

Exigir que seja um kernel adequado exige que a constante seja negativa e o valor inicial positivo, produzindo o kernel gaussiano.f[x]


* No contexto de distribuições de probabilidade, separável significa independente, enquanto no contexto da filtragem de imagens, permite que a convolução 2D seja reduzida computacionalmente para duas convoluções 1D.

GeoMatt22
fonte
2
+1 Mas isso não decorre de uma aplicação imediata do teorema de Herschel-Maxwell em 2D?
whuber
@whuber De fato, de alguma forma eu consegui ignorar sua resposta ao olhar através deste tópico!
Ameba diz Reinstate Monica
@whuber Sim. Eu não tinha lido esse tópico antigo em detalhes e estava apenas adicionando essa resposta por solicitação.
precisa saber é o seguinte
11
@amoeba veja também aqui .
GeoMatt22
3

Recentemente, Ejsmont [1] publicou artigo com nova caracterização de Gaussian:

Seja sejam vetores aleatórios independentes com todos os momentos, onde não é regenerado e deixe a estatística tem uma distribuição que depende apenas de , onde e . Então é independente e tem a mesma distribuição normal com médias zero e para .(X1,,Xm,Y) and (Xm+1,,Xn,Z)Xii=1naiXi+Y+Zi=1nai2aiR1m<nXicov(Xi,Y)=cov(Xi,Z)=0i{1,,n}

[1] Ejsmont, Wiktor. "Uma caracterização da distribuição normal pela independência de um par de vetores aleatórios." Statistics & Probability Letters 114 (2016): 1-5.

Daniel
fonte
11
Essa é uma caracterização delicada e fascinante. Obrigado por melhorar este tópico, compartilhando-o!
whuber
1

Sua função característica tem a mesma forma que seu pdf. Não tenho certeza de outra distribuição que faça isso.

Jason
fonte
4
Veja esta minha resposta sobre maneiras de construir variáveis ​​aleatórias cujas funções características são iguais às de seus pdfs.
Dilip Sarwate
-1

A expectativa mais o desvio padrão são os pontos de sela da função.

Tal Galili
fonte
11
Esta é uma propriedade da distribuição Normal, com certeza, mas não a caracteriza , porque muitas outras distribuições também possuem essa propriedade.
whuber