Quais são as estatísticas da transformada discreta de Fourier do ruído branco gaussiano?

10

Considere um sinal de ruído gaussiano branco . Se amostrarmos esse sinal e calcularmos a transformada de Fourier discreta, quais são as estatísticas das amplitudes de Fourier resultantes?x(t)

DanielSank
fonte
1
Você precisa começar com um sinal gaussiano branco em tempo discreto . A amostragem de um processo branco de tempo contínuo é matematicamente mal definida, porque a função de autocorrelação desse processo é descrita por uma distribuição delta do Dirac. Como a autocorrelação do processo de amostra é uma versão de amostra da autocorrelação do processo contínuo original, é necessário considerar uma versão de amostra da distribuição delta do Dirac, que não está definida.
Matt L.
@MattL. "[A] autocorrelação do processo amostrado é uma versão amostrada da autocorrelação do processo contínuo original ...". Isso não é óbvio para mim, na verdade. Explicar que seria um auto-perguntas e respostas úteis.
DanielSank
Preste atenção que as respostas serão válidas para qualquer transformação unitária do ruído gaussiano branco.
Royi 19/08/19
@ Royi Eu discordo da sua edição. Você pode fornecer um link indicando que a letra maiúscula usada no título é consistente com uma política de site?
precisa saber é o seguinte
Restaurou seu estilo. O principal na edição foi adicionar tags relevantes.
Royi 19/08/19

Respostas:

15

Ferramentas de matemática

Podemos fazer o cálculo usando alguns elementos básicos da teoria das probabilidades e análise de Fourier. Existem três elementos (denotamos a densidade de probabilidade de uma variável aleatóriaX no valor x Como PX(x)):

  1. Dada uma variável aleatória X com distribuição PX(x), a distribuição da variável escalada Y=aX é PY(y)=(1/a)PX(y/a).

  2. A distribuição de probabilidade de uma soma de duas variáveis ​​aleatórias é igual à convolução das distribuições de probabilidade dos summands. Em outras palavras, seZ=X+Y então PZ(z)=(PXPY)(z) Onde indica convolução.

  3. A transformação de Fourier da convolução de duas funções é igual ao produto das transformadas de Fourier dessas duas funções. Em outras palavras:

dx(fg)(x)eikx=(dxf(x)eikx)(dxg(x)eikx).

Cálculo

Denote o processo aleatório como x(t). Amostragem discreta produz uma sequência de valoresxnque assumimos ser estatisticamente não correlacionado. Também assumimos que, para cadan xn é gaussiano distribuído com desvio padrão σ. Denotamos a função gaussiana com desvio padrãoσ pelo símbolo Gσ então diríamos que Pxn(x)=Gσ(x).

As amplitudes discretas de transformada de Fourier são definidas como

Xkn=0N1xnei2πnk/N.
Por enquanto, focando apenas a parte real que temos
Xk=n=0N1xncos(2πnk/N).
Isso é apenas uma soma; portanto, pela regra nº 2, a distribuição de probabilidade de Xké igual à convolução múltipla das distribuições de probabilidade dos termos que estão sendo somados. Reescrevemos a soma como
Xk=n=0N1yn
Onde
ynxncos(2πnk/N).
O fator cosseno é um fator determinístico de escala. Sabemos que a distribuição dexn é Gσ para que possamos usar a regra nº 1 acima para escrever a distribuição de yn:
Pyn(y)=1cos(2πnk/N)Gσ(ycos(2πnk/N))=Gσcn,k(y)
onde, por questões de brevidade, definimos cn,kcos(2πnk/N).

Portanto, a distribuição de Xk é a convolução múltipla sobre as funções Gσcn,k:

PXk(x)=(Gσc0,kGσc1,k)(x).

Não é óbvio como fazer a convolução múltipla, mas usar a regra nº 3 é fácil. Denotando a transformada de Fourier de uma função porF temos

F(PXk)=n=0N1F(Gσcn,k).

A transformada de Fourier de um gaussiano com largura σ é outro gaussiano com largura 1/σ, então temos

F(PXk)(ν)=n=0N1G1/σcn,k=n=0N1σ2cn,k22πexp[ν22(1/σ2cn,k2)]=(σ22π)N/2(n=0N1cn,k)exp[ν22σ2n=0N1cos(2πnk/N)2].
Todas as coisas que precedem o exponencial são independentes de νe, portanto, são fatores de normalização, por isso os ignoramos. A soma é apenasN/2 então nós temos
F(PXk)exp[ν22σ2N2]=G2/σ2N
e portanto
PXk=GσN/2.

Calculamos, portanto, a distribuição de probabilidade da parte real do coeficiente de Fourier Xk. É gaussiano distribuído com desvio padrãoσN/2. Observe que a distribuição é independente do índice de frequênciak, o que faz sentido para ruído não correlacionado. Por simetria, a parte imaginária deve ser distribuída exatamente da mesma forma.

Intuitivamente, esperamos que adicionar mais integração reduza a largura da distribuição de ruído resultante. No entanto, descobrimos que o desvio padrão da distribuição deXk cresce comoN. Isso se deve apenas à nossa escolha de normalização da transformada de Fourier discreta. Se tivéssemos normalizado assim

Xk=1Nn=0N1xnei2πnk/N
então teríamos encontrado
PXk=Gσ/2N
which agrees with the intuition that the noise distribution gets smaller as we add more data. With this normalization, a coherent signal would demodulate to a fixed amplitude phasor, so we recover the usual relation that the ratio of the signal to noise amplitudes scales as N.
DanielSank
fonte
All this is fine and dandy but when dealing with multiple random variables, and especially Gaussian random variables, the covariances are of some importance as is the question of which of the random variables are independent. Could you address this issue in your answer? (Marginally Gaussian random variables need not be jointly Gaussian too; are your 2N random variables jointly Gaussian? are they independent?
Dilip Sarwate
1
@DilipSarwate this is a good question. Unfortunately I don't know the answer (yet). I am going through what you might call "self study" of stochastic signal processing and I haven't yet understood why the values of physical processes at different times are frequently modeled as jointly Gaussian (or even what that really means). I suspect it has to do with the differential equations governing the underlying process, but again I just don't know yet. If you care to make a self Q&A it would be really useful. Otherwise I will eventually ask the relevant questions on this site.
DanielSank
@DilipSarwate I noticed you used the assumption of a Gaussian process in your answer to this other question. You even noted that a "Gaussian process" is not the same thing as just saying that the distribution of the process at a fixed t is Gaussian distributed. This suggests that Gaussian processes are common in Nature/engineering. Is this true? If so, can you give me a hint as to where I can learn why?
DanielSank
1
@DanielSank According to the central limit theorem, the combinaison of a very large number of independent random variables will always produce a normal distribution, no matter the original distribution of individual random variables. Since the normal distribution is very well studied, it is often assumed that the process being observed fits the central limit theorem. This is not always the case, (such as photons on a CCD, for example), but it tend to be a safe approximation for many macroscopic physics problems.
PhilMacKay
1
@anishtain4 Here's a single (long!) line of Python that simulates thr process: import numpy as np; np.std(np.real(np.sum(np.random.normal(0, 1, (10000, 10000)) * np.exp(1.0j * 2 * np.pi * np.linspace(0, 1, 10000) * 50), axis=1))). When I do this, I get the output 70, which is equal to 10,000/2 as it should be. Perhaps you can compare your simulation to that line.
DanielSank
2

I would like to give another take on @DanielSank's answer. We first suppose that vnCN(0,σ2) and is i.i.d. Its Discrete Fourier Transform is then:

Vk=1Nn=0N1vnej2πnNk
.

We want to calculate the distribution of Vk To start, we note that since vn is white Gaussian noise, it is circularly symmetric, so the real and imaginary parts of its Fourier Transform will distributed the same. Therefore, we only need to calculate the distribution of the real part and then combine it with the imaginary part.

So we separate Vk into its real and imaginary parts. We have:

Vk=1Nn=0N1vnej2πnNk
Vk=1Nn=0N1(R{vn}+jI{vn})(cos(2πnNk)+jsin(2πnNk))
Vk=R{Vk}1+R{Vk}2+jI{Vk}1+jI{Vk}2
Vk=R{Vk}+jI{Vk}

Where:

R{Vk}=R{Vk}1+R{Vk}2
I{Vk}=I{Vk}1+I{Vk}2

And:

R{Vk}1=1Nn=0N1R{vn}cos(2πnNk)

R{Vk}2=1Nn=0N1I{vn}sin(2πnNk)

I{Vk}1=1Nn=0N1R{vn}sin(2πnNk)

I{Vk}2=1Nn=0N1I{vn}cos(2πnNk)

Now we work on deriving the distribution of R{Vk}1 and R{Vk}2. As in @DanielSank's answer, we define:

xn,k=1Ncos(2πnNk)R{vn}=1Ncn,kR{vn}

Thus we can write:

R{Vk}1=n=0N1xn,k

This allows us the easily apply the following facts about linear combinations of Gaussian random variables. Namely, we know that:

  1. When xCN(0,σ2) then R{x}N(0,12σ2)
  2. When xN(μ,σ2) then cxN(cμ,c2σ2)

Together, these imply that xn,kN(0,cn,k22N2σ2). Now we work on the sum. We know that:

  1. When xnN(μn,σn2) then y=n=0N1xnN(n=0N1μn,n=0N1σn2)
  2. n=0N1cn,k2=N2

These imply that:

R{Vk}1N(0,n=0N1cn,k22N2σ2)=N(0,N22N2σ2=N(0,σ24N)

So we have shown that:

R{Vk}1N(0,σ24N)

Now we apply the same argument to R{Vk}2. Abusing our notation, we rewrite:

xn,k=1Nsin(2πnNk)I{vn}=1Nsn,kI{vn}

Repeating the same argument, and noting that the Gaussian is a symmetric distribution (so we can ignore the sign difference), gives us:

R{Vk}2N(0,σ24N)

Since n=0N1sn,k2=N2 as well. So therefore since R{Vk}=R{Vk}1+R{Vk}2, we get:

R{Vk}N(0,σ24N+σ24N)=N(0,σ22N)

So we have shown that:

R{Vk}N(0,σ22N)

By circular symmetry, we also know then that:

I{Vk}N(0,σ22N)

So since Vk=R{Vk}+jI{Vk}, we finally arrive at:

VkCN(0,σ2N)

Therefore taking the DFT divides the variance by the length of the DFT window -- assuming the window is rectangular of course -- which is the same result as in @DanielSank's answer.

The Dude
fonte
Why Sum of C(n,k)^2=N/2?
Hãi Ngô Thanh 17/03