Melhorando o SNR usando técnicas DSP

14

Estou construindo um sistema óptico OOK (On off Key Ring) sem uma frequência de operadora. [No entanto, eu tenho um tempo de guarda entre os símbolos; portanto, mensagens consecutivas "1" resultam em um trem de pulsos em oposição a DC, veja a imagem]. Essencialmente, a presença do sinal indica um e a falta dele indica zero. Eu tenho um relógio preciso que sincroniza o receptor com o transmissor. O sistema opera com um SNR baixo e eu gosto de melhorar o SNR usando técnicas DSP.

Eu tenho algumas perguntas:

Eu faço amostragens seletivas no meu hardware, ou seja, não amostro continuamente o canal, mas apenas amostro quando a probabilidade de ver o sinal é máxima (isto é, um pulso de luz, cronometro o ADC de maneira que as amostras do ADC no final do pulso onde eu sei que toda a cadeia analógica está estabilizada). Veja a imagem. insira a descrição da imagem aqui

Naturalmente, este desenho não mostra o ruído, mas está lá. Este é particularmente um sistema de sinal baixo e as fontes de ruído primário são ruído de tiro, ruído johnson e ruído interno dos amplificadores. (sistema óptico, para que não haja outro interferente, exceto a Sun). Minha observação do ruído indica que é semelhante em todas as frequências. (Pelo menos o que vejo no escopo)

Agora, uso uma comparação simples de limite no software para determinar se os dados são um ou zero. Existe uma maneira melhor? Pensei em algumas opções, mas gosto de ouvir os especialistas.

Até agora, considerei as seguintes opções:

  • Faça ADC contínuo e tente se integrar durante o tempo de subida: Não tenho certeza absoluta do benefício (pode haver outros benefícios, eu não sei).

  • Filtro correspondente no software: realmente não entendo a matemática, mas com base no que li, uma possibilidade

  • Amostra durante o tempo de guarda e subtrai-o do valor ADC do sinal (Isso pode fornecer alguns detalhes adicionais, mas também não tão certo, o tempo de guarda seria a medição do ruído)

  • Mude o hardware para um decodificador síncrono, dispendioso, demorado e pode não funcionar bem, pois minha taxa de dados é rápida e obter um desmodulador síncrono significaria uma placa cara, já que eu tenho que construir um sistema de frequência portadora de vários MHz.

Frank
fonte
Como o seu amostrador sabe quando os pulsos vão ocorrer? Existe alguma outra forma de sincronização de tempo entre o transmissor e o receptor?
Jason R
@JasonR yes. É mencionado no texto.
Frank
1
Desculpe, eu perdi durante a minha leitura inicial. Como o barulho é caracterizado? É branco? Gaussiano? É mesmo ruído, ou é interferência de alguma outra fonte? Como observação, eu consideraria as duas primeiras opções listadas como equivalentes e elas podem ser relevantes para o seu problema, mas eu queria obter mais informações sobre as condições do seu sistema primeiro.
Jason R
@ JasonR obrigado pelo feedback, atualizei a pergunta sobre o ruído.
Frank
Eu colocaria algumas apostas sérias em um filtro correspondente.
Phonon

Respostas:

9

Como você indicou que o espectro de potência do seu ruído de fundo é plano, presumo que seja branco . Uma grande desvantagem da sua abordagem atual é que você está descartando uma grande quantidade da potência do sinal; mesmo com o efeito de limitação de banda do front-end mostrado no diagrama pela resposta da etapa de aumento exponencial, uma única amostra de ADC próxima ao final do pulso arredondado fornece uma captura instantânea da entrada do receptor que é bastante localizada no tempo. Você pode tirar proveito de mais potência do sinal amostrando em uma taxa mais alta e aplicando um filtro correspondente na taxa de amostragem mais alta.

Teoria:

Você pode ver isso como um problema relativamente simples na teoria de detecção . Em cada intervalo de símbolo, seu receptor precisa decidir entre duas hipóteses:

H0:signal is not presentH1:signal is present

Esse tipo de problema geralmente é resolvido usando regras de decisão bayesianas , que tentam tomar a decisão ideal de acordo com alguma medida de risco especificada. Isso fornece uma estrutura em que é possível otimizar as decisões de detecção com base em um conjunto flexível de critérios. Por exemplo, se houver uma grande penalidade em seu sistema por não detectar o sinal se ele estiver realmente presente (por exemplo, você escolher quando H 1 for verdadeiro), poderá incorporá-lo à sua regra de decisão, se necessário.H0H1

Para um problema de detecção como o seu, em que você está tentando decidir entre zeros e outros na saída do receptor, a penalidade normalmente é assumida como sendo igual (gerar um zero quando um foi transmitido e vice-versa, "machuca igualmente"). ) A abordagem bayesiana nesse caso se reduz a um estimador de probabilidade máxima (também descrito aqui ): você escolhe a hipótese que é mais provável, considerando a observação que o seu receptor faz. Ou seja, se a quantidade que seu receptor observa for , isso geraria uma decisão com base na hipótese que possui o maior valor de função de probabilidade . Para o caso de decisão binária, a razão de verossimilhança pode ser usada:x

Λ(x)=P(x | H0 is true)P(x | H1 is true)=P(x | signal is not present)P(x | signal is present)

Usando o modelo acima, para cada observação do canal , o receptor ideal decidiria que o sinal não estava presente (portanto, emitindo um zero) se a razão de verossimilhança Λ ( x ) for maior que um (e, portanto, o sinal era mais provável não estar presente com base na observação) e vice-versa.xΛ(x)

O que resta é um modelo para o sinal de interesse e quaisquer outros componentes na estatística de detecção do receptor que possam afetar suas decisões. Para uma comunicação digital como essa, ela pode ser modelada da seguinte maneira:x

H0:x=NH1:x=s+N

onde é uma variável aleatória retirada de alguma distribuição (geralmente assumida como sendo gaussiana com média zero) es é um componente determinístico da observação devido ao sinal que você está procurando. A distribuição do receptor observável x , portanto, varia dependendo se a hipótesensx ou H 1 é verdadeira. Para avaliar a taxa de probabilidade, você precisa de um modelo para o que são essas distribuições. Para o caso gaussiano mencionado acima, a matemática é assim:H0H1

Λ(x)=P(x | H0 is true)P(x | H1 is true)=P(x | x=N)P(x | x=s+N)

Λ(x)=P(x | H0 is true)P(x | H1 is true)=ex22σ2e(xs)22σ2

onde é a variação do termo de ruído gaussiano. Observe que o componente de sinal aditivo tem apenas a função de alterar a média da distribuição gaussiana resultante de x . A razão de log-verossimilhança pode ser usada para se livrar dos exponenciais:σ2x

ln(Λ(x))=ln(ex22σ2e(xs)22σ2)=(x22σ2)((xs)22σ2)

Lembre-se de que nossa regra de decisão selecionou se a taxa de probabilidade fosse maior que um. A regra de decisão de probabilidade de log equivalente é escolher H 0 se a probabilidade de log for maior que zero. Alguma álgebra mostra que a regra de decisão se reduz a:H0H0

x<s2choose H0x>s2choose H1

Observe que se x=s2sT=s2xT

Prática:

s of the signal that you're looking for, so threshold selection requires some thought.

As I referenced before, noise is often assumed to be Gaussian because the normal distribution is so easy to work with: the sum of a bunch of independent Gaussians is still Gaussian, and their mean and variances just add also. Also, the first- and second-order statistics of the distribution are enough to completely characterize them (given the mean and variance of a Gaussian distribution, you can write its pdf). So, hopefully that's a decent approximation at least for your application.

There are two ways to improve the performance of the detector given the model described above: you can increase s (i.e. increase the signal power), making it stand out more against the noise. You could decrease N (i.e. reduce the amount of noise), reducing the amount of interference that makes the presence of s unclear. Or, equivalently, you can think of the signal to noise ratio instead. To see its importance, let's go back to the theory for a second. What is the probability of a bit error given our decision rule?

Pe=P(choose H0 | H1 true)P(H1 true)+P(choose H1 | H0 true)P(H0 true)=12P(x<s2 | x=s+N)+12P(x>s2 | x=N)=12Fx | x=s+N(s2)+12(1Fx | x=N(s2))

where Fx | x=s+N(z) is the cumulative distribution function of the distribution of the observation x, given that x=s+N (and likewise for the other function). Substituting in the cdf for the Gaussian distribution, we get:

Pe=12(1Q(s2sσ))+12Q(s2σ)=12+12(Q(s2sσ)+Q(s2σ))=12+12(Q(s2σ)+Q(s2σ))=12+12(Q(SNR2)+Q(SNR2))=Q(SNR2)

where Q(x) is the Q function:

Q(x)=12πxez22dz

(i.e. the tail integral of the standard normal distribution's pdf, or 1 minus the distribution's cdf) and SNR is the signal-to-noise ratio sσ. The above function is a strictly decreasing function of SNR; as you increase the ratio of the signal amplitude s to the noise standard deviation σ, the probability of making a bit decision error decreases. So, it behooves you to do whatever you can to increase this ratio.

Remember our assumption that the noise was white and Gaussian? That can help us now. If the noise is white and Gaussian, then the noise components contained in each observation are jointly independent of one another. An important property of independent random variables is that when you sum them together, their means and variances sum. So, let's consider another simple case, where instead of taking one sample per symbol interval, you take two, then sum them together. I'll assume for simplicity that the pulse shape is rectangular (not an exponential rise), so the signal component s in each observation x1 and x2 is the same. What is the difference in signal to noise ratio between just a single observation x1 and the sum of two independent ones?

SNR1=sσ

SNR2=2s2σ=2SNR1

So, the signal to noise ratio in the combined observation is larger than using only a single sample (under the assumption of equal signal component and equal-variance white Gaussian noise in both samples that we took). This is a basic observation that points out the potential benefits of taking more than one sample per symbol interval and integrating them together (which, for a rectangular pulse, is a matched filter). In general, you want to cover the entire symbol interval with samples so that your receiver "ingests" as much of the transmitted energy for each symbol, thus maximizing the SNR in the combined output. The ratio of symbol energy to the background noise variance EsN0 is often used as a figure of merit when evaluating digital communications system performance.

More rigorously, it can be shown that a matched filter has an impulse response that is identical in shape (that is, "matched", with the only subtle exception being that the impulse response is reversed in time) to the pulse shape that the receiver sees (so it weights more strongly samples that have larger signal components). That shape is a function of the transmitted pulse shape as well as any effects induced by the channel or receiver front end, such as bandlimiting or multipath.

To implement this sort of arrangement in practice, you would convolve the stream of samples taken by your ADC with the time-reversed expected pulse shape. This has the effect of calculating the cross-correlation between the pulse shape and the received signal for all possible time offsets. Your implementation is aided by the precise time synchronization that you have available, so you'll know exactly which matched filter output samples correspond to correct sampling instants. The filter outputs at those times are used as the detection statistic x in the theoretical model above.

I referred to threshold selection before, which can be a complicated topic, and there are many different ways that you can choose one, depending upon your system's structure. Selecting a threshold for an on-off-keyed system is complicated by the likely-unknown signal amplitude s; other signal constellations, like antipodal signaling (e.g. binary phase shift keying, or BPSK) have a more obvious threshold choice (for BPSK, the best threshold is zero for equally-likely data).

One simple implementation of a threshold selector for OOK might calculate the mean of many observations. Assuming that zeros and ones are equally likely, the expected value of the resulting random variable is half of the signal amplitude, which is the threshold that you seek. Performing this operation over a sliding window can allow you to be somewhat adaptive to varying background conditions.

Note that this is only intended to be a high-level introduction to the issues inherent in digital communications with respect to detection theory. It can be a very complicated topic, with a lot of statistics involved; I tried to make it somewhat easy to understand while keeping true to the underlying theory. For a better explanation, go get a good textbook, like Sklar's.

Jason R
fonte
thanks for the detailed answer, I learned a lot from it. I like to ask a few clarifications. I get the point of more than 1 sample at the duration. In this case how a matched filter look like? Say, I have three samples x1,x2,x3 (x3 at the tail end and x1 at the beginning). Based on what I read, I must convolve this with a same but symmetrical shape signal. Can you perhaps explain this part? [I think I know the answer but just to make sure] Second part, I know what is the dynamic range of incoming signal would be as I have taken measurements. Can I use that range for threshold setting?
Frank
A matched filter is a way of implementing a sliding cross-correlation between the signal seen by your receiver and the expected pulse shape. The diagram shown in your question illustrates the pulse seen by the ADC as an exponential rise; if that is indeed your model for what the receiver sees, then the appropriate matched filter would have the same shape, only reversed in time (the time reversal turns the convolution operation into correlation). If the receiver front end doesn't appreciably distort the pulse, you could use an "ideal" rectangular matched filter, which is simpler to implement.
Jason R
As to your second question: yes, if you know a priori the expected amplitude of the signal component, then you can use that to select a threshold. Using the statistical model for the system (based on the type of noise that is present), you can calculate the bit error rate as a function of the signal to noise ratio (which is proportional to the signal amplitude). If the thermal noise of your receiver is the dominant source, then white Gaussian noise is usually a good assumption.
Jason R
My receiver has a BPF that cuts the high frequency signals. The BPF rounds off the initial spike of the pulse and it becomes a more exponential in nature. I can disable the BPF but this will introduce HF noise currently not in the chain. It sounds like I have a tradeoff, how can I quantify which way is better. (i.e remove BPF and use matched filter for a pulse, don't remove BPF and use a matched filter for a exponential rise)
Frank
I awarded the bounty to you, thanks very much for a great answer.
Frank
0

One possible technique might be to try using periodic training sequences to gather statistics, not only to differentiate between the 1's and 0's, or to calculate a reliability metric for any given threshold, but to analyze how various bit sequences might affect an adaptive bit decision threshold.

hotpaw2
fonte
interesting thinking but not suitable. I need to make a decision fast and even if I work with previous data, variation in the field would be large.
Frank