A explicação de que o equipamento digital leva mais tempo para se propagar? Por exemplo, uma síntese de software é muito lenta em comparação com uma síntese de hardware.
Suponho que você não esteja aludindo a uma discussão filosófica mais profunda sobre informação, poder e entropia, mas está apenas interessado nos aspectos práticos.
Em termos simples, os circuitos digitais precisam medir a entrada, digitalizá-la, executá-la através de algum tipo de processamento e depois transformar a saída em sinal elétrico novamente. Os circuitos digitais não podem manipular diretamente os sinais elétricos analógicos. Você possui inerentemente latência extra devido à conversão do sinal.
Você pode parar de ler aqui se isso respondeu à sua pergunta.
De um ponto de vista mais filosófico / físico, em quase todos os circuitos você realmente não está tentando manipular energia elétrica (é o que a eletrônica de potência faz), mas você está tentando manipular informações. Nesse caso, tecnicamente não é verdade que o analógico seja mais rápido que o digital. Por quê? Bem, os caminhos de sinal analógico são processadores de informação não-ortogonais: não existe um opamp perfeito ou um buffer perfeito, tudo tem efeitos parasitas dos quais você precisa filtrar ou se livrar. Especialmente em velocidades muito altas, torna-se um problema real até construir um fio que transfere uma tensão de maneira confiável. O processamento digital desacopla o aspecto elétrico da informação: depois de digitalizar suas entradas, o sinal existe como uma forma muito pura de informação.
Mesmo que você seja penalizado com dois estágios de conversão, entre o ADC e o DAC, você pode empregar muitos truques de processamento para acelerar a velocidade de processamento e geralmente superar amplamente o desempenho de qualquer processador de sinal puramente analógico. Um ótimo exemplo disso é a revolução dos modems digitais nos telefones celulares, que agora operam muito perto do limite teórico do processamento de informações (dezenas de requisitos de energia pJ / bit), enquanto há pouco tempo os modems GSM puramente analógicos exigiam ordens de magnitude mais área de silício e acho que 5 ou 6 ordens de magnitude mais energia de processamento.
Os processos digitais inerentemente adicionam uma certa quantidade de latência, já que um evento que ocorre entre dois ciclos de clock não pode ser processado até o próximo e, para evitar problemas com eventos que acontecem muito perto dos limites do ciclo de clock, as coisas geralmente são projetadas para que os eventos não terão efeito até o segundo ciclo do relógio após eles (tentar decidir rapidamente se um evento ocorreu antes ou depois de um limite do ciclo do relógio é muitas vezes surpreendentemente difícil, mesmo se as chamadas fechadas puderem ser decididas com segurança de qualquer maneira; ser capaz de adiar o decisão por um ciclo de relógio extra facilita muito as coisas). No entanto, isso geralmente é apenas uma pequena parte da latência observada em muitos sistemas digitais.
Um fator maior na latência do sistema digital gira em torno do fato de que, por várias razões, muitos sistemas são capazes de processar grandes quantidades de dados com mais eficiência do que as pequenas. Por exemplo, embora fosse possível gravar um fluxo de dados de áudio estéreo de 44KHz interrompendo o processador 88.200 vezes / segundo, isso exigiria que o processador parasse o que estava fazendo 88.200 vezes / segundo, salve todos os seus registros, mude para a interrupção contexto, pegue a amostra, volte, etc. Mesmo que a entrada e a saída da interrupção levem apenas um microssegundo cada, o sistema gastaria 22% do tempo entrando e saindo da interrupção, em vez de fazer algo útil. Se o sistema usar o hardware para armazenar em buffer grupos de 512 amostras (256 de cada canal) e notificar o processador quando cada grupo estiver pronto,
Observe que a captura de grupos de 256 amostras por canal pode não parecer muito atrasada (são cerca de 6 ms), se o sinal passar por vários dispositivos e cada um induzir esse atraso, os atrasos poderão aumentar. Além disso, se algum dos estágios pelo qual o sinal passa usa algum tipo de compartilhamento de tempo variável, os atrasos podem ser variáveis. Passar dados de áudio em tempo real através de um canal que às vezes apresentava um atraso maior do que em outros momentos causava um "warbling" ou "garbling" perceptível toda vez que o atraso era alterado. Para evitar isso, alguns sistemas marcam blocos de dados de áudio com um carimbo de data / hora indicando quando eles foram capturados e mantêm o destinatário final dos dados digitais que os converterão novamente em formato analógico até que um certo período de tempo tenha decorrido desde que eles foram capturados. . Se o destinatário final o atrasar até um segundo após a captura, as variações no atraso em diferentes partes da jornada não afetarão a saída, a menos que totalizem mais de um segundo. Se alguém descobrir que atrasos aleatórios na transmissão serão frequentes, mas atrasos maiores serão raros, aumentando o atraso antes da saída do destinatário final, o áudio reduzirá a frequência de interrupções audíveis, mas também significa que o som não será emitido tão cedo como poderia ter.
Além disso, os sistemas digitais tendem a ter clock - na verdade, quantificando o tempo, o que significa que os eventos digitais não se propagam até a próxima hora.