Essa é outra dessas perguntas hipotéticas. Eu tenho tentado descobrir se ter ou não um 'segmento' mais rápido de uma rede entre o host A e o host B se traduzirá em uma taxa de fluxo mais rápida ou em uma latência menor entre eles. Deixe-me mostrar os links físicos na rede entre o computador A e o computador B:
host A (1000Base-T NIC) -> copper 1000Base-T link -> 1G copper switch ->
[SFP module] -> a short 10G/40G/100G fibre run -> [SFP module] ->
1G copper switch -> copper 1000Base-T link -> host B (1000Base-T NIC)
Em resumo, existe um link 1G do host A ao primeiro comutador, que possui um módulo SFP conectado a um curto 10G / 40G / 100G (realmente não importa, apenas mais rápido que 1G), que se conecta ao outro módulo SFP em outro comutador de cobre 1G, que é conectado via cobre 1G ao host B.
O tráfego flui mais rápido entre os dois hosts devido à fibra ser executada no meio? Ou a taxa de fluxo e a latência seriam as mesmas se a seção entre os dois comutadores tivesse a mesma velocidade que o resto da rede?
Faria sentido que a latência fosse menor entre o host A e o host B, mas a taxa de entrada e saída das NICs limitaria a taxa de fluxo, correto? Nesse caso, faz sentido conectar switches e roteadores 'principais' juntamente com links mais rápidos?
A velocidade do fluxo de dados não faz diferença na física do meio. Com isso, quero dizer que leva o mesmo tempo para um sinal elétrico fluir de um lado de uma corrida de cobre de 100 metros para o outro, não importa se esse sinal faz parte de um link de 10 Mbps ou 1 Gbps.
Se você mudar de cobre para fibra, poderá notar uma pequena melhoria, mas realmente deve ser apenas uma diferença marginal.
Agora, existem outros fatores que podem entrar em jogo, por exemplo, o equipamento que pode executar 10Gbps geralmente é mais capaz de processar os quadros / pacotes do que o equipamento projetado para executar 10Mbps; portanto, a latência adicionada pelo equipamento pode ser reduzida conforme bem. Mas isso depende inteiramente das capacidades do equipamento e não da velocidade do link.
fonte
Nesse caso, passar de 1G de ponta a ponta para um núcleo de 10G não deve mudar nada significativamente. Somente um aumento marginal na taxa de transferência viria da sinalização mais rápida (diminuição do tempo de bit) no link 10G +. Mas, na ausência de congestionamento (leia-se: outros hosts), eles deveriam ter conseguido saturar o link para começar.
O tempo que leva os hosts A e B para sinalizar (entrar e sair) um pacote não muda. O tempo que leva para o pacote passar de switch para switch é, em teoria, proporcionalmente mais rápido. No entanto, nessas velocidades, a diferença não é perceptível para um ser humano. (~ 10μs para pacote de 1500 mtu)
fonte
Como a taxa de transferência é = para o tamanho das janelas / RTT, qualquer coisa que reduza a RTT aumentaria a taxa de transferência, é uma questão diferente sobre se vale a pena. Quanto maior o tamanho da janela, maior o impacto na diminuição da RTT.
fonte
Depende.
Em uma rede inativa, isso depende de os dispositivos de comutação serem "armazenados e encaminhados" ou "cortados". Se os dispositivos de comutação forem armazenados e encaminhados, os links mais rápidos significarão menor latência. No entanto, se eles suportarem comutação de corte, uma latência extra será introduzida, pois não é possível fazer a troca de um link de entrada mais lento para um link de saída mais rápido. No entanto, a menos que você esteja jogando no mundo das negociações de alta frequência ou similar, isso provavelmente será insignificante de qualquer maneira.
Em uma rede prática, ter mais capacidade no núcleo diminui a chance de encontrar congestionamentos de outros usuários. O congestionamento reduz a taxa de transferência e aumenta a latência. Em geral, é bom que os links principais sejam mais rápidos que os links do usuário final, para que nenhum usuário final possa saturá-los (portanto, se você estiver executando gigabit na área de trabalho, provavelmente deverá executar um núcleo de 10 gigabit).
fonte