Os segmentos mais rápidos de uma rede significam vazão mais rápida ou latência mais baixa?

12

Essa é outra dessas perguntas hipotéticas. Eu tenho tentado descobrir se ter ou não um 'segmento' mais rápido de uma rede entre o host A e o host B se traduzirá em uma taxa de fluxo mais rápida ou em uma latência menor entre eles. Deixe-me mostrar os links físicos na rede entre o computador A e o computador B:

host A (1000Base-T NIC) -> copper 1000Base-T link -> 1G copper switch -> 
[SFP module] -> a short 10G/40G/100G fibre run -> [SFP module] ->
1G copper switch -> copper 1000Base-T link -> host B (1000Base-T NIC)

Em resumo, existe um link 1G do host A ao primeiro comutador, que possui um módulo SFP conectado a um curto 10G / 40G / 100G (realmente não importa, apenas mais rápido que 1G), que se conecta ao outro módulo SFP em outro comutador de cobre 1G, que é conectado via cobre 1G ao host B.

O tráfego flui mais rápido entre os dois hosts devido à fibra ser executada no meio? Ou a taxa de fluxo e a latência seriam as mesmas se a seção entre os dois comutadores tivesse a mesma velocidade que o resto da rede?

Faria sentido que a latência fosse menor entre o host A e o host B, mas a taxa de entrada e saída das NICs limitaria a taxa de fluxo, correto? Nesse caso, faz sentido conectar switches e roteadores 'principais' juntamente com links mais rápidos?

Libbux
fonte

Respostas:

13

Nem mesmo. Substituir um link de cobre por um link de fibra pode diminuir um pouco a latência (assumindo um link não-interessado), mas o que você realmente obtém quando substitui um link "principal" por um link de largura de banda maior é um congestionamento menos possível. No seu cenário de exemplo, isso não importa, porque existe apenas um dispositivo em cada extremidade. Em uma rede ativa, porém, a mudança de links principais de 1g para 10g facilitará os problemas de congestionamento no núcleo da rede.

Agora, como efeito colateral, você pode obter menor latência e melhor fluxo de tráfego, mas isso se deve apenas ao alívio do congestionamento, para que os roteadores / switches não sejam sobrecarregados e eliminem / deixem o tráfego na fila.

Justin Seabrook-Rocha
fonte
Portanto, aumentar a velocidade dos links no núcleo da rede aumenta a capacidade, não a velocidade.
Libbux
4
Basicamente sim. A "velocidade" na linguagem das redes não é tão rápida quanto é, mas quantos bits por segundo você pode enviar por um link. Latência / RTT geralmente é uma questão da distância total combinada com o número de dispositivos no caminho. Cada salto / dispositivo adiciona uma pequena quantidade de latência. A "rapidez" é basicamente a física e a velocidade da luz.
Justin Seabrook-Rocha
O ponto principal é que os bits viajam na mesma velocidade - era exatamente isso que eu estava pensando.
Libbux
2
Também vou mencionar que tudo isso acontece pela janela quando você entra no país do comércio financeiro. Nesse mundo, a RTT é rei. Até microssegundos de RTT são importantes, o que os leva a fazer todo tipo de coisa boba, como mover a estação de trabalho 100 pés para mais perto do servidor e reduzir a queda de fibra.
Justin Seabrook-Rocha
7
Enquanto o sinal viaja na mesma taxa, independentemente de ser 100M, 1GE ou 10GE, o atraso de serialização (tempo necessário para injetar o quadro no fio) diminui à medida que a taxa aumenta. Ou seja, se você enviar um quadro no atraso de serialização de 100M para 1538B for 0,123ms, no 1GE esse quadro já estará 21 km abaixo da fibra.
ytti
6

A velocidade do fluxo de dados não faz diferença na física do meio. Com isso, quero dizer que leva o mesmo tempo para um sinal elétrico fluir de um lado de uma corrida de cobre de 100 metros para o outro, não importa se esse sinal faz parte de um link de 10 Mbps ou 1 Gbps.

Se você mudar de cobre para fibra, poderá notar uma pequena melhoria, mas realmente deve ser apenas uma diferença marginal.

Agora, existem outros fatores que podem entrar em jogo, por exemplo, o equipamento que pode executar 10Gbps geralmente é mais capaz de processar os quadros / pacotes do que o equipamento projetado para executar 10Mbps; portanto, a latência adicionada pelo equipamento pode ser reduzida conforme bem. Mas isso depende inteiramente das capacidades do equipamento e não da velocidade do link.

YLearn
fonte
5

Nesse caso, passar de 1G de ponta a ponta para um núcleo de 10G não deve mudar nada significativamente. Somente um aumento marginal na taxa de transferência viria da sinalização mais rápida (diminuição do tempo de bit) no link 10G +. Mas, na ausência de congestionamento (leia-se: outros hosts), eles deveriam ter conseguido saturar o link para começar.

O tempo que leva os hosts A e B para sinalizar (entrar e sair) um pacote não muda. O tempo que leva para o pacote passar de switch para switch é, em teoria, proporcionalmente mais rápido. No entanto, nessas velocidades, a diferença não é perceptível para um ser humano. (~ 10μs para pacote de 1500 mtu)

Ricky Beam
fonte
Será que, digamos, um link de 100G entre switches faria uma diferença notável?
Libbux
Eles já podem mais do que saturar seu link local, então não. Com um equipamento de teste sensível, você pode medir a alteração na latência por pacote, mas isso não fará com que os links de um gig sejam mais rápidos. :-) Dito isso, o benefício real é evitar congestionamentos quando houver mais do que apenas host A e B usando o link.
Ricky feixe
0

Como a taxa de transferência é = para o tamanho das janelas / RTT, qualquer coisa que reduza a RTT aumentaria a taxa de transferência, é uma questão diferente sobre se vale a pena. Quanto maior o tamanho da janela, maior o impacto na diminuição da RTT.

fredpbaker
fonte
1
com uma janela de 128k, 1G de ponta a ponta seria ~ 3.5G / s. com um link de 10G no meio, esse número salta para ~ 5G / s. Você notará que os dois números estão bem acima da velocidade do link do host, portanto não seria perceptível.
Ricky feixe
0

Depende.

Em uma rede inativa, isso depende de os dispositivos de comutação serem "armazenados e encaminhados" ou "cortados". Se os dispositivos de comutação forem armazenados e encaminhados, os links mais rápidos significarão menor latência. No entanto, se eles suportarem comutação de corte, uma latência extra será introduzida, pois não é possível fazer a troca de um link de entrada mais lento para um link de saída mais rápido. No entanto, a menos que você esteja jogando no mundo das negociações de alta frequência ou similar, isso provavelmente será insignificante de qualquer maneira.

Em uma rede prática, ter mais capacidade no núcleo diminui a chance de encontrar congestionamentos de outros usuários. O congestionamento reduz a taxa de transferência e aumenta a latência. Em geral, é bom que os links principais sejam mais rápidos que os links do usuário final, para que nenhum usuário final possa saturá-los (portanto, se você estiver executando gigabit na área de trabalho, provavelmente deverá executar um núcleo de 10 gigabit).

Peter Green
fonte