editar: minha resposta cobre apenas a pergunta original não editada, que era se esse tipo de coisa é típica em balanceadores de carga / proxies reversos. Não tenho certeza se o nginx / produto X tem suporte para isso, 99,9% da minha experiência de proxy reverso é com o HAproxy.
Corrigir. HTTP Keep-Alive no lado do cliente, mas não no lado do servidor.
Por quê?
Se você detalhar alguns detalhes, poderá ver rapidamente por que isso é um benefício. Neste exemplo, vamos fingir que estamos carregando uma página www.example.com e essa página inclui 3 imagens, img [1-3] .jpg.
Navegador carregando uma página, sem o Keep-Alive
- O cliente estabelece uma conexão TCP com www.example.com na porta 80
- O cliente faz uma solicitação HTTP GET para "/"
- O servidor envia o conteúdo HTML do URI "/" (que inclui tags HTML que referenciam as 3 imagens)
- Servidor fecha a conexão TCP
- O cliente estabelece uma conexão TCP com www.example.com na porta 80
- O cliente faz uma solicitação HTTP GET para "/img1.jpg"
- Servidor envia a imagem
- Servidor fecha a conexão TCP
- O cliente estabelece uma conexão TCP com www.example.com na porta 80
- O cliente faz uma solicitação HTTP GET para "/img2.jpg"
- Servidor envia a imagem
- Servidor fecha a conexão TCP
- O cliente estabelece uma conexão TCP com www.example.com na porta 80
- O cliente faz uma solicitação HTTP GET para "/img3.jpg"
- Servidor envia a imagem
- Servidor fecha a conexão TCP
Observe que existem 4 sessões TCP separadas estabelecidas e fechadas.
Navegador carregando uma página com o Keep-Alive
O HTTP Keep-Alive permite que uma única conexão TCP atenda a várias solicitações HTTP, uma após a outra.
- O cliente estabelece uma conexão TCP com www.example.com na porta 80
- O cliente faz uma solicitação HTTP GET para "/" e também pede ao servidor para fazer desta uma sessão HTTP Keep-Alive.
- O servidor envia o conteúdo HTML do URI "/" (que inclui tags HTML que referenciam as 3 imagens)
- O servidor não fecha a conexão TCP
- O cliente solicita e HTTP GET solicita "/img1.jpg"
- Servidor envia a imagem
- O cliente solicita e HTTP GET solicita "/img2.jpg"
- Servidor envia a imagem
- O cliente solicita e HTTP GET solicita "/img3.jpg"
- Servidor envia a imagem
- O servidor fecha a conexão TCP se nenhuma solicitação HTTP for recebida dentro do período de tempo limite HTTP Keep-Alive
Observe que, com o Keep-Alive, apenas 1 conexão TCP é estabelecida e, eventualmente, fechada.
Por que o Keep-Alive é melhor?
Para responder a isso, você deve entender o que é necessário para estabelecer uma conexão TCP entre um cliente e um servidor. Isso é chamado de handshake de 3 vias TCP.
- O cliente envia um pacote SYN (cronização)
- O servidor envia de volta um SYN (cronograma) ACK (aviso), SYN-ACK
- O cliente envia um pacote ACK (compromisso)
- A conexão TCP agora é considerada ativa pelo cliente e pelo servidor
As redes têm latência; portanto, cada etapa do handshake de três vias leva um certo tempo. Digamos que haja 30ms entre o cliente e o servidor, o envio e recebimento de pacotes IP necessários para estabelecer a conexão TCP significa que são necessários 3 x 30ms = 90ms para estabelecer uma conexão TCP.
Isso pode não parecer muito, mas se considerarmos que em nosso exemplo original, precisamos estabelecer 4 conexões TCP separadas, isso se torna 360 ms. E se a latência entre o cliente e o servidor for 100ms em vez de 30ms? Em seguida, nossas 4 conexões estão levando 1200ms para serem estabelecidas.
Pior ainda, uma página da Web típica pode exigir muito mais do que apenas três imagens para carregar, pode haver vários CSS, JavaScript, imagem ou outros arquivos que o cliente precisa solicitar. Se a página carregar 30 outros arquivos e a latência cliente-servidor for 100ms, quanto tempo gastamos para estabelecer conexões TCP?
- Para estabelecer 1 conexão TCP, é necessário 3 x latência, ou seja, 3 x 100ms = 300ms.
- Devemos fazer isso 31 vezes, uma vez para a página e outras 30 vezes para o outro arquivo referenciado pela página. 31 x 300ms = 9,3 segundos.
9,3 segundos para estabelecer conexões TCP para carregar uma página da Web que faz referência a outros 30 arquivos. E isso nem conta o tempo gasto enviando solicitações HTTP e recebendo respostas.
Com o HTTP Keep-Alive, precisamos estabelecer apenas 1 conexão TCP, que leva 300ms.
Se o HTTP Keep-Alive é tão bom, por que não usá-lo também no lado do servidor?
Os proxies HTTP reversos (como o HAproxy) geralmente são implantados muito perto dos servidores backend para os quais estão fazendo proxy. Na maioria dos casos, a latência entre o proxy reverso e seus servidores de back-end será inferior a 1 ms; portanto, estabelecer uma conexão TCP é muito mais rápido do que entre um cliente.
Essa é apenas metade do motivo. Um servidor HTTP aloca uma certa quantidade de memória para cada conexão do cliente. Com o Keep-Alive, ele mantém a conexão ativa e, por extensão, mantém uma certa quantidade de memória em uso no servidor, até que o tempo limite do Keep-Alive seja atingido, o que pode levar até 15 segundos, dependendo da configuração do servidor. .
Portanto, se considerarmos os efeitos do uso do Keep-Alive no lado do servidor de um proxy reverso HTTP, aumentaremos a necessidade de memória, mas como a latência entre o proxy e o servidor é muito baixa, não obtemos nenhum benefício real do redução do tempo necessário para o handshake de três vias do TCP; portanto, é geralmente melhor desativar o Keep-Alive entre o proxy e o servidor da Web nesse cenário.
Isenção de responsabilidade: sim, esta explicação não leva em conta o fato de que os navegadores normalmente estabelecem várias conexões HTTP com um servidor em paralelo. No entanto, há um limite para quantas conexões paralelas um navegador fará com o mesmo host e, normalmente, isso ainda é pequeno o suficiente para tornar a manutenção ativa desejável.
O Nginx suporta o keep-alive dos dois lados.
fonte