Você pula uma unidade de rack entre servidores?

70

Parece que há muita discordância nas mentalidades quando se trata de instalar servidores montados em rack. Houve tópicos discutindo braços de cabos e outros acessórios para montagem em rack, mas estou curioso:

Você deixa uma unidade de rack vazia entre seus servidores quando os instala? Por que ou por que não? Você tem alguma evidência empírica para apoiar suas idéias? Alguém conhece um estudo que prova conclusivamente se alguém é melhor ou não?

Matt Simmons
fonte

Respostas:

81

Se seus servidores usarem o resfriamento direto e reverso, como a maioria dos servidores montados em rack, deixar lacunas poderá prejudicar o resfriamento. Você não quer que o ar frio chegue ao corredor quente, exceto pelo próprio servidor. Se você precisar deixar lacunas (por questões de energia, questões de peso do piso, etc.), use painéis em branco para que o ar não possa passar entre os servidores.

jj33
fonte
6
Sim, se você deixar um espaço, precisará preenchê-lo com um painel para evitar isso.
Thomas
2
= 1. Os servidores e racks para montagem em rack são projetados para o fluxo de ar com todos os painéis e molduras ligados e todos os u's preenchidos. muito parecido com o fluxo de ar em um PC, projetado para ter todas as capas. contornar o design deixando lacunas e \ ou removendo painéis e tampas provavelmente causará mais danos do que benefícios.
joeqwerty
23

Nunca pulei unidades de rack entre dispositivos montados em rack em um gabinete. Se um fabricante me instruiu a pular U's entre dispositivos, eu o faria, mas nunca vi essa recomendação.

Eu esperaria que qualquer dispositivo projetado para montagem em rack esgotasse seu calor pelos painéis frontal ou traseiro. Um pouco de calor será conduzido através dos trilhos, na parte superior e inferior do chassi, mas eu esperaria que isso fosse muito pequeno em comparação com a radiação da frente e da parte traseira.

Evan Anderson
fonte
6
De fato, se você estiver pulando unidades de rack, precisará usar tampas entre cada servidor, caso contrário, haverá mistura de ar entre os corredores alto e frio.
Doug Luxem
22

Em nosso data center, não deixamos lacunas. Temos ar fresco saindo do chão e lacunas causam problemas no fluxo de ar. Se temos uma lacuna por algum motivo, cobrimos com uma placa em branco. A adição de placas em branco imediatamente tornou a parte superior dos nossos corredores frios mais frios e os nossos corredores quentes mais quentes.

Acho que não tenho mais os dados ou gráficos, mas a diferença ficou muito clara assim que começamos a fazer alterações. Os servidores no topo das prateleiras pararam de superaquecer. Paramos de cozinhar fontes de alimentação (o que estávamos fazendo a uma taxa de cerca de 1 / semana). Sei que as mudanças foram iniciadas depois que nosso gerente de data center voltou de uma exposição de data center verde da Sun, onde participou de alguns seminários sobre refrigeração e coisas do gênero. Antes disso, tínhamos usado lacunas e racks parcialmente cheios e ladrilhos perfurados no chão, na frente e atrás das prateleiras.

Mesmo com os braços de gerenciamento em vigor, eliminar as lacunas funcionou melhor. Todas as temperaturas internas do servidor em todos os lugares da sala agora estão dentro das especificações. Este não foi o caso antes de padronizarmos nosso gerenciamento de cabos e eliminar as lacunas e corrigir o posicionamento do piso. Gostaríamos de fazer mais para direcionar o ar quente de volta às unidades da CRAC, mas ainda não podemos obter financiamento.

Laura Thomas
fonte
9

Eu não pulo. Alugamos e nós custamos dinheiro.

Não há razão para aquecer nos dias de hoje. Todo o ar frio vem na frente e nas costas. Não há mais orifícios de ventilação nos topos.

Mrdenny
fonte
11
Re: "Nós custam dinheiro." Costumo pensar que o espaço foi um fator importante nos preços dos datacenters. Então, eu consegui um emprego no setor de hospedagem, a maioria dos custos em um ambiente Colo são provenientes de circuitos de força e conexões cruzadas.
precisa saber é o seguinte
6

O Google não está deixando U entre servidores, e eu acho que eles estão preocupados com o gerenciamento de calor. Sempre interessante observar como grandes jogadores fazem o trabalho. Aqui está um vídeo de um de seus datacenters: http://www.youtube.com/watch?v=zRwPSFpLX8I&feature=player_embedded

Vá diretamente para 4:21 para ver seus servidores.

Mathieu Chateau
fonte
5

Não deixe espaço se houver ar fresco saindo do chão e use espaços em branco no espaço não utilizado. Se você tiver apenas um sistema de refrigeração de baixa tecnologia usando uma unidade de ar-condicionado padrão, é melhor deixar lacunas para minimizar os pontos de acesso quando você tiver servidores quentes agrupados.


fonte
4
Se os seus servidores usarem o resfriamento da parte frontal para a parte traseira, não é prudente deixar lacunas, isso prejudicará o fluxo de ar.
pauska
5

Temos três racks e meio de nós de cluster e seu armazenamento em uma instalação de colocation. Os únicos lugares em que pulamos os U's são onde precisamos rotear o cabeamento de rede para o rack central onde o switch do cluster principal está localizado. Podemos nos dar ao luxo de fazer isso em termos de espaço, já que os racks já estão maximizados em termos de potência, para que não seja possível adicionar mais nós a eles :)

Essas máquinas rodam 24 horas por dia, 7 dias por semana, com 100% da CPU, e algumas têm até 16 núcleos em uma caixa de 1U (4x quad core Xeons) e ainda não vi efeitos negativos de não deixar espaços entre a maioria deles.

Desde que o seu equipamento tenha um caminho aéreo bem projetado, não vejo por que isso importaria.

Kamil Kisiel
fonte
5

Tenho grandes lacunas acima do meu no-break (para instalar uma segunda bateria no futuro) e acima da minha biblioteca de fitas (se precisar de outra). Fora isso, não tenho lacunas e uso painéis para preencher espaços vazios para preservar o fluxo de ar.

pauska
fonte
3

Todos os terços, mas isso se deve aos braços de gerenciamento e à necessidade de contorná-los, e não ao calor. O fato de esses servidores terem 6 cabos Cat5 indo para eles não ajuda. Utilizamos intensamente painéis em branco e barragens de ar na parte superior dos racks para impedir a recirculação do corredor quente.

Além disso, uma coisa que não falta em nosso data center é o espaço. Ele foi projetado para expansão quando os servidores de 7 a 10U eram padrão. Agora que seguimos clusters ESX densos em rack, é uma cidade fantasma lá.

sysadmin1138
fonte
OK, 6 cabos, vamos ver ... 2 interfaces de gerenciamento, 2 interfaces iscsi e 2 .... dedicadas ao gerenciador de cluster?
Matt Simmons
Não use armas de gerenciamento e não precisará pular unidades. :)
Doug Luxem
11
6 cabos: 1x placa HP iLO, 1x LUN de gerenciamento ESX, 4x Luns de VM. Além disso, fibras para a SAN. Ainda não adotamos o iSCSI. Se estivéssemos dispostos a despir completamente os servidores antes de retirá-los, com certeza iríamos ficar sem armas.
sysadmin1138
11
Tendo visto o seu data center, eu me pergunto se você configura as coisas em uma configuração tradicional de corredor quente, em vez de se espalhar pela sala gigante, para obter melhor desempenho térmico.
Laura Thomas
3

Eu não deixaria lacunas entre os servidores, mas irei para coisas como switches LAN - isso me permite colocar algumas barras de gerenciamento de cabos de 1U acima e abaixo ... mas definitivamente não é feito para resfriamento.

Mitch Miller
fonte
2

Sem lacunas, exceto onde retiramos um servidor ou algo mais e não nos preocupamos em reorganizar. Acho que somos um pouco menores do que muitas pessoas aqui, com 2 racks que possuem apenas cerca de 15 servidores, além de algumas unidades de fita, comutadores e no-breaks.

Ala
fonte
2

Não há outras lacunas além do planejamento da expansão de sistemas sanitários ou coisas assim. Preferimos colocar novos armários próximos aos controladores reais.

Se você tiver um resfriamento adequado, deixar lacunas não será benéfico, a menos que o servidor seja mal construído.

chankster
fonte
2

Tenho a impressão (talvez incorreta) de que é uma prática mais popular em alguns ambientes de telecomunicações em que corredores quentes / frios não são tão amplamente utilizados.

Porém, não é adequado para um centro de dados de alta densidade e bom funcionamento.

Dan Carley
fonte
1

Normalmente, deixo uma RU em branco após cerca de 5RU de servidores (por exemplo, 5x1ru ou 1x2ru + 1x3ru) e isso depende da configuração de resfriamento no data center em que você está. Se você tiver resfriado na frente do rack (por exemplo, uma grade no frente do rack), a idéia é que o ar fresco seja empurrado do chão e seus servidores sugam o ar fresco através deles. nessa circunstância, você normalmente obteria um melhor resfriamento se não deixasse slots em branco (por exemplo, use uma tampa da RU em branco. Mas se você tiver feito o resfriamento através do painel de piso do rack de acordo com minha experiência, obterá um resfriamento mais eficiente interrompendo os servidores de serem empilhados uns sobre os outros por todo o rack

Brendan
fonte
1

Em uma situação em que tínhamos nosso próprio datacenter e o espaço não era um problema, eu costumava pular um U (com um espaçador para bloquear o fluxo de ar) entre áreas lógicas: os servidores Web têm uma seção, banco de dados, controlador de domínio, email, e servidor de arquivos tinha outro, e firewalls e roteadores tinham outro. Os interruptores e os painéis de conexão para os desktops externos estavam em seu próprio rack.

Lembro-me exatamente de uma ocasião em que pulei um U por razões de refrigeração. Essa era uma solução de loop de TV a cabo A / V em uma escola, onde havia três unidades que eram responsáveis ​​por atender o sistema de TV a cabo em uma seção do edifício. Depois que a unidade superior teve que ser substituída pela terceira vez em dois anos devido ao superaquecimento, realizei algumas "cirurgias" no rack para fazer orifícios de montagem, para que eu pudesse deixar 1 / 2U de espaço entre cada uma das três unidades (por total de 1 U de espaço total).

Isso resolveu o problema. Escusado será dizer que isso foi completamente documentado, e para uma medida extra boa, colei uma folha no topo delas, explicando por que as coisas eram do jeito que estavam.

Existem duas lições aqui:

  1. Deixar uma lacuna para o resfriamento é feito apenas em circunstâncias excepcionais.
  2. Use um fornecedor respeitável de gabinete ou servidor. Tenha cuidado ao comprar equipamentos que tentem colocar 2U de calor em 1U de espaço. Isso será tentador, porque o sistema 1U pode parecer muito mais barato. E tenha cuidado ao comprar um estojo que não seja da marca que não foi responsável pelo fluxo de ar.
Joel Coel
fonte
0

Eu os tenho empilhados no rack que tenho. Nunca tive problemas com isso, então nunca tive motivos para separá-los. Eu imaginaria que a maior razão pela qual as pessoas os espaçariam seria o calor.


fonte
0

Eu deixei 1/3 de uma RU entre dois switches antes, principalmente porque eles tinham 1 1/3 de RU cada.

Se eu os juntasse, o equipamento mais alto estaria fora de posição em 1/3 de um U.

Fora isso, nunca deixei espaço puramente para refrigeração, apenas para crescimento futuro.

Criggie
fonte