Principais coisas a procurar em um data center

34

Estou tentando criar uma lista de verificação simples para determinar a qualidade de um datacenter ... onde e o que devo procurar e como posso determinar se o que os proprietários dizem (por exemplo, "nosso no-break mantém o centro de dados por 100 dias sem poder ") é verdadeiro ou não? O que são sinais típicos ou data centers bons ou ruins?

AX1
fonte

Respostas:

43

Aqui está uma lista de perguntas que eu fiz da última vez que fui às compras no datacenter:

  • Explique o que seria necessário para os aspersores dispararem em nosso equipamento.
  • O que as mãos remotas estarão dispostas a fazer? Por exemplo, instale discos rígidos, gire fitas ...
  • Suas mãos remotas estão disponíveis 24/7/365, tempo médio de espera para que elas cheguem à gaiola após preencher um ticket (como os ingressos são inseridos?)?
  • Você está em várias grades?
  • Você elevou o resfriamento do piso?
  • Quantos datacenters você opera além deste?
  • Por quanto tempo o datacenter pode funcionar com energia de backup?
  • Podemos entregar o equipamento diretamente ao datacenter?
  • Existe uma doca de entrega e estacionamento gratuito, próximo e disponível?
  • Se um fornecedor vier ao datacenter, precisamos acompanhá-lo?
  • Que temperatura e umidade ambiente são mantidas?
  • Quantas opções de ISP existem?
  • Algum de seus clientes já perdeu energia por algum tempo no histórico do datacenter?
  • Há quanto tempo esse data center está em operação?
  • Quais controles de acesso existem no chão e no equipamento?

Se você visitar vários e fizer essas perguntas entre o preço, as impressões da sua visita e as respostas deles, provavelmente ficará claro qual deles você deseja. Visite-os sempre e visite uma boa quantidade deles.

Kyle Brandt
fonte
2
Bem feito. +1 para você.
precisa
3
Eu também perguntaria sobre os controles de acesso ao chão e ao seu equipamento.
Scott Pack
Ótima lista !! Eu acrescentaria: "Você é o proprietário do edifício?" Além disso, se eles tiverem aspersores, vá embora!
JakeRobinson
Os aspersores @JakeRobinson são exigidos pelo código de incêndio , mesmo em datacenters, em muitos lugares. Quando você vê aspersores, pergunte se são aspersores de tubo seco .
sysadmin1138
3
@JakeRobinson O novo DC em que me mudei em 2003 tinha FM200 e aspersores. Os marechais de fogo eram muito firmes que Deveria haver aspersores lá. Se o FM200 pode apagar o fogo, ótimo. Mas se isso não acontecer (a explosão do UPS rompe a barragem de ar do FM200 para que o O2 possa entrar após um despejo) muita água salvará o edifício. O sistema de tubulação seca correto significa que, se um cabeçote de aspersão for batido, o DC não inundará.
sysadmin1138
6

Kyle cobriu muito bem, mas aqui estão alguns pontos:

A segurança física é enorme. Deve demorar quase um ato do Congresso (o Parlamento, insira uma instituição burocrática lenta aqui) para entrar.

Deveria ter supressão de incêndio em Halon, não sprinklers; Os servidores não devem estar úmidos. (Os regulamentos locais de combate a incêndio podem substituir ...)

Descubra quais são seus fornecedores preferidos de servidores. A menos que seja por um motivo muito específico (como a execução de um datacenter semelhante ao Google), devem ser servidores de marca. (Dell, HP, IBM, Sun, Apple etc.) Se eles disserem "caixa branca" ou uma marca que você não reconhece, execute. Observe que existem alguns fornecedores respeitáveis ​​de servidores de nível inferior que são respeitáveis ​​(System76, por exemplo), mas "customizados" significa que eles mesmos estão montando as coisas. Ótimo para sua casa, mas ruim para seu datacenter. (Isso não inclui a compra de um HP Proliant DL580 e a instalação de itens como kits de opções de memória ou gaiolas para unidades.)

Quais opções de propriedade estão disponíveis? Compre através deles? Compre direto e envie diretamente para lá? Locação? VMs?

gWaldo
fonte
4
Acordo sobre a supressão de fogo, apesar de "Halon" ler "halon / FM200 / Argonite / INERGEN / outro gás extinguishant aqui"
MadHatter suporta Monica
11
Os aspersores são realmente exigidos pelo código de incêndio em muitos lugares. Descobri isso em 2003, durante uma compilação de DC com a qual ajudei. Só deve disparar se o FM200 não apagar a fonte de calor. Deve ser um sistema de aspersão de tubo seco que faça backup do gás inerte.
sysadmin1138
2

Excelente como sempre Kyle, algumas coisas que aprendi com a experiência:

  • Pergunte se existem geradores para fazer backup dos no-breaks. Se os geradores foram testados, com que frequência?

  • Quais bloqueios físicos e verificações eles têm para impedir que os eletricistas matem a energia?

  • Que cobertura de responsabilidade / seguro eles possuem?

  • Como eles lidam com situações em que não cumprem seu SLA?

  • Quantas vezes eles não cumpriram um SLA?

  • Quanta energia eles fornecem a cada rack / gaiola / etc.? (Você ficará com pouca energia e precisará de outro rack / gaiola apenas para obter energia extra?)

  • Peça referências, em seu setor seria bom.

Histórias engraçadas que não eram engraçadas na época:

  1. Houve um incêndio em Vancouver em um compartimento elétrico subterrâneo, a 4 quarteirões da minha CC, o fogo retirou a energia por um raio de 10 quarteirões. Os no-breaks mantiveram as luzes acesas até o gerador entrar em operação. O grupo gerador ficou on-line por cerca de uma hora antes do superaquecimento. Os no-breaks conseguiram manter as luzes acesas por mais 30 minutos depois que o grupo gerador desligou a segurança. Gen-set pertencia ao edifício, IIRC o DC foi capaz de culpá-los e lavou as mãos.

  2. Um eletricista matou a energia de algumas fileiras de estantes no centro de distribuição porque o painel caiu e derrubou todos os disjuntores. Eu também ouvi falar de um eletricista em outro DC indo trabalhar em um no-break, não colocando-o no modo bypass e derrubando todo o DC.

Clint
fonte
É aconselhável ter um no-break em rack para esses casos ou isso não importa, pois a conexão geralmente é interrompida com tudo?
AX1
Teria sido bom ... Nosso DC disse que não era permitido ter um no-break em nossos racks, eles nos deram uma razão, mas não me lembro o que era.
Clint
Talvez calor? Não tenho muita experiência com UPS de rack, mas o UPS de consumidor sempre esquenta.
AX1
4
@ AX1: UPSs em uma bagunça em cadeia. Eles esperam certas características da corrente e outros no-breaks podem filtrá-las. A rede provavelmente ficará inativa quando o controlador de domínio perder energia, portanto, mesmo que seus servidores estejam ativos, a rede não estará.
quinnr
Poderia ter sido um código de incêndio, se o EPO for atingido, os bombeiros esperam que não haja energia elétrica.
Sean Reifschneider
1
  • Eu diria que provavelmente um terço de um data center são itens de linha técnicos (você possui {VESDA, contratos de reabastecimento, chillers cobertos por UPSs, várias redes de energia, diversas entradas de fibra).

  • Outro terço é como eles lidam com isso quando as coisas não dão certo. Eles engolem seu orgulho, examinam o fracasso e descobrem o que fazer para garantir que isso não aconteça novamente? Ou eles continuam fazendo o que não funcionava antes?

  • E o outro terço é o pessoal. Eles são inteligentes, fáceis de trabalhar e não são entregues todo mês?

Mas ainda mais importante: eles têm o espaço que você precisa? Em um lugar em que quase entramos, em dois anos estávamos usando mais espaço do que eles tinham disponível.

Sean Reifschneider
fonte
1

Eu trabalho em um pequeno data center no Vale do Silício. Sou o administrador do sistema no lado do servidor gerenciado da empresa.

Sinais ruins:

  • Falta de monitoramento redundante e alerta de energia, temperatura e umidade
  • Falta de monitoramento de dispositivos de rede, colos, servidores e outros equipamentos
  • Desorganize e não use abraçadeiras ou outro gerenciamento de cabos para manter racks limpos e organizados

Bons sinais: - Gerador diesel no local com failover automático - Chillers de backup e manipuladores de ar com failover automático - Muita largura de banda nos principais backbones de operadoras (AT&T, XO Comm) - Fornecedores de rede redundantes - Roteadores, firewalls, balanceadores de carga e comutadores redundantes - Em execução verificação de memória e diagnóstico de hardware antes de implantar servidores

Os servidores de marca são bons, mas se forem antigos e já existem várias vezes, é melhor garantir que eles sejam aprovados no diagnóstico de hardware antes de usá-los.

Um bom data center deve fornecer a seus clientes um site onde eles possam monitorar seu consumo de largura de banda e tempo de atividade. Eles também devem responder a quaisquer perguntas. Pergunte a eles a marca e o modelo de seu no-break. Peça a eles para ver a carga atual no no-break. Com essas informações, você pode verificar quanto tempo pode demorar sem energia.

Mas, honestamente, o no-break não deve ser sua preocupação. Um no-break fornece apenas um breve tempo de atividade (aproximadamente 30 minutos). Uma preocupação muito melhor é se o controlador de domínio tiver um gerador de backup. Também vale a pena perguntar em qual grade o DC está. Em termos de quedas de energia e apagões, prioridades diferentes são atribuídas a diferentes grades. Adivinha? Hospitais e quartéis de bombeiros são de alta prioridade (a energia nunca é cortada). Se o Data Center estiver na mesma grade, sua energia confiável garantida.

Pergunte a eles quanta energia disponível por rack. Onde trabalho, fornecemos a cada rack circuitos de 3x 25 amp. Um servidor 1u típico consome 1-3 amp.

80skeys
fonte
O que eu estou tentado a ir tem 40 amp por rack. Isso é muito baixo? É quase metade do que você diz (75amp).
AX1
11
@ AX1, 40A a 110V é 4400W; em 230V é 9200W. A menos que seja de alta densidade (Twin / Twin ^ 2 / Blade) ou HPC / GPU, isso é MUITO.
Mircea Chirea