Alguém tem alguma fórmula ou talvez alguns dados de amostra de seu ambiente que possam me ajudar a estimar quanto espaço em disco será usado por grafite por ponto de dados?
monitoring
graphite
Kyle Brandt
fonte
fonte
Respostas:
whisper-info.py
fornece muitas informações sobre o que e como cada arquivo é agregado, incluindo o tamanho do arquivo.No entanto, é útil apenas para arquivos whisper existentes.
Quando quiser ver o dimensionamento preditivo de um esquema antes de implementá-lo, tente uma Calculadora Whisper, como a disponível em https://gist.github.com/jjmaestro/5774063
EDITAR:
Quando solicitado um exemplo ...
storage_schema:
Olhando para o meu arquivo
applied-in-last-hour.wsp
,ls -l
gerae
whisper-info.py ./applied-in-last-hour.wsp
produzPortanto, basicamente você combina seus hosts por correspondência de retenção por segmento de período de retenção por estatística, multiplicando por um fator de sistemas que você pretende aplicar isso também, levando em consideração o número de novas estatísticas que você acompanhará. Então você pega qualquer quantidade de armazenamento que seja e pelo menos o dobro (porque estamos comprando armazenamento e sabemos que vamos usá-lo ...)
fonte
ls -l
resultado, considero que sejam bytes. Quando adiciono os tamanhos dos arquivos dentro do arquivo .wsp (conforme relatado porwhisper-info.py
), eles se aproximam do tamanho geral do arquivo .wsp (o restante, suponho que sejam metadados e outros). Esse deve ser o tamanho do arquivo para todos tempo, como dados cai para resoluções mais baixas de dados e pontos de dados antigos são descartados.ServerCount * MetricCount * 4.5MBytes
Na documentação do statsd, eles fornecem um exemplo para uma política de retenção de dados.
As retenções são
10s:6h,1min:7d,10min:5y
2160 + 10080 + 262800 = 275040 pontos de dados e fornecem um tamanho de arquivo de 3,2 MiB .Supondo uma relação linear, isso seria aproximadamente 12,2 bytes por ponto de dados .
fonte
Nenhuma experiência direta com o Graphite, mas imagino que a mesma lógica que usamos para o Cacti ou qualquer outra coisa aplicada a RRD ou com rollover no tempo se aplicaria (o Graphite não usa RRD mais internamente, mas a lógica de armazenamento parece comparável).
A resposta rápida é "Provavelmente não tem tanto espaço quanto você acha que precisará".
A resposta longa envolve alguma matemática específica do site. Para o nosso sistema de monitoramento (InterMapper), descubro os períodos de retenção, as resoluções e o tamanho dos pontos de dados, faço algumas multiplicações e adiciono sobrecarga.
Como exemplo, utilizarei espaço em disco - armazenamos números com uma precisão de 5 minutos por 30 dias, uma precisão de 15 minutos por mais 60 dias e, em seguida, uma precisão horária por mais 300 dias, e estamos usando um 64 inteiro de 8 bits (8 bytes) para armazená-lo:
Com 8 bytes por amostra, isso significa cerca de 173 KB, mais uma sobrecarga saudável para indexação de armazenamento e similares, chegando a cerca de 200 KB para os dados de uso de disco de uma partição (qualquer erro tendendo a superestimar).
A partir das métricas básicas, posso calcular um tamanho médio "por máquina" (10 partições de disco, espaço de troca, RAM, média de carga, transferência de rede e algumas outras coisas) - resulta em cerca de 5 MB por máquina.
Também adiciono 10% saudáveis em cima do número final e arredondo para cima, para dimensionar as coisas em 6 MB por máquina.
Depois, olho para o 1 TB de espaço disponível para armazenar dados de métricas para gráficos e digo "Sim, provavelmente não estou ficando sem armazenamento durante a minha vida, a menos que cresçamos muito!" :-)
fonte
Eu tenho 70 nós que geram muitos dados. Usando Carbon / Whisper, um nó criou 91k arquivos sozinho (o nó gera vários esquemas, cada um com vários contadores e campos variáveis que precisam ser selecionáveis. Por exemplo: (nodename). (Schema). (Counter). (Subcounter). (Etc )....e assim por diante).
Isso forneceu a granularidade necessária para plotar qualquer gráfico que eu quisesse. Depois de executar o script para preencher os 69 nós restantes, eu tinha 1,3 TB de dados no disco. E isso representa apenas 6 horas de dados / nó. O que me impressiona é que o arquivo CSV plano real para 6 horas de dados é de cerca de 230 Mb / nó. 70 nós são ~ 16 GB de dados. Meu esquema de armazenamento era 120s: 365d.
Eu sou relativamente novo em bancos de dados, portanto, posso estar fazendo algo errado, mas acho que é uma sobrecarga para cada amostra.
Portanto, foi um experimento divertido, mas não acho que faça sentido usar o sussurro para o tipo de dados que estou armazenando. O MongoDB parece um solução melhor, mas preciso descobrir como usá-lo como um back-end para o Grafana.
fonte