Eu tenho uma conta AWS. Estou usando o S3 para armazenar backups de servidores diferentes. A questão é: há alguma informação no console da AWS sobre quanto espaço em disco está em uso na minha nuvem S3?
amazon-s3
amazon-web-services
KennyPowers
fonte
fonte
Respostas:
Yippe - uma atualização para AWS CLI permite que você ls recursivamente por meio de buckets ...
fonte
aws cloudwatch get-metric-statistics --namespace AWS/S3 --start-time 2015-07-15T10:00:00 --end-time 2015-07-31T01:00:00 --period 86400 --statistics Average --region eu-west-1 --metric-name BucketSizeBytes --dimensions Name=BucketName,Value=toukakoukan.com Name=StorageType,Value=StandardStorage
Importante: Você deve especificar StorageType e BucketName no argumento dimensões, caso contrário, você não obterá resultados.Não tenho certeza de quando isso foi adicionado ao AWSCLI, visto que a pergunta original foi há 3 anos, mas a ferramenta de linha de comando fornece um bom resumo executando:
fonte
for b in $(aws s3 ls | awk '{ print $NF }'); do printf "$b "; aws s3 ls s3://$b --recursive --human-readable --summarize | tail -1; done
Para descobrir o tamanho do intervalo S3 usando o Console AWS:
Espero que isto ajude.
fonte
ls
soluções baseadas em -não fazem isso.s3cmd pode mostrar isso executando
s3cmd du
, opcionalmente, passando o nome do intervalo como um argumento.fonte
O AWS CLI agora oferece suporte ao
--query
parâmetro que leva um JMESPath expressões .Isso significa que você pode somar os valores de tamanho dados
list-objects
usandosum(Contents[].Size)
e contar comolength(Contents[])
.Isso pode ser executado usando o AWS CLI oficial conforme abaixo e foi introduzido em fevereiro de 2014
fonte
In function sum(), invalid type for value: None, expected one of: ['array-number'], received: "null"
Caso contrário, a consulta funciona muito bem!No linux box que tem
python
(com opip
instalador),grep
eawk
, instale AWS CLI (ferramentas de linha de comando para EC2, S3 e muitos outros serviços)em seguida, crie um
.awssecret
arquivo em sua pasta de início com o conteúdo abaixo (ajuste a chave, o segredo e a região conforme necessário):Torne este arquivo de leitura e gravação apenas para o seu usuário:
e exporte para o seu ambiente
em seguida, execute no terminal (este é um comando de linha única, separado por
\
para facilitar a leitura aqui):aws
parte lista o intervalo (ou, opcionalmente, uma 'subpasta')grep
parte remove (usando-v
) as linhas que correspondem à Expressão regular (usando-E
).^$
é para linha em branco,--
é para linhas separadoras na saída deaws s3 ls
awk
basta adicionar àtotal
3ª coluna da saída resultante (o tamanho em KB) e exibi-lo no finalOBSERVAÇÃO, este comando funciona para o intervalo ou 'pasta' atual, não recursivamente
fonte
O Cloud watch também permite que você crie métricas para seu bucket S3. Ele mostra as métricas por tamanho e contagem de objetos. Serviços> Ferramentas de gerenciamento> Cloud watch. Escolha a região onde está o seu bucket S3 e as métricas de tamanho e contagem de objeto estariam entre as métricas disponíveis.
fonte
Consulte /server/84815/how-can-i-get-the-size-of-an-amazon-s3-bucket
Respondido por Vic ...
fonte
echo ($totalSize / 1024 / 1024 / 1024) . ' GB';
está bem no final do código-fonte.Além da resposta de Christopher.
Se você precisar contar o tamanho total do intervalo com versão, use:
Ele conta as versões mais recentes e arquivadas.
fonte
Obter tamanhos de baldes grandes por meio da API (aws cli ou s4cmd) é muito lento. Aqui está meu HowTo explicando como analisar o Relatório de uso do S3 usando bash one liner:
fonte
O console da AWS não mostrará isso, mas você pode usar o Bucket Explorer ou o Cloudberry Explorer para obter o tamanho total de um bucket. Ambos têm versões gratuitas disponíveis.
Observação: esses produtos ainda precisam obter o tamanho de cada objeto individual, por isso pode demorar muito para baldes com muitos objetos.
fonte
Com base na resposta de @cudds:
Além disso, o Cyberduck permite convenientemente o cálculo do tamanho de um balde ou pasta.
fonte
A resposta de Mini John funcionou totalmente para mim! Incrível ... tinha que adicionar
da Europa embora
fonte
Esta é uma pergunta antiga, mas como estava procurando a resposta, encontrei-a. Algumas das respostas me fizeram lembrar que uso o S3 Browser para gerenciar dados. Você pode clicar em um balde e propriedades de hit e mostra o total. Bem simples. Eu recomendo fortemente o navegador: https://s3browser.com/default.aspx?v=6-1-1&fam=x64
fonte
Bem, você também pode fazer isso por meio de um cliente S3 se preferir uma interface de usuário amigável.
Eu uso o CrossFTP , que é gratuito e multiplataforma, e aí você pode clicar com o botão direito no diretório da pasta -> selecionar "Propriedades ..." -> clicar no botão "Calcular" ao lado de Tamanho e voila.
fonte
s3admin é um aplicativo de código aberto (IU) que permite navegar nos baldes, calcular o tamanho total e mostrar os arquivos maiores / menores. Ele é personalizado para ter uma visão geral rápida de seus Buckets e seu uso.
fonte
Você perguntou: informações no console da AWS sobre quanto espaço em disco está usando na minha nuvem S3 ?
Vou ao Painel de Faturamento e verifico o uso do S3 na fatura atual .
Eles fornecem a informação - MTD - em Gb para 6 casas decimais, IOW, para o nível de Kb.
Ele é dividido por região, mas adicioná-los (supondo que você use mais de uma região) é bastante fácil.
BTW: você pode precisar de permissões específicas do IAM para obter as informações de faturamento.
fonte
Eu uso o Cloud Turtle para obter o tamanho de baldes individuais. Se o tamanho do balde exceder> 100 Gb, levará algum tempo para exibir o tamanho. Cloud Turtle é um freeware.
fonte