Excluir automaticamente itens antigos do bucket s3

15

Existe uma maneira fácil de configurar um bucket no s3 para excluir automaticamente arquivos com mais de x dias?

jdp
fonte

Respostas:

19

Enquanto isso, a Amazon introduziu os ciclos de vida do S3 (consulte a publicação introdutória do blog Amazon S3 - Expiração de objetos ), onde você pode especificar uma idade máxima em dias para objetos em um bucket - consulte Expiração de objetos para obter detalhes sobre seu uso por meio da API S3 ou do Gerenciamento da AWS Console.

Akshat
fonte
+1 por fornecer uma atualização sobre essas informações desatualizadas, obrigado!
Steffen Opel
3

Você pode usar o s3cmd para escrever um script para executar seu bucket e excluir arquivos com base em uma pré-condição.

Você precisará escrever algum código (bash, python) em cima dele.

Você pode baixar o s3cmd em http://s3tools.org/s3cmd

Lynxman
fonte
3

script de shell para excluir depósitos antigos usando o utilitário s3cmd
fonte: http://shout.setfive.com/2011/12/05/deleting-files-older-than-specified-time-with-s3cmd-and-bash/

#!/bin/bash
# Usage: ./deleteOld "bucketname" "30 days"
s3cmd ls s3://$1 | while read -r line;  do

createDate=`echo $line|awk {'print $1" "$2'}`
createDate=`date -d"$createDate" +%s`
olderThan=`date -d"-$2" +%s`
if [[ $createDate -lt $olderThan ]]
  then 
    fileName=`echo $line|awk '{$1=$2=$3=""; print $0}' | sed 's/^[ \t]*//'`
    echo $fileName
    if [[ $fileName != "" ]]
      then
        s3cmd del "$fileName"
    fi
fi
done;
Kushal
fonte
Uso: ./deleteOld "bucketname" "30 dias", por exemplo. s3: // dir1 / dir2 / dir3 / bucketname = "dir1 / dir2 / dir3 /" nunca ignore o último "/"
e se o nome do arquivo tiver espaço e eu precisar imprimir todas as colunas depois disso, Video 1280x720 (2)13201781136780000000.mp4apenas o vídeo não dá o resto.
Ramratan Gupta
Eu tenho uma solução de stackoverflow.com/a/9745022/1589444
Ramratan Gupta
1

Não, o S3 é apenas um armazenamento de dados. Você precisará usar algum cliente externo para excluir periodicamente os arquivos antigos.

Martijn Heemels
fonte
5
Isso não é mais verdade: docs.amazonwebservices.com/AmazonS3/latest/UG/…
Tabitha
1
Ah, isso facilita muito as coisas. Embora, para meus backups, eu ainda prefira executar a exclusão do meu script, para garantir que os backups mais antigos sejam limpos apenas quando um novo for feito com êxito.
Martijn Heemels 15/10/12
1

Encontrei uma solução muito mais rápida para excluir o lote usando o AWS cli

#!/usr/bin/env php
<?php
//remove files which were created 24 hrs ago
$fcmd = 'aws s3 ls s3://<bucket>/<prefix>/ | awk \'{$3=""; print $0}\'';//remove file size and handle file with spaces

exec($fcmd, $output, $return_var);
$seconds_24_hour = 24 * 60 * 60;
$file_deleted_count = 0;
if (!empty($output)) {
    $deleted_keys = array();
    foreach ($output as $file) {
        $file_path = substr($file, 21);
        $file_time_stamp = substr($file, 0, 19); //2017-09-19 07:59:41
        if (time() - strtotime($file_time_stamp) > $seconds_24_hour) {
            $deleted_keys[]["Key"] = "<prefix>/" . $file_path;
            $file_deleted_count++;
        }
    }
    if (!empty($deleted_keys)) {
        $json_data_delete = array("Objects" => $deleted_keys);
        echo $cmd = ("aws s3api delete-objects --bucket <bucket> --delete '" . json_encode($json_data_delete) . "'");
        system($cmd);
    }
    echo "\n$file_deleted_count files deleted from content_media\n";
}

Referência para exclusão em lote /programming//a/41734090/1589444

Referência para manipulação de arquivo com espaço com 100% de aprovação /programming/36813327/how-to-display-only-files-from-aws-s3-ls-command

Ramratan Gupta
fonte