consolidação e descomissionamento de dados pela rede

0

Recentemente, fui encarregado de consolidar nosso espaço de dados em toda a nossa rede. Temos vários terabytes de dados que existem em vários servidores e eu estimaria que cerca de 30-40% dos dados são inúteis. Eu classificaria dados "inúteis" como dados que não foram tocados em mais de 7 anos porque alguém mudou para um novo local e nunca limpou o antigo, ou é apenas irrelevante e antigo.

Minha pergunta é...

Existe uma ferramenta que me permite verificar grandes quantidades de dados para me ajudar a identificar possíveis diretórios órfãos em nossa rede?

Michael J. Lee
fonte
1
Órfão em relação a quê? Você quer dizer único? Sem duplicatas? Sem referências? Eu não recomendaria nenhum método automatizado que fosse destrutivo de forma alguma, e a varredura destruirá os últimos tempos de acesso dos arquivos. Os dados são sagrados. Eu tenho medo que este é um trabalho horrível que necessariamente precisa de atenção meticulosa aos detalhes.
Andy Lee Robinson
Você quer apenas uma ferramenta que irá procurar por arquivos com mais de 7 anos ??
soandos
@soandos: acho que seria um bom começo.
Michael J. Lee
@Andy: Estou pensando em mover os dados suspeitos para uma fita ou unidade externa. Eu não planejo fazer qualquer deleção.
Michael J. Lee
Existe algum outro critério?
soandos

Respostas:

1

Aqui está uma sugestão, procure por DoubleKiller - Eu achei muito útil para identificar arquivos duplicados através de terabytes de coisas, tem muitas opções de pesquisa e restrições sobre quais diretórios procurar. É uma ferramenta útil para o arsenal, mas como com qualquer coisa que leia arquivos destruirá tempos de acesso, se eles puderem ser precisados ​​no futuro.

Andy Lee Robinson
fonte
legal! Correndo agora :)
Michael J. Lee
ótimo, feliz por poder ajudar ...
Andy Lee Robinson