Recentemente, fui encarregado de consolidar nosso espaço de dados em toda a nossa rede. Temos vários terabytes de dados que existem em vários servidores e eu estimaria que cerca de 30-40% dos dados são inúteis. Eu classificaria dados "inúteis" como dados que não foram tocados em mais de 7 anos porque alguém mudou para um novo local e nunca limpou o antigo, ou é apenas irrelevante e antigo.
Minha pergunta é...
Existe uma ferramenta que me permite verificar grandes quantidades de dados para me ajudar a identificar possíveis diretórios órfãos em nossa rede?
windows
filesystems
network-shares
Michael J. Lee
fonte
fonte
Respostas:
Aqui está uma sugestão, procure por DoubleKiller - Eu achei muito útil para identificar arquivos duplicados através de terabytes de coisas, tem muitas opções de pesquisa e restrições sobre quais diretórios procurar. É uma ferramenta útil para o arsenal, mas como com qualquer coisa que leia arquivos destruirá tempos de acesso, se eles puderem ser precisados no futuro.
fonte