Que tipo de manutenção periódica devo executar no backup do disco rígido?

15

Eu tenho um monte de diretórios armazenados em backup em um disco rígido externo - não um SSD, um disco magnético.

O backup é apenas em um único disco (sim, eu sei, um disco rígido extra com uma cópia seria uma boa idéia; mas esse não é o caso no momento). Além disso, não há cópias duplas dos arquivos no disco.

O HDD tem (opção 1) muito mais espaço do que meus arquivos ocupam (opção 2) menos espaço livre do que meus arquivos (mas ainda uma boa quantidade)

Eu mantenho o disco em sua embalagem original: saco plástico, dentro de uma "caixa de ovo", como embalagem, dentro da caixa plástica. É mantido em um quarto da minha casa com a caixa nunca exposta ao sol, nem à chuva etc.

Minha pergunta é: há algo que devo fazer com o disco periodicamente para maximizar a longevidade dos dados? por exemplo, leia tudo para outro lugar, ou leia e escreva de volta, ou reorganize as posições físicas dos dados no disco de alguma forma, ou mesmo agite o disco, altere sua posição física, ligue-o sem fazer nada, etc. etc. Eu gostaria de uma resposta para os dois cenários opcionais que descrevi.

Notas:

  • Prefiro não fazer essa pergunta específica para uma única marca de HDDs, mas se você deve saber - é uma unidade Toshiba STOR.E básica de 750 GB. Não é minha escolha, eu só preciso trabalhar com isso.
  • O manual do disco rígido não diz nada sobre esse problema.
  • O backup representa o estado dessas pastas em algum momento no passado. Suponha que seja importante manter esse estado como está e que não haja "cópia principal" dos mesmos dados.
  • Embora provavelmente seja irrelevante para a pergunta, não é catastroficamente ruim se esses arquivos forem perdidos, eu apenas gostaria de aumentar a longevidade esperada.
  • mesmo se eu tivesse duas cópias, em dois HDDs, a pergunta seria igualmente relevante: que tipo de operações de manutenção devo fazer em cada uma delas separadamente?
einpoklum
fonte
Ler periodicamente os arquivos para "melhorar" o campo magnético que representa os dados seria uma boa idéia. Usar um sistema de arquivos que adiciona alguma automação / proteção adicional a isso tornaria um pouco mais fácil. Obviamente, é preferível ter vários dispositivos de mídia com os mesmos dados. O manual não diz nada sobre isso, pois é um cenário incomum usar HDDs como armazenamento offline (eu acho).
Seth
4
As respostas parecem basear-se em opiniões e práticas comuns. Não estou vendo respostas sólidas baseadas em pesquisas ou citações autorizadas.
precisa saber é o seguinte
Feitas e respondidas, aqui na SU embora seja muito mais envolvido do que o seu Q. Leia a resposta aceita para este Q . Todos os dados / fontes / citações que você poderia esperar! Você pode extrair o que funciona para você a partir dos dados dele.
Gypsy Spellweaver,

Respostas:

5

Do ponto de vista profissional, suas opções são:

  1. Orar.
  2. Faça várias cópias, em vários dispositivos.

Na sua "opção 1" (muito mais espaço), você poderia aumentar suas chances marginalmente fazendo várias cópias no mesmo hardware, mas o fato é que o hardware falha, não raro tornando todo o disco ilegível. Uma única cópia não é uma estratégia de backup viável.

Não estou claro se esse é um backup real (de arquivos em um dispositivo primário) ou um arquivo morto (de arquivos removidos do dispositivo primário). A cópia extra é um pouco mais importante se você se importar com o caso do arquivo morto - no diretório Caso de backup, em teoria, existe uma cópia primária; portanto, você deve ter pelo menos duas falhas antes de ficar totalmente sem sorte.

Ecnerwal
fonte
1
Embora suas recomendações sejam válidas e apreciadas, não foi isso que pedi. Você parece estar sugerindo que todas as ações que sugeri são sem sentido / inúteis em termos de longevidade. É isso que você está dizendo?
einpoklum
1
Desculpe, mas a oração não é realmente do ponto de vista "profissional".
precisa saber é o seguinte
2
Se você é um bom engenheiro, orará a Murphy e suas ofertas consistirão em mais casas para esses dados, porque qualquer coisa que possa dar errado, dará errado. Outras divindades e ofertas podem ter resultados menos satisfatórios ...
Ecnerwal
1
Tbh, com uma única cópia, buscar o favor divino não é a pior idéia.
Journeyman Geek
5

Se você tiver mais espaço livre do que os dados de backup usam - sua opção 1 na pergunta - ou se você tiver várias cópias dos dados, tenho uma ideia que "faria algo"; se você acha que o SpinRite realmente ajuda na "manutenção" do disco rígido e / ou deseja sobrescrever completamente e reescrever todos os seus dados, isso seria o suficiente.

Se você deve fazer algo ou não, não tenho muita certeza ... a podridão de bits ou a Degradação de Dados parecem realmente existir, e perguntas como esta aqui no superusuário e essa no serverfault parecem aconselhar backups ou talvez um erro- correção ou tolerância a falhas de RAID (mas para apenas um único disco rígido eu selecionaria vários backups e verificações de hash / CRC e não me preocuparia com o que fazer se um RAID falhar).

Estou inclinado a adotar uma abordagem mais simples e preguiçosa do tipo "não faça nada", mas a seguir é pelo menos uma boa idéia "certifique-se de que ainda posso ler meus dados uma vez por ano e que também possa reescrevê-los" .

Emulação DIY Linux de alguns recursos de manutenção do SpinRite

Muitas pessoas parecem convencidas de que o SpinRite realmente funciona, mas não é gratuito e eu executo o Linux, por isso ouvi o COMO o SpinRite funciona, de Steve Gibson ? vídeo e ele diz que uma das coisas que o SpinRite faz agora é:

  • Lê toda a unidade
  • Vira os bits e grava-os
  • Lê-os novamente
  • Vira os bits de volta e grava-os
  • Lê-os novamente

Se a unidade encontrar algum problema (menor), isso deve "induzir a própria unidade a trocar os setores defeituosos pelos bons".

Com que frequência você deve fazer isso? Steve diz que "ninguém sabe com que frequência isso ocorre, mas a cada poucos meses deve ser o suficiente" . Eu só estou supondo a cada 6 meses ou a cada ano ou mais.

badblocks

O processo de leitura / inversão / leitura / inversão parece quase idêntico ao que badblocksocorre quando ele usa seu teste no modo de gravação ( -wopção), mas realmente não "inverte" seus dados, mas escreve, lê e inverte destrutivamente todos os dados. bits na partição:

Com essa opção, os badblocks procuram blocos defeituosos, escrevendo alguns padrões (0xaa, 0x55, 0xff, 0x00) em todos os blocos do dispositivo, lendo todos os blocos e comparando o conteúdo.

Não por coincidência, esses padrões são, em binário: 10101010, 01010101, 11111111, 00000000.

Então, o badblocks escreve, lê e vira os bits bastante bem, e também é gratuito. Se você mke2fsexecutou badblocks (com badblocks -cc), ele salvará a lista de badblocks para que o ext2 / 3/4 os evite, se houver algum.

A desvantagem é que o teste de gravação dos badblocks é destrutivo , portanto, você precisará de pelo menos duas partições para que isso funcione (para salvar e gravar seus dados).

  • Mantenha duas cópias dos seus dados no disco rígido , cada uma em DIFERENTES PARTIÇÕES! .
    Isso permite que você substitua todos os bits em uma única partição com 10, 01, 11, 00 duplique suas chances de recuperação se áreas ruins se desenvolverem. E mantenha uma lista de somas de verificação / hashes para seus arquivos de dados, como CRC32 ou MD5 (embora os MD5 / SHA sejam muito lentos em comparação com o CRC e os erros aleatórios não devam ser perdidos pelo CRC)
  • A cada poucos meses:
    1. Leia suas cópias de backup e verifique se ainda corresponde às somas de verificação / hashes.
    2. "Pseudo" -bite uma partição com badblocks -wou mke2fs -cc( apenas uma partição , não substitua todos os seus dados, apenas uma cópia!)
    3. Copie seus dados de volta para a partição recém lançada
    4. "Pseudo" -bit-flip a outra partição (uma que ainda não foi lançada)
    5. Copie seus dados de volta para a partição recém lançada

Isso é semelhante a apenas reformatar e copiar seus dados de volta, mas um formato rápido / padrão geralmente não é gravado em todos os setores; portanto, você pode acabar não alterando / invertendo muitos bits


A melhor solução é sempre várias cópias em vários dispositivos .
Eu li que a mídia óptica pode ser lida por 10, 20, talvez até 50 anos ou mais, e dois discos / ISO idênticos se encaixam gddrescue(abaixo).
O armazenamento na nuvem geralmente é gratuito para alguns GB, armazenar arquivos lá (opcionalmente criptografados) pode ser uma boa ideia, especialmente se os valores continuarem subindo.

Além disso, salvar seus arquivos em um arquivo de correção de erros pode ajudar se ocorrer algum erro, mas perder um arquivo de um milhão pode não ser tão ruim quanto perder um arquivo inteiro de um milhão de arquivos. Se existisse algum software de correção de erros, como um ECC-CRC, isso poderia ajudar, mas eu não conheço nenhum, e uma cópia extra dos dados seria ainda melhor.


Relacionado tangencialmente, o SpinRite também "se esforça muito" para ler dados de um setor defeituoso de um disco rígido, lendo de diferentes direções e velocidades, o que também parece muito semelhante gddrescue, caso (ou quando) você tenha problemas para ler seus dados . O gddrescue também pode ler duas cópias de dados com erros e, espero, reunir uma boa cópia completa, e sou tentado a fazer duas (ou mais) cópias idênticas da sua partição de dados dd, mas se badblocks encontrar setores defeituosos não poderia evitá-los, pois mudaria as cópias idênticas.

Xen2050
fonte
Você pode conectar-se a uma explicação sobre exatamente como você bit-Flig uma partição com badblocksou mke2fs?
Einpoklum
A troca de bits não corrigirá o endereço do setor que está fora do setor. Eu sei que o SpinRite habilmente usa algumas propriedades do controlador de disco de uma maneira bastante surpreendente, não facilmente derivada das especificações, que ele ainda mantém em segredo. Os caras por trás do HDD Regenerator podem ter resolvido isso, mas não é de conhecimento público.
harrymc
Existe alguma prova de que flipping faz algum bem? Soa como negociação desgaste disco para resolver um problema que eu nunca vi qualquer referência de sempre, em qualquer lugar, em qualquer fonte adequada, confiável. Uma citação seria muito educacional.
Journeyman Geek
@einpoklum Eu atualizei a resposta alguns. Eu não tenho um link que não seja a página de manual para que os badblocks substituam todos os bits e, em seguida, escreva seus dados novamente.
Xen2050 30/01
@JourneymanGeek Eu estava apenas seguindo o que Steve Gibson diz no vídeo vinculado em seu site, essencialmente "da boca do cavalo". Infelizmente, não tenho e não consegui encontrar outras referências, pelo menos a partir de uma pesquisa rápida. Na verdade, eu tenho a impressão das outras perguntas do SE com as quais a podridão de bits pode não ser muito preocupante, e apenas a reescrita sozinha, mesmo os mesmos bits no mesmo lugar, pode causar os "domínios magnéticos na superfície do disco físico [ ser] renovado com sua força original "
Xen2050 30/01
5

Como parece ter sido esquecido pela maioria dos pôsteres aqui, esta é a minha resposta recomendada para as especificidades de sua pergunta, usando esta excelente postagem: Que meio deve ser usado para armazenamento de dados a longo prazo, alto volume e arquivamento? como o guia. Não recitarei as referências e pesquisas de lá, pois ele fez um excelente trabalho, e a leitura de todo o post é melhor do que o resumo deste caso.

Limitando-se a um disco rígido em armazenamento a frio (offline), com as duas opções fornecidas, você deve conectar a unidade a cada dois anos, ou aproximadamente, e girá-la. A maior razão para fazer isso é impedir que a graxa do eixo endureça e apreenda. A graxa do eixo vai endurecer ao longo do tempo, e girando o disco de vez em quando pode atrasar significativamente essa eventualidade. Se você quiser ter uma ideia da importância da graxa para um disco rígido, analise a quantidade de esforço do Minebea, um fabricante de motores de disco rígido coloca suas pesquisas neste relatório .

Enquanto o disco estiver conectado, você também poderá executar alguns diagnósticos SMART para procurar sinais de falha iminente dos componentes eletrônicos, do hardware ou do prato. Embora, a partir da pesquisa apresentada no FAST'07 pelo Google e pela Universidade Carnegie Mellon (vencedora de "Melhor Artigo " naquele ano), o teste SMART possa ser indicativo de falha, mas um teste de aprovação pode não ser indicativo de boa saúde. No entanto, a verificação não vai doer. Sim, é uma pesquisa antiga, mas ninguém parece ter substituído por algo mais novo.

Ter a unidade funcionando por um tempo e acessar os dados também renovará a força dos campos magnéticos que os mantêm. Alguns argumentam que não é necessário com base em hordas de evidências anedóticas, mas que pesquisas existem parecem indicar que o enfraquecimento dos campos magnéticos é possível. Apresento três artigos da Universidade de Wisconsin-Madison: Poluição por Paridade , Corrupção de Dados e Corrupção de Ponteiro de Disco . Após a leitura, você pode decidir quanto as conclusões deles ameaçam seus dados e quanto esforço vale a pena proteger contra eles.

Rotina de curadoria sugerida

Não sei qual sistema operacional você usa, quais ferramentas você tem ou prefere, nem qual sistema de arquivos você escolhe. Portanto, minhas sugestões serão apenas genéricas, permitindo que você escolha as ferramentas que melhor se ajustam às suas configurações e preferências.

Primeiro é a configuração para armazenamento. Antes de salvar os arquivos no disco rígido, crie arquivos deles. Isso não implica compactação, nem evita. Escolha um formato de arquivo que fornecerá a recuperação de erros ou a capacidade de "auto-recuperação". Não crie um grande arquivo, em vez disso, arquive as coisas que pertencem um ao outro, criando uma biblioteca de arquivos. Se você escolher a compactação, verifique se isso não interfere na capacidade de recuperação de erros. Para a maioria dos formatos de música, vídeo, filme e imagem, não faz sentido compactar. Esses formatos de arquivo já estão compactados, e tentar compactá-los raramente ganha espaço, às vezes criando arquivos maiores.arquivos e desperdiça seu tempo e energia da CPU por uma pechincha. Ainda assim, arquive-os para a recuperação de erro acima. Em seguida, crie uma soma de verificação para cada arquivo morto, usando o algoritmo de compilação de sua escolha. A segurança não é o problema aqui, apenas uma verificação de integridade do arquivo, portanto o MD5 deve ser suficiente, mas tudo funcionará. Salve uma cópia das somas de verificação com os arquivos eem um segundo lugar no mesmo disco rígido - talvez um diretório dedicado para a coleção total de somas de verificação. Tudo isso é salvo no disco. A seguir, e muito importante, é também salvar nesse disco rígido as ferramentas que você usou para criar as somas de verificação e restaurar os arquivos (e descompactá-los também, se você usou a compactação). Dependendo do seu sistema, esses podem ser os programas em si ou talvez seja o instalador deles. Agora você pode armazenar o disco rígido como desejar.

O segundo é o armazenamento. Os HDDs atuais são razoavelmente protegidos de choques físicos (choque trêmulo e trêmulo), mas também não há sentido em pressioná-lo. Armazene-o da maneira que você mencionou na sua pergunta. Eu acrescentaria para tentar evitar áreas onde é provável que esteja sujeito a forças eletromagnéticas. Não da mesma forma que o painel do disjuntor ou acima do seu rádio HAM, por exemplo. Relâmpagos a quilômetros de distância é algo que você não pode evitar, mas o aspirador de pó e a energia dizem que são evitáveis. Se você quiser ser extremo, consiga um escudo Faraday ou uma bolsa Faraday. De vocês, duas sugestões são inúteis ou ruins. Mudar sua posição física enquanto estiver armazenado não afetará nada que importa, e sacudi-lo podecausar danos, pois a maioria das unidades não deve ter boa proteção contra choques G, mas é possível.

Por último são as medidas periódicas. Em uma programação que você escolher, anualmente ou semestralmente, por exemplo, remova-o do armazenamento e reconecte-o ao computador. Execute o teste SMART e leia os resultados. Esteja preparado para substituir o disco quando os resultados SMART mostrarem que você deve, não "da próxima vez", mas "desta vez". Enquanto estiver conectado, verifique todos os arquivos compactados em relação às somas de verificação. Se algum deles falhar na verificação, tente usar as habilidades de recuperação de erro do formato de arquivo morto para restaurar esse arquivo, recriar o arquivo morto e sua soma de verificação e salvá-lo novamente. Como você também forneceu a opção 2 como tendo uma "boa quantidade" de espaço livre, copie os arquivos para novos diretórios e exclua os originais. Simplesmente "movê-los" pode não movê-los. Em muitos sistemas de arquivos mais recentes, a movimentação do arquivo mudará em qual diretório ele está listado, mas o conteúdo do arquivo permanecerá onde está. Ao copiar o arquivo, você o força a ser gravado em outro lugar, e pode liberar espaço excluindo o original. Se você possui muitos arquivos compactados, é provável que nenhum deles seja tão grande que preencha o espaço livre no disco rígido. Depois de verificar ou restaurar todos os arquivos e mover os que você escolher, restaure a embalagem e coloque-a novamente em armazenamento até a próxima vez.

Coisas extras para prestar atenção. Quando você atualiza seu sistema ou, pior, alterna para um sistema operacional diferente, verifique se ainda consegue ler o disco rígido na nova configuração. Se você tiver algo que não seja texto sem formatação, verifique se não perde a capacidade de ler o arquivo como salvo. Por exemplo: documentos do MS-Word podem ter equações criadas em um formato, versões mais recentes não podem lê-las. Veja isso para esse mesmo problema. O Word não é a única fonte possível de problemas, no entanto, e nem os formatos de código aberto garantem que seus dados sejam à prova de futuro. Para um grande erro neste domínio, leia sobre o projeto com falha do Digital Domesday Book. À medida que novas tecnologias aparecerem, considere atualizar sua coleção também. Se você possui filmes salvos como arquivos AVI e gosta mais do MKV, converta-os. Se você possui documentos de processamento de texto e atualiza seu programa, salve novamente os arquivados no novo formato.

Tecelão de Magia Cigano
fonte
4

A mídia magnética pode desaparecer com o tempo e o resultado é um bit ou setor ruim. Uma solução pode ser renovar a parte magnética uma vez a cada poucos anos.

A maneira mais simples é copiar e reescrever todo o disco rígido, embora isso possa não renovar o endereço do setor, que é o "cabeçalho" do setor que permite que o firmware posicione a cabeça nele. A renovação do endereço do setor pode exigir a reformatação do disco (formato profundo - não rápido).

Uma solução alternativa é usar produtos de regeneração de disco. Esses produtos examinam o disco no nível físico, lendo todos os setores e seu endereço e reescrevendo ambos para renovar os dados magnéticos.

O bônus adicional é que, em caso de erro de leitura, esses produtos tentarão vários métodos de leitura para salvar os dados, marcarão o setor como ruim e o remapearão para um setor sobressalente (a maioria dos discos rígidos possui setores sobressalentes). os dados são salvos.

Aqui estão alguns desses produtos:

  • DiskFresh (gratuito para uso privado e não comercial ou US $ 25) - Parte dos Utilitários Puran que recebem boas críticas. Ele informa apenas se há setores danificados / defeituosos e não realiza recuperação avançada.

  • SpinRite (US $ 89 com garantia de devolução do dinheiro) - Isso não foi atualizado por alguns anos, embora ainda tenha salvado meu disco há alguns anos. Eu não confiaria na garantia de devolução do dinheiro, pois o produto é bastante antigo.

  • Regenerador de disco rígido (US $ 89,99 com garantia de devolução do dinheiro) - Um produto mais novo com boas críticas.

Para garantir a integridade dos leitores que procuram armazenamento seguro a longo prazo, gostaria de observar que existem produtos de DVD e Blu-Ray "escreva uma vez e leia para sempre", comercialmente com a marca M-DISC ou Archival Disc.

harrymc
fonte
Eu sei que o SpinRite usa seu próprio meio inicializável; e os outros que você mencionou? Eles são baseados no Windows? Baseado em Linux? Baseado na inicialização própria?
einpoklum
1
O DiskFresh é executado no Windows e o HDD Regenerator faz o Windows e o disco flash inicializável.
harrymc
Portanto, talvez eu deva perguntar se fazer o equivalente ao Linux exige uma inicialização separada, ou se você pode apenas se contentar com /dev/sdXarquivos de dispositivos e / ddou algo semelhante.
einpoklum
1
@einpoklum: qualquer produto em qualquer sistema operacional que faça formatação profunda, geração de imagens e reescrita de disco fará o trabalho, incluindo dd para a parte de reescrita. O objetivo é renovar completamente todos os setores do disco, setores usados ​​para dados e metadados de arquivos. Durante a cópia do disco, é necessário um armazenamento temporário alternativo, mas hoje isso é barato.
harrymc
@einpoklum: Pode-se usar o DiskFresh para a manutenção e usar apenas os utilitários mais avançados para recuperar erros (sucesso não garantido). O DiskFresh deve ser suficiente nas condições corretas de armazenamento.
precisa saber é
3

Nenhuma manutenção deve ser realizada . Reconectar o inversor e ligá-lo representa um risco maior do que tê-lo operando continuamente e muito mais alto do que deixá-lo dormir em uma caixa. Portanto, verificá-lo com muita frequência aumentaria a probabilidade de dano.

Como você armazena é excelente, mas não se esqueça da temperatura . Não deixe que seja extremo. O que exatamente você usa como uma unidade de backup? Alguns são muito mais duráveis ​​que outros.

Uma coisa que você pode fazer, já que você tem espaço suficiente, como indicado, faça duas cópias dos mesmos dados no disco rígido . No caso de setores defeituosos, você ficará bem. Pelo que notei, a maioria das unidades hoje sofre danos no setor no início da unidade (primeiros GB), mas isso se deve principalmente ao sistema operacional (não é o seu caso). Geralmente, setores defeituosos aparecerão inicialmente na maioria dos casos agrupados, portanto, ter duas cópias dos dados na mesma unidade ajuda.

Se você tiver apenas alguns arquivos críticos, seria uma boa prática salvá-los em outro lugar também, apenas por segurança. Faça um arquivo criptografado e coloque-o em um bastão ou entregue a alguém em quem você confia.

Overmind
fonte
1
A parte 'notes' lista qual HDD específico é usado (Toshiba STOR.E basics 750 GB). Além disso, você pode vincular algum tipo de referência à alegação de que ligar e conectar as unidades diminui o tempo estimado para falha? Não que não haja razão para a alegação, é apenas que outras pessoas estão sugerindo o oposto essencialmente.
einpoklum
Há algo que você possa citar como base para a afirmação de que nenhuma manutenção deve ser executada e que ligá-la é um risco maior?
precisa saber é o seguinte
Não concordo com o argumento da falta de manutenção, pois mesmo um disco que não é acionado pode continuar com problemas e, sendo não acionado, você nunca o detectará.
precisa saber é
Estatisticamente, é muito mais provável que você seja danificado ao ligá-lo para uma verificação, em comparação a não acessá-la.
Overmind
Eu não vi nenhuma dessas estatísticas e, mesmo que existam, elas certamente não se aplicam quando ligadas uma vez por várias horas, a cada poucos anos . Levaria milhares de ligações para causar danos mensuráveis ​​a um disco.
precisa saber é
3

Eu sempre senti que o truque é assumir que sua unidade falhará . Existem alguns modos de falha que são aleatórios. Para falhas não aleatórias - há dois aspectos aqui - a unidade e o sistema de arquivos.

Embora seja um pouco uma fonte incomum - esse segmento do reddit sugere que um determinado bit pode ser alterado em 10 anos ou mais, embora eu suspeite que um único bit invertido seria silenciosamente tratado pelo ECC - no sistema de arquivos ou na própria unidade.

Normalmente, é possível encontrar problemas de "larga escala" relacionados à idade com testes SMART periódicos - analisando coisas como setores realocados pendentes. Com os ciclos de trabalho relativamente curtos, você realmente não deve ver muita coisa, mas estamos sendo um pouco paranóicos aqui. Mais uma vez, até que as coisas fiquem realmente ruins, sua unidade provavelmente lidará com isso silenciosamente no ECC.

Finalmente, existe o risco de morte súbita do drive ou do controlador . Em teoria, você pode controlar a unidade, executando-a em temperaturas controladas e frias, que são conhecidas por maximizar a vida útil da unidade, mas eu nunca gostei muito delas.

As unidades devem ter um certo número de rotações e rotações (um problema não aqui), e eu suspeito que a ejeção adequada da unidade permita que os dados sejam liberados para a unidade e que haja ferramentas para desligar as unidades. Acredito que o hdparm faria isso, mas preciso de mais testes.

Finalmente, eu escolho unidades que são conhecidas por durar . Eu também giro unidades externas a cada poucos anos, movendo unidades antigas pela hierarquia.

Em teoria, sistemas de arquivos como ReFS e zfs são projetados para reduzir o risco de perda de dados através de somas de verificação de dados integrais. No mínimo, você não terá arquivos corrompidos silenciosamente. Colocá-los em sistemas de arquivos mais comuns provavelmente reduziria a chance de perda de dados, mas ainda não há uma maneira 'fácil' de implantá-los em um SO de desktop. O ZFS tem um suporte decente no linux e nenhum no Windows, e o ReFS ainda não chegou ao desktop do Windows. Eles foram projetados para ter várias cópias em uma ou mais unidades para recuperação real, portanto, não funcionariam exatamente aqui.

Journeyman Geek
fonte
2
Tecnicamente, as somas de verificação no ZFS (e talvez no ReFS) não fazem nada para reduzir a perda de dados por conta própria, apenas verificam a integridade dos dados. Você ainda precisará de uma unidade de paridade ou espelho (ou seja, algum tipo de redundância) para se recuperar de qualquer erro / corrupção. Não acredito que existam sistemas de arquivos (populares) que possam se recuperar sozinhos com uma única unidade (e, se houver algum, terão que sacrificar o espaço na unidade para fazê-lo).
Bob
Atualizado para refletir isso. Não se incomodou em ir muito mais longe, porque esses sistemas de arquivos não funcionariam realmente em seu caso / /
Journeyman Geek
Sim, o único benefício para as somas de verificação nesse tipo de cenário é que você pelo menos sabe em quais arquivos / unidades não deve confiar.
Bob
Por que os setores seriam realocados quando o HDD estivesse parado lá? Quero dizer, você pode sugerir que eu verifique as estatísticas do SMART depois de copiar todo o conteúdo do disco para algum lugar temporário (ou /dev/nulltalvez?), E isso provocaria erros e realocações.
einpoklum
Essa é uma boa pergunta - isso não deve acontecer em circunstâncias normais, especialmente com ciclos de trabalho bastante mínimos. Por mais que a morte seja repentina e inesperada e muito terminal do seu disco rígido, é improvável que algo realmente aconteça com o seu disco. A maioria dos modos de falha em que consigo pensar tendem a ser inesperados.
Journeyman Geek
2

Como vemos nas recomendações de outras pessoas, um único recurso de backup não é uma solução confiável SE o backup tiver algum valor. A experiência com dispositivos eletrônicos ensinou a muitos de nós (da maneira mais difícil) que não se trata de SE, mas de QUANDO um dispositivo de backup falhará.

Os discos rígidos, por design, destinam-se ao armazenamento de dados a curto prazo. Dois artigos excelentes, /server/51851/does-an-unplugged-hard-drive-used-for-data-archival-deteriorate e Quanto tempo até um disco rígido não utilizado perder seus dados? discuta a vida útil dos dados armazenados em uma unidade de disco rígido. Como sempre, sua milhagem pode variar.

A solução de backup que você descreve é ​​melhor que nenhum backup, mas você ainda tem um único ponto de falha. Com seu backup em um único dispositivo, você corre o risco de perder a ÚNICA cópia de seus dados para incêndio, inundação, roubo, explosão, falha do dispositivo etc. Portanto, a pergunta é: seus esforços para preservar seu backup são uma despesa valiosa do seu tempo?

Para atingir seu objetivo, ou seja, um backup em que você possa confiar, é necessário mais de um backup. Se você deseja armazenar seus dados em um disco rígido, seu backup exige uma "atualização" ocasional para neutralizar a degradação dos dados de armazenamento a longo prazo inerente às unidades de disco rígido. Se eu estivesse usando seus sapatos, compraria uma segunda unidade de backup semelhante à original e, uma vez por ano, copiaria os dados da unidade principal para a unidade secundária. No final de cada ano, inverta o processo e copie os dados da unidade secundária para a unidade principal. Enxágüe e repita a cada ano. Uma das unidades deve permanecer fora do local, distante da sua localização, para evitar a perda de sua única cópia de dados para um desastre natural.

John Littleton
fonte
Embora tudo o que você diz seja verdade, apenas o último parágrafo responde à pergunta.
einpoklum
Há algo que você possa citar como base para o benefício da atualização e o prazo de um ano?
fixer1234
1

Não consegui encontrar nenhum dado credível e cientificamente apoiado sobre isso. De um modo geral, existem dois aspectos desse problema:

  1. Rotação de bits : vários efeitos físicos podem inverter os bits armazenados em domínios magnéticos armazenados nos pratos do disco rígido, danificando os dados no disco rígido. (o disco ainda está totalmente funcional)
  2. Problemas mecânicos : ligar / desligar a unidade, manter os pratos girando ou estacionários, as condições de armazenamento e o envelhecimento natural podem tornar a unidade inutilizável após algum tempo. (os dados ainda podem estar intactos e recuperáveis)

A podridão de bits é discutida neste tópico em 2008. O usuário arnaudk escreveu:

Pelo que pude verificar, parece que levaria cerca de 22 anos (detalhes abaixo) para você perder seus dados devido à desmagnetização acionada termicamente se o disco rígido estivesse parado imóvel à temperatura ambiente em um canto escuro. Na realidade, esse tempo será um pouco menor por causa das vibrações mecânicas e dos campos magnéticos externos decorrentes de tudo, desde o motor do próprio disco rígido até as tempestades com raios a 50 km de distância.

Os níveis aceitáveis ​​de decaimento do sinal variam de acordo com o design do sistema, mas geralmente variam entre 10-20% [ref4]; mais fraco, causando possível perda de dados devido exclusivamente aos efeitos de desmagnetização térmica.

(link direto para postar)

Essa é a única estimativa que pude encontrar. Se isso estiver correto, você poderá reescrever com segurança toda a unidade a cada 5 anos para "atualizar" os dados.

Questões mecânicas são ainda mais um mistério. Backblaze é uma empresa que utiliza milhares de discos rígidos de consumo no datacenter e publica regularmente atualizações sobre seu bem-estar. De acordo com suas estimativas, após 4 anos girando 24/7, 20% dos discos rígidos morreram e se a tendência continuar, após 6 anos, metade deles desaparecerá. Isto está mais ou menos alinhado com os números de deste white paper do Google . No entanto, esse não é um caso de uso padrão para um disco rígido e dificilmente podemos compará-lo a uma unidade instalada offline em uma caixa. Não conheço nenhum estudo que tenha abordado esse caso.

Em suma, se você realmente se importa com esses dados, mantenha duas cópias e os transfira para um novo disco rígido testado a cada cinco anos, aproximadamente. Isso deve manter os domínios magnéticos e o hardware razoavelmente atualizados, mas o YMMV.

gronostaj
fonte
0

Aumentar a vida útil de uma unidade de disco rígido é um dos assuntos em que você obtém o melhor resultado ao fazer o mínimo. Desembrulhe-o e coloque-o em uma plataforma sólida, longe de calor intenso, umidade, poeira ou radiação, onde haja circulação de ar suficiente e a menor probabilidade de uma criança esmagá-lo por acidente. Você pode esperar uma vida longa do seu disco rígido até chegar a hora de atualizá-lo.

Talvez seja difícil aceitar que, como consumidor, há muito pouco (nem mesmo nada) que você possa fazer para aumentar a longevidade do disco rígido. Mas certamente existem maneiras de melhorar a chance de sobrevivência de seus dados: ReFS, RAID e backup.

Acredite, o setor está trabalhando para melhorar a longevidade dos dados, em oposição aos discos rígidos.


fonte
Protegê-lo contra danos é um bom conselho. Há algo que você possa citar para apoiar a afirmação de que há pouco que aumentará a longevidade?
fixer1234
-1

Na minha experiência, a troca frequente de start / stop (inativo / run) é ruim para os HDs, é melhor mantê-los sempre girando se você Ok, pois isso consumirá mais eletricidade. (Testado em vários sistemas com os mesmos HDDs da mesma loja, onde alguns HDDs forçavam sempre girando e outros não)

Em todos os servidores, executamos regularmente aqueles por dia, teste SMART "curto" e "teste longo" no fim de semana, que pelo menos podem ter uma idéia de quando o HDD falhará. Se você usa o ZFS, executar uma "limpeza" regular uma vez por mês para as versões corporativas do HDD é suficiente e uma vez a cada duas semanas para o HDD de nível de consumidor.

Uma fonte de alimentação boa e decente também é um dos fatores para um HDD saudável, além do no-break que evita que surpresas aleatórias de eletricidade passem para o HDD. (Os HDDs externos obtêm energia do computador, assim também se aplica a eles)

A vibração / trepidação enquanto o HDD está em execução não é bom para eles também. (Especialmente importante para o HDD portátil - para não movê-los enquanto estiver trabalhando)

Além disso, escolher o modelo certo para tarefas específicas do HDD (vigilância, NAS, desktop ...) é uma maneira de prolongar sua vida útil.

Alex
fonte
1
Eu não acho que ele corre na caixa ...
Journeyman Geek
Na verdade, eu não o executo ... é apenas backup. É claro que eu não o executaria dentro da caixa :-) Por esse motivo, o conselho sobre um no-break ou vibrações etc. é irrelevante para o meu caso (seria relevante para um disco que esteja em uso constante / frequente.
einpoklum
Eu não diria que a UPS é irrelevante. Mesmo que seja uma unidade de backup externa, ela ainda precisa ser ligada e, caso algo aconteça nas linhas de energia, algo deve proteger essas situações.
Alex
Aqueles que fizerem votos negativos, por favor, deixe um motivo nos comentários. É um tópico interessante, então eu gostaria de ouvir o que está errado. Sua opinião irá beneficiar a todos.
Alex
-3

De um modo geral, se for um sistema Linux, nenhuma manutenção será necessária. Os sistemas Windows parecem perder clusters com muito mais frequência que o Linux. Por esse motivo, um chkdsk a cada 3-6mo é sábio no sistema Windows.

Todas as peças do disco rígido com buchas e rolamentos eventualmente apresentam algum desalinhamento devido ao desgaste após 5 ou mais anos de uso constante. A melhor maneira que encontrei para não acordar um dia com uma partição corrompida é reformatar pelo menos a cada 5 anos.

Geralmente, tenho algo que requer uma grande revisão do meu sistema a cada dois anos e, portanto, formata novamente naquele momento (certifique-se de usar uma reformatação completa com verificação de erros). Minha memória é geralmente boa o suficiente para observar um declínio no espaço no disco rígido após a formatação; isso é uma indicação de que a unidade está falhando. Se uma pessoa não estiver familiarizada com seu sistema, ela poderá manter registros da contagem exata de bytes após a formatação.

Em algum momento, os setores "extras" serão usados ​​(especificamente para essa finalidade) e o sistema começará a marcar áreas "normais" na unidade como inutilizáveis ​​- a contagem de bytes diminuirá. Nesse ponto, a unidade deve ser raspada - provavelmente já haverá perda de dados. Isso é normal para um disco rígido que é mantido 24/7 em 5 a 10 anos.

A única maneira de aumentar a longevidade da unidade é configurar o sistema para desligá-lo após alguns minutos de inatividade. Eu tenho uma unidade de 2 TB usada como backup principal e configurada para desligar após 10 minutos de inatividade. Eu posso ficar 30 dias sem acessá-lo e permanecer desativado. Leva 20 segundos para ligar e tornar-se legível, se necessário.


Portanto, se a discussão se limitar à vida útil, nunca sendo ativada periodicamente; existem as preocupações ambientais bem cobertas no link acima "Quanto tempo até um disco rígido não utilizado perder seus dados?" O único problema que não vi mencionado nessa discussão sobre eletrônicos não energizados é a vida útil do capacitor. Eles duram mais por uso periódico; caso contrário, eles secam; essa é a estrutura eletroquímica de um capacitor (e baterias).

A regra de ouro para a vida do capacitor é 20yrs. Isso é chamado de regra 20/20. A falha do capacitor será maior nos primeiros 20 minutos de uso, e a falha estatística será novamente excedida após 20 anos de uso. Mas eles falham muito antes de 20 anos se não forem usados.

A falha mais comum (de modo geral) nos componentes eletrônicos são os capacitores. Capacitores (eletroquímicos), depois indutores e transformadores (eletro-mecânicos) se desgastam, sejam usados ​​ou não.


Uma empresa chamada Backblaze coletou dados sobre falhas no disco rígido. Ele divulgou esses dados nos blogs da empresa, destacando quais unidades do fabricante falharam com mais frequência do que outras.

Em um blog recente , publicou dados indicando exatamente quais 5 atributos SMART indicam falha iminente da unidade:

From experience, the following 5 SMART metrics indicate impending disk drive failure:

    SMART 5 – Reallocated_Sector_Count.
    SMART 187 – Reported_Uncorrectable_Errors.
    SMART 188 – Command_Timeout.
    SMART 197 – Current_Pending_Sector_Count.
    SMART 198 – Offline_Uncorrectable.

Você pode escolher um subconjunto como essas 5 estatísticas sugeridas, porque são consistentes entre os fabricantes e são bons preditores de falha.

O artigo continua sugerindo:

SMART 5: Reallocated_Sector_Count 1-4 fique de olho nele, mais de 4 substituem

SMART 187: Reported_Uncorrect 1 ou mais substituições

SMART 188: Command_Timeout 1-13 fique de olho nele, mais de 13 substituem

SMART 197: Current_Pending_Sector_Count 1 ou mais substitui

SMART 198: Off - line_Incorrigível 1 ou mais substituições

jwzumwalt
fonte
4
Os sistemas Windows parecem perder clusters com muito mais frequência que o Linux. Por esse motivo, um chkdsk a cada 3-6mo é sábio no sistema Windows. [citação necessário] - Eu nunca ouvi tal conselho antes. Desde 2007, pelo menos. E é bastante ortogonal à pergunta, que mais pergunta sobre o hardware no armazenamento desligado - hardware que realmente não se importa com o tipo de sistema de arquivos que você está usando.
Bob
1
Além disso, o uso de qualquer tipo de contagem de 'setor defeituoso' no nível do sistema de arquivos para verificar a integridade da unidade é ... estranho. É para isso que a SMART existe. Que também informa acidentalmente a contagem de setores realocados e a contagem de realocações pendentes (e se qualquer um desses itens for qualquer coisa menos 0, é hora de substituir a unidade).
Bob
1
Essa resposta, embora possa conter informações úteis (se alguma for mais do que conjectura), não responde aos requisitos claros estabelecidos na pergunta, que era especificamente sobre o cuidado e a manutenção adequados para a máxima longevidade provável do hardware de desligamento.
Music2myear
1
@jwzumwalt Não vejo a (não) existência de uma ferramenta embutida como particularmente importante - os dados estão lá, o hardware e o firmware a suportam e são acessíveis por software, por exemplo, CrystalDiskInfo. (E se você está tentando comparar sistemas operacionais, também não há nenhuma ferramenta embutida / pré-instalada em muitos dstros do Linux, incluindo o Debian.) O SMART é muito a maneira padrão do setor de detectar falhas iminentes no disco (para ser justo) , em um ambiente empresarial maior, é provável que a deixe falhar e substitua após o fato, bem como redundância).
Bob
1
Qual "sistema Linux" ou "sistema Windows"? O que vestir? Eu acho que você está falando de discos que estão em uso em um sistema em execução, em vez de responder à minha pergunta.
Einpoklum