Eu tenho um disco rígido SATA de 3 TB usado que estou planejando usar como um substituto em uma caixa Win 7.
Não preciso de toda essa capacidade, por isso estava pensando que, se a formatar para 1 TB, aumentaria a confiabilidade. Meu pensamento por trás disso é baseado nos seguintes pensamentos:
- Haveria mais 'espaço para respirar' físico entre cada setor / faixa.
- Quando setores defeituosos são encontrados, existe um conjunto maior de setores não alocados para serem usados.
Minhas suposições são verdadeiras?
Se minhas suposições não são verdadeiras, o que acontece com todo o espaço não utilizado? O disco rígido ainda formata com as mesmas dimensões físicas; assim, minha unidade de 1 TB ainda estaria pressionando setores no prato como se estivesse formatada para 3 TB.
Muito Obrigado!
hard-drive
ntfs
hardware-failure
format
chazjn
fonte
fonte
Respostas:
Suas suposições estão erradas.
A unidade possui um formato físico fixo composto por setores físicos, totalizando 3 TB no seu caso. Ao formatar a unidade, você está efetivamente limpando os dados nesses setores, mas não os está reorganizando ou alterando o tamanho ou o layout físico de qualquer maneira. Ao formatar em uma capacidade mais baixa, você simplesmente desperdiçaria o espaço extra, ele existiria, mas simplesmente não seria usado para nada .
A formatação não altera o tamanho do setor físico nem o espaço entre as faixas.
Quanto aos setores não alocados, acredito que as unidades possuem um número predefinido de setores reservados para realocação e a unidade não tem como saber se os setores são usados pelo sistema operacional. Os SSDs têm um recurso chamado "trim" que pode indicar à unidade que os setores devem ser limpos, mas isso é algo um pouco diferente, os pratos giratórios não possuem nenhum tipo de recurso semelhante. Setores não formatados não seriam usados para realocação incorreta do setor.
Ao formatar uma unidade de 3 TB como 1 TB, você está simplesmente impedindo-se de usar 2 TB de espaço e, assim, desperdiçando 2 / 3rds do que gastou na unidade. Sua partição de 1 TB estaria em frente a 2 TB de espaço vazio.
fonte
Os algoritmos de correção de erros usados pelos discos rígidos, como todos os outros algoritmos de correção de erros, têm uma chance de falha. Existe um risco extremamente remoto, mas existente, de que o disco rígido tenha gravado dados diferentes dos enviados. Com as capacidades chegando aos trilhões de bytes, essa chance aumenta estatisticamente.
Mas você não compra proteção extra disso, deixando o espaço sem uso. Você obtém proteção extra armazenando dados redundantes, usando uma ferramenta PAR / PAR2 ou gravando os dados várias vezes.
No entanto, se você estiver preocupado com isso, é melhor copiar os dados para outra unidade física, com benefícios adicionais, como proteção contra falhas mecânicas e outros.
Se não usar espaço, você terá chances extras no caso de o cabeçote do disco rígido raspar a superfície devido a um golpe. Mas pense bem - a menos que você tenha um método para espaçar seus dados de maneira uniforme ao redor do disco, supondo que você esteja usando esses dados, é provável que o cabeçote esteja nas trilhas ou nas proximidades que contêm seus dados. Os dias em que os controladores do disco rígido responderiam a um comando "park" para "sair do caminho" dos dados já passaram muito tempo.
fonte
Se você formatar o disco rígido com capacidade total de 3 TB e nunca usar mais de 1 TB, sim, você poderá aumentar a vida útil do disco rígido. Eu digo que poderia potencialmente, e não definitivamente, porque o disco rígido pode falhar mecanicamente. Não há realmente nada que você possa fazer para impedir que isso aconteça. No entanto, quando os setores nos pratos começarem a ficar corrompidos, a Tabela de Partição remapeará para outros setores nos pratos que não estão corrompidos e não estão sendo usados. O uso de um disco rígido em sua capacidade total impede que os setores sejam remapeados, permitindo assim a perda de dados. Espero que isto ajude! :-)
fonte
Observo também que você pode aumentar um pouco a vida e a velocidade se particionar uma unidade grande e, em seguida, fizer as coisas com base na expectativa de vida de uma unidade (como rodar pneus de carros), instalar o sistema operacional em uma partição, possivelmente uma unidade virtual muito grande drive (cache) em um por si só, e como já sugerido os dados no terceiro [supondo que você criou 3 partições]. Agora, se a garantia era de 3 anos, você alternava o uso de cada partição todos os anos para que eles se revezassem na escrita máxima por cache e sistema operacional com caches e arquivos temporários e assim por diante, excluindo a memória virtual em 1 partição e instalando novas OS para ele, o mesmo que desfragmentar do zero. Você também o faz ao copiar dados de um para o outro, reformatar cada um deles primeiro, como todos os arquivos são copiados para a nova unidade, por assim dizer, eles não serão copiados fragmentados se você copiá-los todos de uma vez, mesmo quando estiverem fragmentados na partição de origem. O maior ganho é espalhar as gravações em disco em 3 partições ... existem algumas gravações significativas de certos arquivos, porque um nome de arquivo existente é sempre escrito por cima se for maior, aumenta ao final, mas todas as alterações começam do início . Encontrei pontos fracos no NDD há anos tentando ler / escrever várias vezes antes de finalmente escrever. Gostaria de saber por que algumas aplicações congelam algumas vezes e, ao perceber o NDD, se ele poderia escrever em 6 tentativas (tentativas padrão do DOS), continuava como se tudo estivesse bem (sem contar os pontos fracos), então usei o ID app que estava sendo testado em clusters. .. usou Norton ' s Disco Edite para identificar quais arquivos usaram esses / esses clusters ... depois renomeou o arquivo físico FILENAME.BAD. Agora, os arquivos ausentes precisavam ser reinstalados, mas adivinhem ...? Chega de congelamentos de software ... tecnicamente, o que eu fiz foi marcar manualmente os pontos na unidade com defeito no nível dos e, ao renomeá-los, forcei a gravação em uma nova área de unidade (forte, não fraca). Descobri que os arquivos gravados várias vezes durante as operações normais foram as áreas que começaram a falhar primeiro na maioria das vezes.
fonte