Estive vendo vários vídeos e agora entendo um pouco melhor como os computadores funcionam. Entendo melhor o que é a RAM, memória volátil e não volátil e o processo de troca. Eu também entendo por que aumentar a RAM acelera um computador.
Não entendo por que a limpeza do espaço em disco acelera o computador. Faz? Por que isso? Isso tem a ver com a procura de espaço disponível para salvar as coisas? Ou movendo as coisas para criar um espaço contínuo o suficiente para salvar alguma coisa? Quanto espaço vazio no disco rígido devo deixar livre?
memory
performance
disk-space
Remi.b
fonte
fonte
speeds up the experience of using a PC
.Respostas:
Aqui, escrevi um livro por acidente. Tome um café primeiro.
Não, pelo menos não por si só. Este é um mito muito comum. A razão é um mito comum é porque encher o seu disco rígido muitas vezes acontece ao mesmo tempo que outras coisas que tradicionalmente poderia retardar † seu computador. O desempenho do SSD tende a diminuir à medida que a unidade é concluída , mas esse é um problema relativamente novo, exclusivo dos SSDs, e não é realmente perceptível para usuários casuais. Geralmente, o baixo espaço livre em disco é apenas um arenque vermelho .
Por exemplo, coisas como:
Fragmentação de arquivo. A fragmentação de arquivo é um problema †† , mas a falta de espaço livre, embora seja definitivamente um dos muitos fatores que contribuem, não é a única causa. Alguns pontos-chave aqui:
As chances de um arquivo ser fragmentado não estão relacionadas à quantidade de espaço livre restante na unidade. Eles estão relacionados ao tamanho do maior bloco contíguo de espaço livre na unidade (por exemplo, "orifícios" de espaço livre), nos quais a quantidade de espaço livre coloca um limite superior . Eles também estão relacionados à maneira como o sistema de arquivos lida com a alocação de arquivos (mais abaixo). Considere: Uma unidade que esteja 95% cheia com todo o espaço livre em um único bloco contíguo tem 0% de chance de fragmentar um novo arquivo ††† (e a chance de fragmentar um arquivo anexado é independente do espaço livre). Uma unidade que está 5% cheia, mas com dados distribuídos uniformemente pela unidade, tem uma chance muito alta de fragmentação.
Lembre-se de que a fragmentação de arquivo afeta apenas o desempenho quando os arquivos fragmentados estão sendo acessados . Considere: você tem uma unidade agradável e desfragmentada que ainda possui muitos "buracos" gratuitos. Um cenário comum. Tudo está funcionando sem problemas. Eventualmente, porém, você chega a um ponto em que não há mais grandes blocos de espaço livre restante. Você baixa um filme enorme, o arquivo acaba sendo severamente fragmentado. Isso não diminuirá a velocidade do seu computador. Todos os arquivos do aplicativo e outros que estavam bem antes não serão fragmentados de repente. Isso pode tornar o filmedemora mais para carregar (embora as taxas de bits típicas do filme sejam tão baixas em comparação com as taxas de leitura do disco rígido que provavelmente serão imperceptíveis) e pode afetar o desempenho vinculado à E / S enquanto o filme estiver sendo carregado, mas, além disso, nada muda.
Embora a fragmentação de arquivos seja certamente um problema, muitas vezes os efeitos são atenuados pelo buffer e pelo cache do sistema operacional e do hardware. Gravações atrasadas, leitura antecipada, estratégias como o pré - buscador no Windows etc. ajudam a reduzir os efeitos da fragmentação. Você geralmente não realmente experimentar impacto significativo até que a fragmentação torna-se grave (eu até arrisco a dizer que, enquanto o seu arquivo de troca não é fragmentado, você provavelmente nunca irá notar).
A indexação de pesquisa é outro exemplo. Digamos que você tenha a indexação automática ativada e um sistema operacional que não lide com isso normalmente. À medida que você salva cada vez mais conteúdo indexável em seu computador (documentos e outros), a indexação pode demorar mais e mais e começar a afetar a velocidade percebida do computador enquanto está em execução, tanto no uso de E / S quanto na CPU . Isso não está relacionado ao espaço livre, está relacionado à quantidade de conteúdo indexável que você possui. No entanto, ficar sem espaço livre anda de mãos dadas com o armazenamento de mais conteúdo; portanto, é feita uma conexão falsa.
Software antivírus. Semelhante ao exemplo de indexação de pesquisa. Digamos que você tenha um software antivírus configurado para fazer a verificação em segundo plano da sua unidade. À medida que você tem mais e mais conteúdo digitalizável, a pesquisa consome mais recursos de E / S e CPU, possivelmente interferindo no seu trabalho. Novamente, isso está relacionado à quantidade de conteúdo digitalizável que você possui. Mais conteúdo geralmente equivale a menos espaço livre, mas a falta de espaço livre não é a causa.
Software instalado. Digamos que você tenha um monte de software instalado que carrega quando o computador é inicializado, diminuindo o tempo de inicialização. Essa lentidão acontece porque muito software está sendo carregado. No entanto, o software instalado ocupa espaço no disco rígido. Portanto, o espaço livre no disco rígido diminui ao mesmo tempo em que isso acontece e, novamente, uma conexão falsa pode ser feita facilmente.
O exemplo acima ilustra outro motivo pelo qual esse é um mito tão comum: embora a falta de espaço livre não seja uma causa direta de lentidão, desinstalação de vários aplicativos, remoção de conteúdo indexado ou verificado, etc. às vezes (mas nem sempre; fora do escopo deste resposta) aumenta o desempenho novamente por motivos não relacionados à quantidade de espaço livre restante. Mas isso também libera espaço no disco rígido. Portanto, novamente, uma conexão aparente (mas falsa) entre "mais espaço livre" e "computador mais rápido" pode ser feita.
Considere: Se você possui uma máquina funcionando lentamente devido a muitos softwares instalados, etc., e clona exatamente o seu disco rígido em um disco rígido maior, expande suas partições para ganhar mais espaço livre, a máquina não irá acelerar magicamente acima. O mesmo software é carregado, os mesmos arquivos ainda estão fragmentados da mesma maneira, o mesmo indexador de pesquisa ainda é executado, nada muda apesar de ter mais espaço livre.
Não, não tem. Há duas coisas muito importantes que vale a pena notar aqui:
O seu disco rígido não procura por lugares para colocar coisas. Seu disco rígido é estúpido. Não é nada. É um grande bloco de armazenamento endereçado que coloca cegamente as coisas onde seu sistema operacional manda e lê o que é solicitado. As unidades modernas têm mecanismos sofisticados de armazenamento em cache e armazenamento em buffer projetados para prever o que o sistema operacional solicitará com base na experiência que adquirimos ao longo do tempo (algumas unidades estão cientes do sistema de arquivos nelas), mas essencialmente, pense em sua unidade como apenas um grande tijolo estúpido de armazenamento com recursos ocasionais de desempenho de bônus.
Seu sistema operacional também não procura lugares para colocar coisas. Não há "busca". Muito esforço foi feito para solucionar esse problema, pois é fundamental para o desempenho do sistema de arquivos. A maneira como os dados são realmente organizados em sua unidade é determinada pelo seu sistema de arquivos. Por exemplo, FAT32 (antigos PCs DOS e Windows), NTFS (Windows posterior), HFS + (Mac), ext4 (alguns Linux) e muitos outros. Até o conceito de um "arquivo" e um "diretório" são meramente produtos de sistemas de arquivos típicos - os discos rígidos desconhecem as bestas misteriosas chamadas "arquivos". Os detalhes estão fora do escopo desta resposta. Porém, essencialmente, todos os sistemas de arquivos comuns têm maneiras de rastrear onde o espaço disponível está em uma unidade, de modo que uma busca por espaço livre seja, em circunstâncias normais (isto é, sistemas de arquivos com boa saúde), desnecessária. Exemplos:
O NTFS possui uma tabela de arquivos mestre , que inclui os arquivos especiais
$Bitmap
, etc., e muitos metadados que descrevem a unidade. Essencialmente, ele controla onde estão os próximos blocos livres, para que novos arquivos possam ser gravados diretamente em blocos livres, sem a necessidade de escanear a unidade todas as vezes.Outro exemplo, ext4 tem o que é chamado de "alocador de bitmap" , uma melhoria em relação a ext2 e ext3 que basicamente ajuda a determinar diretamente onde estão os blocos livres, em vez de varrer a lista de blocos livres. O Ext4 também suporta "alocação atrasada", ou seja, buffer de dados na RAM pelo sistema operacional antes de gravá-los na unidade, a fim de tomar melhores decisões sobre onde colocá-lo para reduzir a fragmentação.
Muitos outros exemplos.
Não. Isso não acontece, pelo menos não com qualquer sistema de arquivos que eu conheça. Os arquivos acabam fragmentados.
O processo de "movimentar as coisas para criar um espaço contíguo por tempo suficiente para salvar alguma coisa" é chamado de desfragmentação . Isso não acontece quando os arquivos são gravados. Isso acontece quando você executa o desfragmentador de disco. No Windows mais recente, pelo menos, isso acontece automaticamente em uma programação, mas nunca é acionado ao gravar um arquivo.
Ser capaz de evitar mover coisas assim é essencial para o desempenho do sistema de arquivos e é por isso que a fragmentação acontece e a desfragmentação existe como uma etapa separada.
Essa é uma pergunta mais complicada de responder, e essa resposta já se transformou em um pequeno livro.
Regras de ouro:
Para todos os tipos de unidades:
Específico para SSD:
Pessoalmente, geralmente pego uma unidade maior quando tenho cerca de 20 a 25% de espaço livre restante. Isso não está relacionado ao desempenho, é só que, quando chegar a esse ponto, espero que provavelmente esteja ficando sem espaço para os dados em breve e que esteja na hora de obter uma unidade maior.
Mais importante do que observar o espaço livre, é garantir que a desfragmentação programada seja ativada onde for apropriado (não nos SSDs), para que você nunca chegue ao ponto em que isso se torna terrível o suficiente para afetá-lo. Igualmente importante é evitar ajustes equivocados e deixar o sistema operacional funcionar, por exemplo , não desative o pré-buscador do Windows ( exceto os SSDs ), etc.
Há uma última coisa que vale a pena mencionar. Uma das respostas aqui mencionadas menciona que o modo half-duplex da SATA impede a leitura e a gravação ao mesmo tempo. Embora seja verdade, isso é muito simplificado e não tem relação com os problemas de desempenho discutidos aqui. O que isso significa, simplesmente, é que os dados não podem ser transferidos nas duas direções no fio ao mesmo tempo. No entanto, a SATA tem uma especificação bastante complexa que envolve pequenos tamanhos máximos de blocos (cerca de 8kB por bloco na conexão, eu acho), filas de operações de leitura e gravação, etc., e não impede gravações em buffers que ocorrem enquanto as leituras estão em andamento, intercaladas operações etc.
Qualquer bloqueio que ocorra seria devido à competição por recursos físicos, geralmente atenuados por bastante cache. O modo duplex do SATA é quase totalmente irrelevante aqui.
† "Desacelerar" é um termo amplo. Aqui, utilizo-o para me referir a coisas que são vinculadas à E / S (por exemplo, se o seu computador estiver sentado com números limitados, o conteúdo do disco rígido não tem impacto) ou vinculado à CPU e competindo com coisas tangencialmente relacionadas que alto uso da CPU (por exemplo, software antivírus que verifica toneladas de arquivos).
†† Os SSDs são afetados pela fragmentação, pois as velocidades de acesso seqüencial geralmente são mais rápidas que o acesso aleatório, apesar de os SSDs não enfrentarem as mesmas limitações de um dispositivo mecânico (mesmo assim, a falta de fragmentação não garante o acesso sequencial, devido ao nivelamento do desgaste, etc. , como James Snell observa nos comentários). No entanto, em praticamente todos os cenários de uso geral, isso não é problema. As diferenças de desempenho devido à fragmentação nos SSDs são geralmente insignificantes para carregar aplicativos, inicializar o computador etc.
††† Supondo um sistema de arquivos sadio que não esteja fragmentando arquivos de propósito.
fonte
Além da explicação de Nathanial Meek para HDDs, há um cenário diferente para SSDs.
Os SSDs não são sensíveis a dados dispersos porque o tempo de acesso a qualquer local no SSD é o mesmo. O tempo de acesso típico do SSD é de 0,1 ms contra um tempo de acesso típico do HD de 10 a 15 ms. É, no entanto, sensível aos dados que já estão gravados no SSD
Ao contrário dos HDDs tradicionais que podem sobrescrever dados existentes, um SSD precisa de espaço completamente vazio para gravar dados. Isso é feito por funções chamadas Trim e Garbage Collection, que limpam os dados que foram marcados como excluídos. A Coleta de Lixo funciona melhor em combinação com uma certa quantidade de espaço livre no SSD. Geralmente, 15% a 25% do espaço livre é recomendado.
Se a coleta de lixo não puder concluir seu trabalho a tempo, cada operação de gravação será precedida por uma limpeza do espaço no qual os dados devem ser gravados. Isso dobra o tempo de cada operação de gravação e diminui o desempenho geral.
Aqui está um excelente artigo que explica o funcionamento do Trim and Garbage Collection
fonte
Em algum lugar dentro de um disco rígido tradicional, há uma bandeja giratória de metal, na qual os bits e bytes individuais são realmente codificados. À medida que os dados são adicionados ao prato, o controlador de disco os armazena primeiro na parte externa do disco. À medida que novos dados são adicionados, o espaço é usado, movendo-se para o interior do disco por último.
Com isso em mente, existem dois efeitos que fazem com que o desempenho do disco diminua à medida que o disco se enche: Seek Times e Rotational Velocity .
Seek Times
Para acessar dados, um disco rígido tradicional deve mover fisicamente uma cabeça de leitura / gravação para a posição correta. Isso leva tempo, chamado de "tempo de busca". Os fabricantes publicam os tempos de procura de seus discos, e normalmente são apenas alguns milissegundos. Pode não parecer muito, mas para um computador é uma eternidade. Se você tem que ler ou escrever para um monte de locais diferentes de disco para completar uma tarefa (que é comum), os tempos de busca para pode adicionar até atraso perceptível ou latência.
Uma unidade que está quase vazia terá a maioria dos dados na mesma posição, ou quase na mesma posição, normalmente na borda externa, perto da posição de descanso da cabeça de leitura / gravação. Isso reduz a necessidade de procurar no disco, reduzindo bastante o tempo gasto na busca. Uma unidade que está quase cheia não precisará apenas procurar no disco com mais frequência e com movimentos de busca maiores / maiores, mas pode ter problemas para manter os dados relacionados no mesmo setor, aumentando ainda mais as buscas no disco. Isso é chamado de dados fragmentados .
A liberação de espaço em disco pode melhorar o tempo de busca, permitindo que o serviço de desfragmentação não apenas limpe mais rapidamente os arquivos fragmentados, mas também mova os arquivos para a parte externa do disco, para que o tempo médio de busca seja menor.
Velocidade rotacional
Os discos rígidos giram a uma taxa fixa (normalmente 5400rpm ou 7200rpm para o seu computador e 10000rpm ou até 15000 rpm em um servidor). Também é necessário um espaço fixo na unidade (mais ou menos) para armazenar um único bit. Para um disco girando a uma taxa de rotação fixa, a parte externa do disco terá uma taxa linear mais rápida que a parte interna do disco. Isso significa que os bits próximos à borda externa do disco passam pela cabeça de leitura a uma taxa mais rápida do que os bits próximos ao centro do disco e, portanto, a cabeça de leitura / gravação pode ler ou gravar bits mais rapidamente perto da borda externa do disco que o interior.
Uma unidade quase vazia gastará a maior parte do tempo acessando bits próximos à borda externa mais rápida do disco. Uma unidade quase cheia gasta mais tempo acessando bits próximos à parte interna mais lenta do disco.
Novamente, o esvaziamento do espaço em disco pode tornar o computador mais rápido, permitindo que o serviço de desfragmentação mova dados para a parte externa do disco, onde as leituras e gravações são mais rápidas.
Às vezes, um disco se move muito rápido para a cabeça de leitura, e esse efeito é reduzido porque os setores próximos à borda externa são escalonados ... gravados fora de ordem para que a cabeça de leitura possa acompanhar. Mas no geral isso vale.
Esses dois efeitos se resumem a um controlador de disco que agrupa os dados na parte mais rápida do disco primeiro e não usa as partes mais lentas do disco até que seja necessário. À medida que o disco se enche, mais e mais tempo é gasto na parte mais lenta do disco.
Os efeitos também se aplicam a novas unidades. Tudo o resto é igual, uma nova unidade de 1 TB é mais rápida do que uma nova unidade de 200 GB, porque o 1 TB está armazenando bits mais próximos e não será preenchido rapidamente nas faixas internas. No entanto, tentar usá-lo para informar decisões de compra raramente é útil, pois os fabricantes podem usar vários pratos para atingir o tamanho de 1 TB, pratos menores para limitar um sistema de 1 TB a 200 GB, restrições de software / controlador de disco para limitar um prato de 1 TB a apenas 200 GB de espaço ou venda uma unidade com travas parcialmente concluídas / com falha de uma unidade de 1 TB com muitos setores defeituosos como uma unidade de 200 GB.
Outros fatores
Vale a pena notar aqui que os efeitos acima são relativamente pequenos. Os engenheiros de hardware de computador gastam muito tempo trabalhando em como minimizar esses problemas, e coisas como buffers de disco rígido, cache do Superfetch e outros sistemas trabalham para minimizar o problema. Em um sistema saudável , com muito espaço livre, você provavelmente nem perceberá. Além disso, os SSDs têm características de desempenho completamente diferentes. No entanto, os efeitos existem e um computador fica legitimamente mais lento à medida que a unidade é cheia. Em um sistema não saudável , em que o espaço em disco é muito baixo, esses efeitos podem criar uma situação de debulha de disco, na qual o disco está constantemente buscando informações fragmentadas e liberar espaço em disco pode corrigir isso, resultando em melhorias mais dramáticas e visíveis .
Além disso, adicionar dados ao disco significa que certas outras operações, como indexação ou varreduras AV e processos de desfragmentação, estão apenas realizando mais trabalhos em segundo plano, mesmo que estejam na mesma velocidade ou quase na mesma velocidade de antes.
Finalmente, o desempenho do disco é um grande indicador do desempenho geral do PC atualmente ... um indicador ainda maior que a velocidade da CPU. Mesmo uma pequena queda na taxa de transferência do disco muitas vezes equivale a uma queda geral real percebida no desempenho do PC. Isso é especialmente verdadeiro porque o desempenho do disco rígido não acompanha o ritmo das melhorias de CPU e memória; o disco de 7200 RPM é o padrão de desktop há mais de uma década. Mais do que nunca, esse disco giratório tradicional é o gargalo do seu computador.
fonte
Freeing disk space won't decrease seek times if your data is already all over the drive.
" Eu não pode contestar que, por si só, mas eu posso apontar o serviço de desfragmentação pode agora passar esses dados para a frente do carro, e agora as coisas vão melhorar os tempos de busca. Outros pontos do seu comentário têm contadores semelhantes: ficar sem espaço em disco não aumenta a procura de dados bem organizados, mas torna menos provável que os dados permaneçam organizados.Todas as outras respostas estão tecnicamente corretas - no entanto, sempre achei que este exemplo simples explica melhor.
Classificar as coisas é realmente fácil se você tiver muito espaço ... mas difícil se você não tiver espaço ... os computadores também precisam desse espaço !
Este clássico " quebra-cabeça 15 " é complicado / demorado, porque você só tem 1 quadrado livre para embaralhar os ladrilhos para obtê-los na ordem correta de 1 a 15.
No entanto, se o espaço fosse muito maior, você poderia resolver esse quebra-cabeça em menos de 10 segundos.
Para quem já brincou com esse quebra-cabeça ... entender a analogia parece vir naturalmente. ;-)
fonte
Um computador que possui muito pouco espaço em disco, em um disco rígido mecânico giratório, por um período significativo de tempo, geralmente fica mais lento à medida que a fragmentação do arquivo aumenta. Maior fragmentação significa leituras lentas - muito lentas em casos extremos.
Quando um computador estiver nesse estado, liberar espaço em disco não solucionará o problema. Você também precisa desfragmentar o disco. Antes que um computador esteja nesse estado, liberar o espaço não o acelerará; simplesmente reduzirá as chances de fragmentação se tornar um problema.
Isso se aplica apenas a computadores com discos rígidos mecânicos giratórios, porque a fragmentação tem um efeito insignificante na velocidade de leitura dos SSDs.
fonte
Os discos flash podem definitivamente ficar mais lentos quando estão cheios ou fragmentados, embora os mecanismos de desaceleração sejam diferentes dos que ocorreriam com um disco rígido físico. Um chip de memória flash típico será dividido em algum número de blocos de apagamento, cada um dos quais consiste em um grande número (centenas, senão milhares) de páginas de gravação e suportará três operações principais:
Embora, em teoria, seja possível que cada gravação em uma unidade flash leia todas as páginas de um bloco, altere uma no buffer, apague o bloco e depois grave o buffer no dispositivo flash, essa abordagem seria extremamente lento; também seria provável que causasse perda de dados se a energia fosse perdida entre o momento em que a exclusão foi iniciada e a gravação posterior foi concluída. Além disso, partes do disco frequentemente gravadas se desgastam extremamente rapidamente. Se os primeiros 128 setores do FAT fossem armazenados em um bloco flash, por exemplo, a unidade ficaria inoperante após o número total de gravações em todos esses setores atingir cerca de 100.000, o que não é muito, especialmente considerando que 128 setores realizaria cerca de 16.384 entradas FAT.
Como a abordagem acima funcionaria horrivelmente, o drive fará com que ela identifique alguma página em branco, grave os dados lá e registre de alguma forma o fato de que o setor lógico em questão está armazenado nesse local. Enquanto houver páginas em branco suficientes disponíveis, esta operação poderá prosseguir rapidamente. Se as páginas em branco forem escassas, no entanto, a unidade poderá precisar encontrar blocos que contenham relativamente poucas páginas "ativas", mover quaisquer páginas ativas nesses blocos para algumas das restantes páginas em branco e marcar as cópias antigas como " morto"; feito isso, a unidade poderá apagar blocos que contêm apenas páginas "inativas".
Se uma unidade estiver apenas pela metade, certamente haverá pelo menos um bloco com pelo menos metade das páginas ativas (e provavelmente haverá alguns blocos que contenham poucas ou nenhuma). Se cada bloco contiver 256 páginas e o bloco menos cheio contiver 64 páginas ativas (um caso moderadamente ruim), para cada 192 gravações solicitadas no setor, a unidade precisará executar 64 cópias adicionais do setor e apagar um bloco (portanto, o custo médio gravação de cada setor seria de cerca de 1,34 página gravada e 0,005 apagamento de bloco). Mesmo na pior das hipóteses, cada 128 gravações do setor exigiriam 128 cópias adicionais do setor e uma exclusão de bloco (custo médio por gravação de gravações de 2 páginas e apagamentos de 0,01 blocos)
Se uma unidade estiver 99% cheia e os blocos menos cheios tiverem 248/256 páginas ativas, a cada 8 gravações de setor exigirá 248 gravações de página adicionais e uma exclusão de bloco, gerando um custo por gravação de 32 páginas gravadas e 0,125 bloco apaga - uma desaceleração muito grave.
Dependendo da quantidade de armazenamento "extra" que uma unidade possui, pode não permitir que as coisas fiquem tão ruins. No entanto, mesmo no ponto em que uma unidade está 75% cheia, o desempenho do pior caso pode ser mais do que o dobro do desempenho do pior caso, quando está 50% cheio.
fonte
Você praticamente acertou em cheio. Você pode pensar em um disco rígido SATA como um meio de comunicação half duplex (ou seja, ele só pode aceitar ou transmitir dados de cada vez. Não os dois.), Portanto, quando a unidade é mantida por um longo período procurando um local livre para gravar para, ele não pode ler nenhum dado para você. Como regra geral, você não deve carregar suas unidades com mais de 80% da capacidade por esse motivo. Quanto mais cheio, maior a probabilidade de fragmentar arquivos, o que faz com que a unidade se amarre durante as solicitações de leitura (bloqueando, assim, as solicitações de gravação).
Você pode fazer várias coisas para ajudar com esses problemas:
fonte
$Bitmap
arquivo no NTFS, ou o alocador de bitmap no ext4. Ou seja, esta resposta está espalhando algumas desinformações graves. 3. Há muitas opções de leitura e gravação em buffer e cache que renderizam grande parte desse debate. Essa resposta descreve um pouco os efeitos da fragmentação e, mesmo assim, limitada a sistemas de arquivos mais antigos, certamente não é um espaço livre preciso. Liberar espaço em disco não acelera o computador.Seguindo a abordagem curta e agradável, minha resposta simplificada (estritamente restrita à sua principal confusão) é:
Contanto que seu
Então você não pode dizer a diferença no desempenho de um disco vazio de 80% versus 30% de disco vazio e não deve se preocupar com mais nada além de armazenar mais e mais dados novos.
Qualquer outra coisa que precise de mais armazenamento levará a desempenhos ruins, pois agora pode haver uma falta de espaço disponível.
Claro que a limpeza do disco através de uma ferramenta é boa como:
Todos esses (e muitos outros) motivos levam ao desempenho inferior, pois todos confundem o sistema operacional ao encontrar o conjunto correto de bits para trabalhar.
fonte
Um efeito nas unidades rotativas que eu não vi mencionado: a velocidade de acesso e a velocidade de transferência de dados são diferentes em diferentes partes do disco.
Um disco gira em velocidade fixa. As faixas na parte externa de um disco são mais longas e, portanto, podem conter mais dados por faixa do que as faixas no interior. Se a sua unidade conseguir ler 100 MB / s das faixas mais externas, a velocidade nas faixas mais internas será menor que 50 MB / s.
Ao mesmo tempo, há menos faixas entre 1 GB de dados nas faixas externas do disco do que entre 1 GB de dados nas faixas mais internas. Portanto, em média, para dados armazenados no exterior, será necessário menos movimento da cabeça do que para dados nas faixas mais internas.
O sistema operacional tentará usar as faixas mais externas, se possível. Claro que não é possível se o disco estiver cheio. A exclusão de dados disponibilizará espaço onde a velocidade de transferência for maior e agilizará as coisas. Pelo mesmo motivo, você deve comprar discos rígidos giratórios maiores que o necessário, se quiser velocidade (desde que seja acessível), porque você acabará usando apenas as partes mais rápidas da unidade.
fonte