Por que o hardware fica mais lento com o tempo?

38

Por que o hardware fica mais lento com o tempo? Sou dono de um PC desde 1990 e todos os computadores que tive na minha vida se tornaram muito, muito lentos depois de 3-4 anos (mesmo com uma reinstalação completa do sistema). É o caso dos PCs com Windows. É também o caso do Apple Hardware. Por que isso está acontecendo? Isso pode ser evitado?

Alexey Kulikov
fonte
17
As fadas de computador ficar entediado e indo para um lugar mais rápido :(
Phoshi
11
@Fhoshi computador fadas? Eu pensei que eram gremlins consumindo ciclos de CPU.
alex
2
As fadas mantêm a CPU melhorando o ciclo. É uma batalha constante.
Phoshi
11
fadas de computador? bah. é um fato bem conhecido que os hamsters mais velhos não correm tão rápido quanto os mais jovens. você tem que abrir o estojo e trocar de vez em quando um hamster fresco.
quack quixote
2
a maior questão é o que fazer com os hamsters usados. nomeei os dois últimos "Mais barato que" e "Comida de gato", mas não estou convencido de que seja o melhor método de descarte.
quack quixote

Respostas:

32

Às vezes, é o hardware, especialmente com laptops. Os processadores modernos possuem circuitos para protegê-los contra superaquecimento e reduzirão deliberadamente a velocidade da CPU se a temperatura do núcleo ficar muito quente (ou também para economizar energia quando a demanda for baixa e você estiver usando baterias - a Intel chama o recurso "SpeedStep" em seus processadores). Se você notar que o ventilador está funcionando o tempo todo ou a máquina está excessivamente quente ao redor da saída do ventilador, as "vias aéreas" do computador podem estar entupidas de poeira.

Eu tinha um Dell Latitude que funcionou como novo depois de abri-lo e remover uma "esponja" de pó de um quarto de polegada de espessura entre o ventilador e o dissipador de calor. Na verdade, a Dell possui instruções de serviço para download em seu site, que explicam todas as etapas para abrir a máquina e entrar nesse tipo de serviço. Se você não se sentir confortável com isso, provavelmente terá um amigo técnico que irá ajudá-lo. Definitivamente vale a pena o risco se você planeja se livrar da máquina de outra maneira!

Se você acha que isso pode estar acontecendo na sua máquina, tente fazer o download de um utilitário como o "SpeedFan", que permite verificar a temperatura da CPU e de outros componentes. Com este aplicativo, você pode representar graficamente as temperaturas quando inicia a máquina. Se eles começarem a subir rapidamente e nunca parecem diminuir, você pode apostar que o resfriamento é um problema. No meu caso, também usei um aplicativo gratuito chamado "CS Fire Monitor" para me mostrar a velocidade real do meu processador e descobri que, quando esquentava, estava caindo para menos da metade da velocidade. Existem muitos freewares bons por aí que mostram esse tipo de informação; basta pesquisar no Google "CPU Temp Freeware" ou "CPU Speed ​​Freeware" ou algo do gênero e você encontrará todos os tipos de opções.

Felizmente, isso salvará algumas pessoas de substituir ou jogar fora um hardware decente que só precisa de terapia respiratória!

Todd Corson
fonte
38

Existem alguns efeitos aqui:

  1. Sua percepção de quão rápido o computador deve estar está mudando. Quando você adquire um novo hardware, você tem algo concreto para comparar - o hardware antigo. Isso fornece uma medida empírica da melhoria da velocidade. À medida que o tempo passa, sua memória de quão lento o hardware antigo foi diminuindo, você só tem a rapidez com que o hardware atual foi comparado recentemente.
  2. Novas versões de software são lançadas, adicionando novos recursos para ampliar a funcionalidade ou fazer uso do novo hardware. Esse será, por definição, um programa maior do que o anterior, que consumirá mais recursos, fazendo com que o hardware seja um pouco mais lento.
  3. Acumulação de drivers, programas / tarefas executados em segundo plano, etc. Cada tarefa adicional de driver / segundo plano consome um pouco mais de recursos - espaço no disco rígido, memória, ciclos de CPU, etc. Embora cada um não seja grande, o efeito é cumulativo. As pessoas esperam que os programas modernos se atualizem para que haja tarefas extras em execução que você não conhece. Quanto mais tempo você tiver o computador, maior será a probabilidade de instalação desses programas.

Quando reunidos, eles dão a impressão de que o hardware está diminuindo a velocidade.

Também pode haver outros efeitos devido ao desgaste do hardware (fragmentação do disco, latência da memória).

ChrisF
fonte
10
Isso não é verdade. Por exemplo, eu me filmei usando meu novo PowerBook G4 alguns dias depois de ele chegar. Não precisei esperar nem um segundo para o Finder abrir e fazer as coisas comuns de gerenciamento de arquivos. A média de carga da CPU ficou abaixo de 2%. Para provar meu argumento, reinstalei o TIGER formatando completamente o disco rígido. Ainda recebo uma carga média de CPU de 30% e tenho que esperar 3-4 segundos antes de concluir qualquer operação de busca.
Alexey Kulikov
11
@Alexey Kulikov - ChrisF não disse "Está tudo na sua cabeça" foi a única razão pela qual o hardware fica mais lento. O desgaste no hardware também pode causar o que você está descrevendo. Existem tantas variáveis ​​que é difícil dizer exatamente o porquê.
1911 J. Polfer
11
Sua reinstalação completa incluiu a aplicação de atualizações? Nesse caso, não é uma verdadeira comparação de maçãs com maçãs.
31411 Chris Nava
5
@ Chris - "Maçãs para Maçãs", lol. Chalaça pretendida?
Moshe
3
@ Moshe Eu gostaria de poder dizer Sim, mas isso nunca passou pela minha cabeça. :-( Sério, patches (esp patches de segurança) muitas vezes têm impactos de desempenho para testar uma vs. sistema totalmente atualizado que você se lembra de anos atrás é repleta de variáveis desaparecidas.
Chris Nava
14

Quando executei benchmarks (tanto triviais como bogomips e mais sérios como Dhrystone e Whetstone ) em hardware de cinco a oito anos, sempre achei que ele apresentava os mesmos resultados de quando era novo. (Sempre no Linux e Mac OS box, BTW.)

Tenho menos experiência com discos rígidos, mas testei uma unidade SCSI2 rápida e ampla cerca de cinco anos depois (com hdparm) e obtive respostas comparáveis ​​às especificações originais.

Então, acho que é principalmente, como outros já disseram, uma combinação de novas expectativas e software mais pesado.

Dito isto, atualmente tenho um powerbook G4 que poderia usar testes, pois certamente parece mais lento agora do que costumava. A sugestão acima de que a aceleração do relógio pode entrar em jogo se o sistema de resfriamento se sujar é bom.

dmckee
fonte
12

Lei da Página ;)

A lei de Wirth, também conhecida como lei de Page, lei de Gates e lei de maio, é um ditado de computação que afirma que o software está ficando mais lento mais rapidamente do que o hardware.

sYnfo
fonte
3
+1 Não é o hardware, mas o software sendo mais lento
Ivo Flipse
Eu tive isso como um tapa na cara quando consegui banda larga (e, portanto, poderia baixar um novo software). PC tem muito mais lento tão rapidamente, e nada ajudou :(
Phoshi
6
haha, a Lei de Gate também é mencionada lá: "... a velocidade do software comercial geralmente diminui cinquenta por cento a cada 18 meses, negando assim todos os benefícios da Lei de Moore".
Bratch 14/10/09
6

Algumas lentidão são causadas pela fragmentação do disco rígido , cuja cura é a desfragmentação .
isso é definido como:

a fragmentação do sistema de arquivos, às vezes chamada de envelhecimento do sistema de arquivos, é a incapacidade de um sistema de arquivos de organizar dados relacionados sequencialmente (contiguamente), um fenômeno inerente aos sistemas de arquivos com armazenamento em backup que permite a modificação no local de seu conteúdo. É um caso especial de fragmentação de dados. A fragmentação do sistema de arquivos aumenta o movimento da cabeça do disco ou as buscas, conhecidas por dificultar a taxa de transferência. A correção para a fragmentação existente é reorganizar arquivos e liberar espaço de volta em áreas contíguas, um processo chamado desfragmentação.

No Windows, há outro motivo, o do Registro do Windows

O Registro do Windows é um banco de dados que armazena configurações e opções para os sistemas operacionais Microsoft Windows. Ele contém informações e configurações de hardware, software do sistema operacional, a maioria dos softwares que não são do sistema operacional e configurações por usuário. O registro também fornece uma janela para a operação do kernel, expondo informações de tempo de execução, como contadores de desempenho e hardware atualmente ativo.

Com o tempo, o tempo de registro acumula lixo e também precisa ser limpo e otimizado.

Outra explicação é que as versões mais recentes do sistema operacional geralmente são mais inchadas e mais lentas. Isso significa que, ao instalar a versão ou patches mais recentes de O / S, você poderá, após alguns anos, repentinamente notar que seu computador está mais lento e que é hora de investir em um novo hardware que possa suportar com eficiência os requisitos da versão mais recente do seu computador. sistema operacional.

harrymc
fonte
supondo que uma "nova instalação" inclua a formatação da unidade do sistema, nenhuma delas afeta uma nova instalação do SO no hardware antigo.
quack quixote
O efeito da fragmentação também depende em grande parte do sistema de arquivos que você está usando. Alguns sistemas de arquivos (com o FAT) sofrem muito e outros sofrem muito pouco. Nem todo sistema operacional usa um banco de dados centralizado que cresce infinitamente para armazenar vários switches e opções.
dmckee
Vou entrar em conflito aqui e declarar que, em 20 anos de uso intenso de computadores, nunca vi um sistema acelerar visivelmente depois que um disco foi fragmentado. Existe alguma evidência objetiva para contradizer a experiência.
Matthew Lock
11
depende do que você está fazendo. rastrear minha unidade de dados que não é do sistema (por exemplo, executar cálculos md5) é muito mais rápido quando todos os arquivos na unidade são desfragmentados do que quando arquivos de mais de 1 GB estão espalhados em mais de 200 fragmentos. se você não estiver vendo a aceleração do sistema após uma desfragmentação, talvez os arquivos do sistema não tenham sido fragmentados para começar.
quack quixote
Para adicionar ao comentário de Matthew, nunca vi um computador acelerar depois que o registro foi limpo também. Para as centenas de milhares de entradas, remover algumas centenas não fará nenhuma diferença.
Richard
4

Você se acostuma com a velocidade e agora ela se sente mais rápida.

Por exemplo, eu tinha um cliente que tinha uma rotina (que eles consideravam um tempo de inatividade) que levava mais de uma hora em um computador antigo e, quando atualizavam o computador, o processo levava cinco minutos, o que os deixava muito felizes por um tempo.

Avancemos alguns anos e agora eles reclamam dessa rotina que leva cinco minutos. E toda vez que reclamam, genuinamente parecem ter esquecido o tempo que levou uma hora.

sgmoore
fonte
2

Há uma certa quantidade de problemas de percepção, mas se você estiver realmente medindo uma redução no desempenho, eu procuraria as partes móveis do sistema.

"Peças móveis", você pergunta, "que peças móveis?"

Duas categorias fáceis de verificar: ventiladores e unidades de disco. Os ventiladores são óbvios, mas além do próprio ventilador, verifique se o fluxo de ar e o resfriamento estão desobstruídos para garantir que as temperaturas dos componentes internos também estejam onde estavam quando a caixa era nova. Os discos são um pouco mais sutis, mas um disco deteriorado pode reduzir drasticamente o desempenho enquanto parece funcionar. Veja se os benchmarks de disco correspondem ao novo desempenho ou se a contagem de erros aumentou drasticamente.

Enquanto eles realmente não se movem, eles são o equivalente moral: conectores de cabo. Qualquer extremidade destacável de cada cabo. Desconecte, certifique-se de que está limpo, reconecte e aperte bem.

mpez0
fonte
1

Talvez seja apenas a sua percepção.

Há 3 ou 4 anos, estava lançando um novo hardware que era mais rápido que a geração anterior de hardware, portanto, parecia muito rápido.

Em 3 a 4 anos desde então, sem dúvida você utilizou computadores com hardware melhor; portanto, mesmo que você faça uma instalação limpa na máquina antiga, suas experiências em hardware mais recente deixarão uma impressão pouco clara da máquina antiga.

Ou você tem evidências empíricas de que a máquina realmente executa mais devagar?

JRT
fonte
Sim, existem evidências - filmei-me usando o meu novo PowerBook G4 alguns dias depois de ele chegar. Não precisei esperar nem um segundo para o Finder abrir e fazer as coisas comuns de gerenciamento de arquivos. A média de carga da CPU ficou abaixo de 2%. Para provar meu argumento, reinstalei o TIGER formatando completamente o disco rígido. Ainda recebo uma carga média de CPU de 30% e tenho que esperar 3-4 segundos antes de concluir qualquer operação de busca.
Alexey Kulikov
Ok, meu outro pensamento seria que, com o tempo, o disco rígido desenvolveu setores defeituosos e, com isso, seria uma sobrecarga ter que reler dados que falharam nas verificações de integridade. Isso ocorreria mesmo após um formato completo.
JRT
Quanto tempo demorou entre o momento em que você se filmou usando o seu novo PowerBook e a reinstalação do TIGER?
1911 J. Polfer
4 anos. Eu sempre tive a impressão de que o hardware estava se desgastando e, há alguns dias, encontrei um screencast que gravei há 4 anos. Então eu fui para o experimento, e pronto - tudo verdade.
Alexey Kulikov
1

Acredito que algumas atualizações de driver nos dias de hoje também atualizem o firmware do dispositivo relacionado. Também há atualizações em potencial de microcódigo da CPU, embora raras.

Eu já vi algumas ferramentas populares de diagnóstico / referência afirmarem que as coisas funcionavam em velocidade normal, mas havia algum tipo de problema de driver / hardware de baixo nível que fazia o ponteiro do mouse rastejar e pular. Na época, eu não sabia sobre a medição da latência do DPC - essa ferramenta provavelmente indicava que havia um problema.

O ponto é - é possível que as coisas possam desacelerar de uma maneira que faça com que as coisas pareçam mais lentas, mas não apareçam no tipo de ferramentas que os usuários casuais de PCs usam.

Se alguém quiser explorar isso, acho que deveria ter dois computadores idênticos, o outro nunca se conectando à rede, nunca recebendo atualizações ou novos drivers instalados. E cronometre os dois computadores usando o timer externo / verifique o tempo do NTP apenas para ter certeza. - e após 4 anos, cronometre os dois novamente e, se houver alguma diferença, clone o disco do computador não conectado ao computador conectado e tente novamente. E verifique as alterações de versão de firmware, etc. edite: E quando digo "tempo", quero dizer cronometrar alguma tarefa personalizada, sem usar o benchmark existente. Tanto os fornecedores de GPU quanto de CPU foram apanhados nos benchmarks conhecidos de jogos de acordo com a Anandtech e alguns outros sites nos últimos anos que li.

Covarde anônimo
fonte
0

Na verdade, este não é um problema técnico, mas um problema do cérebro humano. Isso pode surpreendê-lo, mas deixe-me explicar. Eu tenho uma boa base para o que eu digo.

Parte do problema é como as atualizações e patches de software são aplicadas, mas não acho que esse seja o núcleo do problema.

As máquinas de hardware realmente ficaram significativamente mais rápidas ao longo dos anos, mas a capacidade do software para carregá-lo aumentou a uma taxa ainda mais rápida, dando a percepção e a realidade de que algumas coisas são mais lentas, como são.

Por exemplo, minha primeira caixa Z-80 tinha uma velocidade de clock de 1 mega hertz. Agora, minha plataforma de desenvolvimento roda a 2,66 ghz, ou mais de 2000 vezes mais rápido. Não me lembro exatamente, mas todo o CPM se encaixa em cerca de 16kb. Agora, o Windows é quem sabe o tamanho, mas muito, muito maior. Ele usa muitas camadas de abstração que realizam coisas incríveis de uma maneira mais geral, mas essas camadas afetam o desempenho.

Deixe-me voltar ao cérebro humano. O que é bem entendido é que, por muitos anos, os engenheiros de software disseram e acreditavam, por algum bom motivo, que o hardware seria cada vez mais rápido e, portanto, o software não precisava ter cuidado com os problemas de otimização. Então, os programadores fizeram as coisas para que as coisas funcionassem rapidamente e com o custo da velocidade, ... pensando que o pessoal do hardware cuidaria desse problema. Portanto, as atualizações e correções são feitas com o pensamento de que são temporárias, ou seja, de curto prazo.

É: curto prazo, micro-pensamento, a longo prazo, problema macro.

Li um livro interessante, há muitos anos, em que alguns cientistas expuseram esse problema de pensamento humano de curto prazo versus longo prazo, e fizeram algumas experiências em uma ampla gama de seres humanos para ver como eles fazem essas trocas. Seu livro é New World New Mind, e os autores são Paul Ehrlich e Robert Ornstein. Eu o descreveria como o livro mais importante que li nos últimos 20 anos, porque forneceu uma estrutura sólida para a maneira como resolvemos o problema.

O que eles observaram foi que o cérebro humano evoluiu em um momento em que tomar decisões de curto prazo fazia sentido. Viva o momento e o dia, mas não pense muito no futuro. Simplesmente não valia a pena. Portanto, nosso senso de coisas que costumamos tomar para tomar decisões é uma parte muito antiga do cérebro e não é adequada para muitos problemas modernos. E o cérebro não teve tempo realista de evoluir, pois o mundo mudou rapidamente com o crescimento da população e o impacto da tecnologia nas coisas.

O que o professor Ehrlich e Ornstein descobriram foi que Ph.D. muito inteligentes e bem-educados, mas também zeladores, cometeram os mesmos erros quando apresentaram problemas de curto prazo versus problemas de longo prazo. Não é algo que geralmente pensamos ser o caso.

Um exemplo muito bom e convincente de como esse mesmo problema está ocorrendo no mundo de hoje não tem a ver com o ambiente de hardware, mas é o irmão mais velho de todo o ambiente em que vivemos. Nós, humanos, geralmente cometemos o erro de viver hoje, no momento, mas a realidade é que o aquecimento global está sobre nós exatamente porque não permitimos ou tomamos medidas para lidar com isso. É a lentidão do hardware, pelo problema do software, novamente, mas em um contexto diferente.

Ornstein e Ehrlich sugeriram que poderíamos tomar decisões mais corretas baseando nossa decisão não em nosso instinto, mas em dados e estatísticas. Por exemplo, se um engenheiro de software tivesse estatísticas de quão rápido seu software estava inchando em relação à velocidade do hardware, eles poderiam tomar melhores decisões sobre o que incluir, o que deixar de fora e quanto otimizar algoritmos. Em outras palavras, se eles usassem dados reais para tomar decisões, em vez de seu instinto.

Obrigado pela boa pergunta. Às vezes, as perguntas simples são as melhores que eu penso. isso me deu a oportunidade de considerar isso de um novo ângulo. Eu nunca tinha visto o paralelo entre a questão do software de hardware no contexto humano.

Vista elíptica
fonte
0

A maioria dos benchmarks (se houver) não é confiável para medir o snappiness do SO. A menos que o benchmark seja um sistema USB para USB que esteja controlando a interface do usuário de outro computador, emulando como mouse / teclado, os caminhos de execução serão totalmente diferentes. A lentidão nos PCs que conheço surge devido a atualizações de driver / segurança que também podem atualizar o firmware (e você não sabe se a atualização fw no driver persiste ou não), portanto, a única comparação verdadeira entre maçãs e maçãs é comprar 2 computadores e nunca conecte o outro à Internet ou atualize os drivers após a primeira instalação, mas guarde-o para comparação posterior usando essa ferramenta de benchmarking externo.

Comecei a suspeitar de todos os benchmarks quando encontrei um caso em que o benchmark estava retornando números "bons", enquanto algum problema de hardware fazia o mouse congelar e o sistema era apenas pouco controlável - claramente os benchmarks não são afetados por alguns baixos nivelar coisas que podem afetar, por exemplo. snappiness e controlabilidade do PC.

(Caso um pouco diferente, mas semelhante: embora o Q6600 tenha um benchmark igual ao do núcleo duplo equivalente ao Ghz equivalente, notei que a capacidade de resposta era claramente menor. como a maioria dos benchmarks que mostram o FPS não detectariam alguns tremores que o usuário sentiria, os benchmarks de PC usados ​​pela imprensa técnica não medem coisas como "Interromper a latência do processo" e mostram as estatísticas disso em vez de apenas uma média)

edit: E se você estiver fazendo essa configuração com um PC de referência intocado, se ele tiver uma bateria e / ou já estiver ligado, o fabricante de hw poderá trapacear executando um LFO para obsoleto secretamente o hardware, por exemplo. desacelerando algumas operações que os benchmarks não fazem benchmark. Um benchmark melhor do que o normal para a imprensa do jogo seria rodar, por exemplo. dosbox, emuladores, medições de latência no vmware / hyperv, pois isso sobrecarregará a CPU de maneiras mais complexas do que de outra forma.

edit2: e se eles realmente quisessem, poderiam colocar algo que envelheça ou algum contador e capacitor de potência ultra baixa ou uma minúscula bateria carregada na fábrica. Portanto, não importa se você nunca liga o dispositivo, eles podem torná-lo mais lento com o tempo, mas esse tipo de coisa pode ser uma responsabilidade se alguém o encontrar, mas isso realmente não importaria, a menos que isso fosse ilegal e as multas fossem suficientes para eliminá-los de negócios.

Covarde anônimo
fonte