Overclock: dano permanente?

8

Eu sempre tive a impressão de que fazer overclock de qualquer tipo de CPU (para um PC ou microcontrolador) é uma coisa ruim. Você está operando essencialmente a unidade fora das especificações do fabricante, o que significa que o dispositivo pode / pode não funcionar conforme o planejado. Pode ir mais rápido, mas correndo o risco de comportamento errático.

Entendo que a resposta para overclock / not é filosófica, dependendo de quanto risco você deseja assumir com seus dispositivos. Mas,

Que tipo de dano permanente pode ser causado pelo overclock de uma CPU?

(Nota: pergunto isso porque vários de meus amigos são jogadores e pensam em fazer overclocking roxors soxors ... e, por algum motivo estranho, depois que eles fazem isso, seus computadores quebram com telas azuis e, então, eu sou chamado, e quero munição para usá-lo que não preciso solucionar problemas de hardware potencialmente esquisito com tanta frequência ...)

J. Polfer
fonte
"roxors soxors"?
Mateen Ulhaq
É um idioma para entusiastas de computadores dos EUA. Significa "isso é ótimo".
J. Polfer
muntoo - A tradução direta de l33t (Leet) seria "pedras [minhas] meias", e a tradução dessa gíria para o inglês normal é "Isso é ótimo".
Kevin Vermeer

Respostas:

12

Eu fiz overclock em quase todos os computadores (excluindo laptops) que já possuía apenas para economizar custos e fazer com que os sims matlab não demorassem o dia todo.

Overclocking, como aumentar a velocidade do relógio ou multiplicador, não deve danificar as CPUs modernas. O desligamento térmico na CPU deve disparar com antecedência suficiente para evitar danos. As CPUs mais antigas não tinham proteção térmica robusta.

Se você estiver elevando várias tensões na tentativa de executar ainda mais rápido, poderá inadvertidamente causar danos permanentes à CPU. É bom permanecer dentro das especificações de tensão máxima fornecidas pelo fabricante da CPU.

Dependendo do seu modelo de uso, o overclock pode causar uma vida útil reduzida. Isso é realmente apenas uma função da temperatura da CPU, quanto mais quente ele for, menor a vida útil. Se a CPU estiver funcionando bem no limite de sua classificação TDP 24/7, eu não esperaria que ela durasse 10 anos.

Geralmente, você não está executando o dispositivo fora das especificações de design, desde que permaneça dentro dos níveis de tensão especificados. À medida que o projeto é aprimorado, os rendimentos de fabricação ficam cada vez melhores e as peças armazenadas em 2,6 GHz são frequentemente capazes e testadas para velocidades muito mais altas, elas são armazenadas apenas na extremidade inferior para atender à maior demanda do mercado por esse segmento.

Atualmente digitando em um Core i7 920 a 4.1ghz com refrigeração a ar (desde que seja um enorme dissipador de calor e 2 ventoinhas de 140 mm). D0 stepping, um passo mais recente que é capaz de velocidades muito mais altas do que os passos mais antigos. Na verdade, eu executei um teste de prime95 de 12 horas a 4,25ghz, mas algo mais alto começou a vomitar erros e eu não queria aumentar mais as tensões de alimentação, então recuei um pouco para chegar a 4,1 para algum espaço livre. Você também precisa levar em consideração as mudanças de temperatura ambiente se o seu espaço não tiver ar condicionado.

EDIT para sheepsimulator:

O efeito no RAM depende da arquitetura da sua fala e dos recursos oferecidos pela placa-mãe.

Por exemplo, na arquitetura principal do i7:

Na arquitetura Core i7, você tem 1 relógio base que gera os relógios para o núcleo da CPU, o 'uncore', o QPI e a RAM através de 4 multiplicadores diferentes.

Em alguns modelos de CPU, esses multiplicadores têm faixas limitadas, mas a chave para sua pergunta: quando você faz um overclock do sistema, normalmente aumenta o clock base, o que também aumenta o clock da RAM. Porém, você pode reduzir o multiplicador de clock da RAM para obter estoque ou muito próximo das velocidades de ram de estoque, se desejar. Por padrão, o Core i7 920 usa memória RAM DDR3-1066, mas a DDR3-1600 é quase o mesmo preço, então a maioria das pessoas compra a memória RAM mais rápida e ajusta o multiplicador de RAM para atingir a classificação de 1600. Você também tem controle sobre a tensão do ram em boas placas-mãe, assim você tem as opções de sobrecarregar / sincronizar o ram, se desejar.

Em algumas arquiteturas antigas, havia um controle limitado ou inexistente sobre o multiplicador de clock da RAM, o que poderia significar que você precisa de RAM mais rápida para obter um clock da CPU específico.

Marca
fonte
@ Mark - o overclock também não afeta sua RAM com determinadas alterações de parâmetro? Eu tinha um amigo que fez um overclock no i5 e seu slot 0 na placa-mãe ficou danificado e causou erros de teste. Ele mudou o BCLOCK.
J. Polfer
@sheepsimulator - nice name :) e verifique minha edição. Em suma, ele poderia ter feito um overclock descontrolado de seu carneiro se apenas aumentasse cegamente o BCLK sem diminuir o multiplicador de memória. A RAM geralmente não possui muita, se houver, proteção térmica, portanto você deve prestar atenção nos relógios de memória.
Mark
executar a CPU em temperaturas mais altas reduzirá a vida útil esperada da CPU. Apenas como uma nota lateral, pensei em adicioná-lo. Ainda acho que, em geral, meu computador estará desatualizado antes que minha CPU falhe, o que não representa um grande risco.
precisa saber é o seguinte
3

Principalmente é uma questão térmica. A eletromigração pode quebrar o chip devido a muita corrente.

Brian Carlton
fonte
2

Isso me lembra um excelente artigo intitulado The Zen of Overclocking, de Bob Colwell, que foi o principal arquiteto da IA-32 dos processadores Intel Pentium Pro para Pentium 4.

Infelizmente, o documento não está disponível para o público em geral, mas deve estar disponível para os membros da IEEE Computer Society e para a maioria das redes de universidades. Foi publicado originalmente na revista Computer , em março de 2004 (Vol. 37, nº 3), pp. 9-12.

Algumas citações breves:


Resumo : O overclock é um experimento grande e descontrolado na operação do sistema, na melhor das hipóteses.

... Esta edição da Computer [revista magazine] destaca o que chamo de design "melhor que o pior". Com o design normal do pior caso, qualquer sistema de computação é um conglomerado de componentes, operando dentro de frequências, tensões da fonte de alimentação e faixas de temperatura definidas para acomodar simultaneamente os valores do pior caso de cada componente. (As CPUs modernas não fazem mais dessa maneira, mas o fizeram uma vez, e é mais fácil pensar no pior cenário possível dessa maneira.) ...

... Compare a abordagem que pode dar certo dos overclockers ao desafio de engenharia que a Intel e a AMD enfrentam. Primeiro, observe que esse desafio não é apenas o outro lado da moeda do overclocker. Os fabricantes de chips devem projetar e produzir dezenas ou centenas de milhões de chips; overclockers se preocupam apenas com um. Os fabricantes devem definir uma meta de confiabilidade quantificável, e não, nunca são "zero falhas". Seria um alvo inacessível - e não muito produtivo - porque atingi-lo exigiria evitar raios cósmicos. Mesmo no nível do mar, isso exigiria mais metros de concreto do que qualquer comprador de laptop pode achar atraente. E mesmo assim, o concreto só melhoraria as chances. Continuaria sendo um jogo estatístico. ...

Conclusão

Se você não usar fio dental, eles não necessariamente apodrecerão. A grande maioria das viagens de carro não inclui flexão de metal; então, por que usar cintos de segurança? E porque não fumar? Nem todos os fumantes têm câncer. Ou você pode adotar o compromisso de Oscar London: "Se você fuma, por que se preocupar em usar cinto de segurança?" E alguns músicos de rock da década de 1960 ainda estão vivos, então talvez todas essas drogas sejam realmente benéficas, agindo como algum tipo de conservante. Quanto a mim, bem, sou engenheiro e vivo em um mundo estatístico. Eu estou indo com as probabilidades.


Quanto às especificidades de se o overclocking pode causar danos permanentes? Sim, principalmente porque a tecnologia litográfica melhora ao criar matrizes de menor escala (por exemplo, 35 nanômetros), a espessura do isolador / óxido também diminui. Isso significa que essa barreira cada vez mais fina pode falhar devido a alta tensão ou deterioração. Portanto, a margem relacionada para erro aceitável está diminuindo (ou a margem para falha está aumentando).

Acredito que os transistores MOSFET ainda sejam usados ​​para o design da CPU, portanto, analisar algumas das dificuldades com a redução do tamanho do MOSFET pode destacar outros problemas em potencial que o overclocking pode causar. No nível do sistema, o overclock também pode causar EMI / RFI de canal cruzado / interno na matriz da CPU ou em qualquer outro subsistema (por exemplo, barramento de RAM) e pode reduzir a relação sinal-ruído (SNR), de forma mecânica ou mecânica. EMI / RFI externo não são mais toleráveis ​​e acabam produzindo erros aleatórios nos barramentos digitais.

E, para que conste, danifiquei os processadores devido ao estúpido overclocking e à baixa dissipação térmica. Portanto, além da teoria, é realmente possível.

mctylr
fonte
Na verdade, existem 2 versões de overclock, sendo a primeira a rodar o dispositivo mais rápido do que jamais foi projetado para rodar. O segundo está executando uma peça que foi armazenada em uma classe de velocidade mais baixa que sua família pode executar. O primeiro certamente tem muito mais perigo envolvido, o segundo, especialmente em etapas posteriores do dado, é realmente bastante seguro. Tenho a impressão de que o artigo vinculado estava discutindo principalmente o primeiro.
Mark
@ Mark, meu entendimento (incompleto) é que o binning (matriz pequena, graduada para diferentes velocidades) se baseia na análise estatística dos rendimentos, não na economia puramente de mercado (custo x oferta). Você precisaria comparar os custos irrecuperáveis ​​(NRE) com os custos de material por unidade para fornecer uma pista sobre se o binning estava sendo usado para maximizar o lucro.
mctylr
... mesmo die, classificados para diferentes velocidades ...
mctylr
Para esclarecer, talvez, a taxa de falha de um dado individual não seja a mesma na superfície de uma bolacha, mas acredito que na maioria dos casos é a mais baixa no centro e aumenta para as matrizes na borda externa da bolacha. Portanto, a divisão de núcleos de matriz aparentemente idênticos é feita devido à probabilidade de falha, que pode ser atenuada por meio de reduções de velocidade ou pela desativação potencial de um subconjunto de recursos (por exemplo, se o cache L2 ou a FPU são pontos comuns para falha devido à densidade ou paralelo -ness), uma versão em bin pode ter o recurso desativado, reduzindo a chance de falha dessas matrizes mais externas.
Mctylr