Lendo a lista de tipos de plugues e tomadas padrão na Wikipedia , vejo que os países aumentaram ou diminuíram a tensão da rede elétrica.
Por exemplo, na Inglaterra continental (País de Gales, Escócia, Inglaterra) a tensão foi reduzida para 240V a 230V. Por outro lado, na Ilha do Norte aumentou de 220V para 230V.
Eles acabaram de mudar a tensão para conhecer informalmente o resto do mundo? Como a grande maioria dos países é de 230V ou 120V.
Existem outras coisas que poderiam ser obtidas com isso? Eu entendo que abaixar a tensão poderia diminuir a dissipação de energia porque , mas aumentar a tensão? O que há para ganhar além de mais perdas?
Respostas:
É padronizar tudo em uma única tensão fixa. Mas, na prática, a tensão da rede elétrica não é 230V. É padronizado em 230V + 10% -6%, ou 216V a 253V. Aqui, a tensão da rede mede 249V, que está no ponto mais alto da balança - mas estamos em uma pequena estrada agrícola sem muitos outros clientes. Fora de casa, eu o medi em 233V, devido a perdas resistivas de maior demanda. Os países não mudaram a tensão real - isso exigiria a troca de todos os geradores ou transformadores do país (a um custo substancial), apenas que a faixa permitida mudou.
fonte
A Europa passou de 220V para 230V nos anos 90. Vantagem: você precisa de menos corrente para a mesma energia, fazendo com que você precise de menos cobre para distribuição, mas é apenas 5%. E se aumentar a tensão oferece uma vantagem, não pode ser uma vantagem nos países onde a tensão diminui.
IMO foi feito para ter mais de um padrão. Atualmente, você pode ter fontes de alimentação universais tão felizes com 115V quanto com 230V, mas no passado um aparelho de 220V pode ter um interruptor para selecionar entre 220V e 240V. Agora que todo mundo usa a mesma 230V, você não precisa mais disso.
editar
fonte
Na minha experiência, uma voltagem mais alta é uma desvantagem para o usuário porque as lâmpadas tendem a ter uma vida mais curta com uma voltagem mais alta. Eu preferiria a CA na faixa de especificação mais baixa por esse motivo e, já que a potência dos aparelhos raramente é motivo de preocupação.
A única exceção em que consigo pensar seria em ferramentas elétricas como uma serra elétrica.
fonte
Há uma questão interessante sugerida nesta pergunta. P é igual a V * I, portanto, para cargas resistivas, se você aumentar a tensão em 5%, também estará aumentando a corrente em 5%, produzindo um aumento de 10% na potência. Mas para uma fonte de alimentação regulada, a saída não muda e o consumo de energia também não. No lado de entrada dessa fonte, a corrente diminuirá quando você aumentar a tensão. Eles costumavam nos dar sermões sobre motores de eletrodomésticos em condições de queda de energia, então devo assumir que esses motores exibem a mesma propriedade.
Se você é a companhia de energia, você teria que fazer algumas descobertas para determinar se sua potência aumentaria ou diminuiria alterando a tensão. Embora eu suspeite que as lâmpadas não sejam responsáveis pela maior parte do uso de energia, também desconfio que elas tenham uma dor de cabeça maior ao lidar com a energia reativa, desses motores de aparelhos e fontes de alimentação sem correção de fator de potência por aí.
fonte