Estou tentando descobrir o tamanho ideal para uma cópia grande do meu disco rígido usando o dd. Estou tentando descobrir qual o melhor tamanho de bloco para usá-lo, o que eu diria que é o tamanho do bloco de hardware para essa unidade.
linux
hard-drive
dd
Chama
fonte
fonte
Respostas:
O comando lsblk é ótimo para isso:
Os resultados:
fonte
O Linux expõe o tamanho do setor físico em arquivos
/sys/block/sdX/queue/physical_block_size
. Embora, para obter o melhor desempenho, você provavelmente deva fazer alguns testes com tamanhos e medidas diferentes. Eu poderia não encontrar uma clara resposta em que usando exatamente o tamanho do bloco físico se obter o resultado ideal (embora eu suponho que ele não pode ser uma má escolha).fonte
hdparm
provavelmente irá mentir para você.http://wayback.archive.org/web/20150921015457/https://nxadm.wordpress.com/2010/04/30/4096-physical-block-size-drives/
fonte
hdparm -I /dev/sda | grep Sector
é melhor, pois mostrará os tamanhos físico e lógico de uma só vez, para facilitar a comparação.A minha não pretende ser uma resposta completa, mas espero que também ajude.
Aqui está um pouco de http://mark.koli.ch/2009/05/howto-whole-disk-backups-with-dd-gzip-and-p7zip.html
3 - Determinar o tamanho apropriado do bloco
Para um backup mais rápido, pode ajudar a determinar o tamanho ideal do bloco do dispositivo de disco que você fará o backup. Supondo que você esteja fazendo backup / dev / sda, veja como você pode usar o comando fdisk para determinar o melhor tamanho de bloco:
Observe que a saída do fdisk diz "cilindros de 16065 * 512". Isso significa que existem 512 bytes por bloco no disco. Você pode melhorar significativamente a velocidade do backup aumentando o tamanho do bloco em um múltiplo de 2 a 4. Nesse caso, o tamanho ideal do bloco pode ser 1k (512 * 2) ou 2k (512 * 4). Aliás, ficar ganancioso e usar um tamanho de bloco de 5k (512 * 10) ou algo excessivo não ajudará; eventualmente, o sistema afunilará o próprio dispositivo e você não poderá extrair nenhum desempenho adicional do processo de backup. (enfase adicionada)
Suspeito que a diferença de desempenho entre um tamanho de bloco quase ideal e ideal para uma determinada configuração seja insignificante, a menos que o conjunto de dados seja enorme. De fato, um usuário do FixUnix (pós de 2007) afirmou que seus tempos ideais eram apenas 5% mais rápidos que os sub-ideais. Talvez você possa reduzir um pouco mais a eficiência usando um múltiplo do tamanho do "cluster" ou do tamanho do bloco do sistema de arquivos.
Obviamente, se você se afastar muito dos dois lados do tamanho ideal do bloco, terá problemas.
O ponto principal é que você provavelmente obterá apenas cerca de 5% em desempenho (ou seja, 3 minutos por hora) com o tamanho ideal absoluto do bloco, portanto, considere se vale a pena o seu tempo e esforço para pesquisar mais. Contanto que você fique longe de valores extremos, não deve sofrer.
fonte
echo "p" | /sbin/fdisk /dev/sda...
vez de/sbin/fdisk -l /dev/sda...
? o segundo será mais limpo e não tentará fazer alterações./sbin/fdisk -l /dev/sda | grep Units
. Pode ter sido alterado nos últimos dois anos. De qualquer forma, atualizei sua resposta.Cada transferência de disco gera uma interrupção que o processador deve manipular. Um disco típico de 50Mb / s desejará gerar 100000 deles por segundo no tamanho de bloco de 512b O processador normal processaria 10s de milhares deles, portanto, um tamanho de bloco maior (2 ^ x) seria mais útil (4k como tamanho padrão de bloco FS na maioria dos casos) sistemas de até 64k de tamanho ISA DMA) seria mais prático ...
fonte
Além disso, você pode examinar a saída de
lshw
para verificar outros resultados (e também porque eu não pareço terhdparm
disponível na minha distribuição). Isso pode ajudar a reduzi-la:fonte