Nosso servidor sofreu recentemente uma falha no disco; portanto, nosso provedor de hospedagem instalou um novo disco no CentOS para que possamos fazer o login e ver se podemos recuperar os dados.
Tínhamos 2 unidades SSD de 120 GB na configuração do software RAID0 - nosso host configurou isso para nós; nós não fizemos isso sozinhos porque não temos o "know-how" - por isso, estou aqui postando isso.
Aqui está a saída do fdisk -l -
SDB e SDC são as unidades RAID.
Eu tentei os seguintes comandos para montar as unidades:
Pesquisei e descobri que, para o software RAID, você pode usar a ferramenta mdadm para digitalizar / montar automaticamente, mas isso também não funcionou:
[root@localhost ~]# mdadm -A --scan
mdadm: No arrays found in config file or automatically
Eu tentei executar a opção de examinar e esta é a saída:
[root@localhost ~]# mdadm --examine /dev/sdb
/dev/sdb:
MBR Magic : aa55
Partition[0] : 204800 sectors at 2048 (type 83)
Partition[1] : 20480000 sectors at 206848 (type 83)
Partition[2] : 8192000 sectors at 20686848 (type 82)
Partition[3] : 435964672 sectors at 28878848 (type 05)
[root@localhost ~]# mdadm --examine /dev/sdb1
mdadm: No md superblock detected on /dev/sdb1.
[root@localhost ~]# mdadm --examine /dev/sdb2
mdadm: No md superblock detected on /dev/sdb2.
[root@localhost ~]# mdadm --examine /dev/sdb3
mdadm: No md superblock detected on /dev/sdb3.
[root@localhost ~]# mdadm --examine /dev/sdb4
mdadm: No md superblock detected on /dev/sdb4.
[root@localhost ~]# mdadm --examine /dev/sdc
mdadm: No md superblock detected on /dev/sdc.
[root@localhost ~]# mdadm --examine /dev/sdc1
mdadm: cannot open /dev/sdc1: No such file or directory
e aqui está a saída do cat / proc / mdstat
root@localhost ~]# cat /proc/mdstat
Personalities :
unused devices: <none>
Eu tive um problema semelhante antes e já o perguntei antes - monte novamente dois discos antigos da instalação do raid0 para recuperar dados
Da última vez, consegui corrigi-lo porque a matriz estava 100% limpa e consegui montá-lo executando este comando: mkdir / mnt / oldData && mount / dev / md127 / mnt / oldData, mas desta vez o problema parece ser diferente . Não há / dev / md * - veja isto ->
Alguém pode ajudar?
fonte
Respostas:
Pelo que entendi, houve uma falha no disco na matriz RAID 0. O RAID 0 não tem tolerância a falhas e é usado principalmente para velocidade. Sem os dois discos ou usando uma configuração de matriz RAID alternativa com paridade, você não pode recuperar esses dados.
Se você conseguir recuperar os dados do disco que falhou, tente movê-los para uma nova unidade e adicioná-los novamente à matriz. Não é garantido que funcione, mas isso pode ser tentado se você ainda tiver a unidade com falha ou se os dados dessa unidade forem recuperados de alguma forma.
fonte
mdadm --examine --metadata 1.2 / dev / sd [bc]
Parece uma invasão de software de dispositivo de bloco completo. Não é baseada em partições - partições são definidas na primeira unidade.
Tente encontrar os metadados nos discos usando várias versões de metadados. Existe a possibilidade de que a distribuição ao vivo inicializada não suporte seu tipo de metadados.
homem mdadm é seu amigo :)
Aqui está um exemplo com o sistema de minas: SSD 2x30GB:
mdadm --examine --metadata 1.2 / dev / sdb1
mdadm --examine --metadata 0.9 / dev / sdb1
fonte