Questão :::
Instalei o Redhat 5.10 x64 no servidor que apresentava um disco rígido defeituoso. Eu removi o disco rígido antigo com defeito e instalei um novo com capacidade de 500 GB e após a instalação, preciso copiar alguns dados do disco rígido antigo para o novo disco rígido em / u001. Então eu conectei o disco rígido antigo (320 gb) ao servidor. Ele está aparecendo, fdisk -l
mas quando tento montar usando
sudo mount / dev / sdb2 ou / dev / sdb5 diz
Nota: O fdisk -l
disco rígido antigo também possuía o sistema operacional antigo instalado, como você pode ver em / dev / sda = Novo HDD
/ dev / sdb = Disco rígido antigo
Dispositivo já montado ou o recurso está ocupado
Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 * 1 25 200781 83 Linux
/dev/sda2 26 10346 82903432+ 8e Linux LVM
/dev/sda3 10347 11390 8385930 82 Linux swap / Solaris
/dev/sda4 11391 60801 396893857+ 5 Extended
/dev/sda5 11391 60801 396893826 8e Linux LVM
Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 13 104391 83 Linux
/dev/sdb2 14 10242 82164442+ 8e Linux LVM
/dev/sdb3 10243 11286 8385930 82 Linux swap / Solaris
/dev/sdb4 11287 38888 221713065 5 Extended
/dev/sdb5 11287 38888 221713033+ 8e Linux LVM
[admin@testsrv ~]$ sudo mount /dev/sdb2 /media/test/
mount: /dev/sdb2 already mounted or /media/test/ busy
[admin@testsrv ~]$ sudo mount /dev/sdb5 /media/test/
mount: /dev/sdb5 already mounted or /media/test/ busy
Resultado da montagem :::
/dev/mapper/VolGroup00_root-LogVol00 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/mapper/VolGroup00_u001-LogVol00 on /u001/app/oracle type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
PVDISPLAY :: output
sudo pvdisplay
--- Physical volume ---
PV Name /dev/sda5
VG Name VolGroup00_u001
PV Size 378.51 GB / not usable 7.63 MB
Allocatable yes (but full)
PE Size (KByte) 32768
Total PE 12112
Free PE 0
Allocated PE 12112
PV UUID E2ibW6-uaDJ-7FMA-OZS0-sApR-DNwK-0jO3Ob
--- Physical volume ---
PV Name /dev/sda2
VG Name VolGroup00_root
PV Size 79.06 GB / not usable 392.50 KB
Allocatable yes
PE Size (KByte) 32768
Total PE 2530
Free PE 1
Allocated PE 2529
PV UUID YSGQwx-yIsO-CR0C-4G6r-GI9O-nUya-gE22yk
LVMDISkSCAN :: Output
sudo lvmdiskscan
/dev/ramdisk [ 16.00 MB]
/dev/root [ 79.03 GB]
/dev/ram [ 16.00 MB]
/dev/sda1 [ 196.08 MB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45 [ 297.90 GB]
/dev/ram2 [ 16.00 MB]
/dev/sda2 [ 79.06 GB] LVM physical volume
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p1 [ 101.94 MB]
/dev/ram3 [ 16.00 MB]
/dev/sda3 [ 8.00 GB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p2 [ 78.36 GB] LVM physical volume
/dev/ram4 [ 16.00 MB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p3 [ 8.00 GB]
/dev/ram5 [ 16.00 MB]
/dev/sda5 [ 378.51 GB] LVM physical volume
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p5 [ 211.44 GB] LVM physical volume
/dev/ram6 [ 16.00 MB]
/dev/VolGroup00_ora/LogVol00 [ 211.44 GB]
/dev/ram7 [ 16.00 MB]
/dev/VolGroup00_u001/LogVol00 [ 378.50 GB]
/dev/ram8 [ 16.00 MB]
/dev/ram9 [ 16.00 MB]
/dev/ram10 [ 16.00 MB]
/dev/ram11 [ 16.00 MB]
/dev/ram12 [ 16.00 MB]
/dev/ram13 [ 16.00 MB]
/dev/ram14 [ 16.00 MB]
/dev/ram15 [ 16.00 MB]
/dev/sdb1 [ 101.94 MB]
/dev/sdb2 [ 78.36 GB]
/dev/sdb3 [ 8.00 GB]
/dev/sdb5 [ 211.44 GB]
3 disks
25 partitions
0 LVM physical volume whole disks
4 LVM physical volumes
filesystems
rhel
mount
OmiPenguin
fonte
fonte
mount
?findmnt
oumount
?lsof +D /media/test/
seria útillvdisplay
se os dispositivos LVM foram detectados. Você deve poder acessá-los em vez de/dev/sdbX
.Respostas:
Mesmo na versão 5.x, o RHEL estava usando o LVM por padrão. Você precisará executar algumas etapas antes de montar os volumes LVM.
Se você usou o mesmo nome de VGs no novo disco que no antigo, há um problema: você tem dois VGs com o mesmo nome. Para identificar exclusivamente os VGs que você deseja manipular (ou seja, o que está ligado
/dev/sdb
), você precisará dos UUIDs de VG. Corre:para listar todos os PVs LVM detectados, incluindo seus UUIDs VG. Você também verá o nome do VG de cada partição, para poder ver se há ou não conflitos de nome.
O LVM é bastante inteligente o suficiente para não atrapalhar sua configuração ativa do VG, a menos que você realmente se esforce para confundi-la. Portanto, se o
pvs
comando acima mencionado não mostrar nada/dev/sdb
, executevgscan
e tente novamente.Depois de conhecer os UUIDs do VG, você pode usar o comando vgrename para renomear quaisquer VGs conflitantes. Se não houver conflitos de nome, você pode pular para
vgchange
.(Para montar os LV (s) dentro de um VG, você precisará ativar o VG, e um VG não será ativado se seu nome estiver em conflito com um VG já existente.)
O comando para renomear um VG se parece com o seguinte:
onde a
Zvlifi-...
sopa de letrinhas é o VG UUID e o outro parâmetro é apenas o novo nome para esse VG.Depois que os conflitos de nome do VG forem resolvidos (ou se não houver conflitos em primeiro lugar), você precisará ativar o (s) VG (s)
/dev/sdb
. Você pode simplesmente ativar todos os VGs não ativados que o LVM vê com este comando:Ao ativar um VG, os nomes de dispositivos (links) de todos os LVs dentro dele aparecerão como
/dev/mapper/<VG name>-<LV name>
. (Também/dev/<VG name>/<LV name>
por motivos de compatibilidade herdada.)Neste ponto, você pode montá-los como de costume.
fonte
vgchange -ay
e depois era capaz de correr:mount -t ext4 /dev/mapper/my--server--vg-root /tmp/myserver
Se por exemplo
impressões
verifique se há algum processo usando esse dispositivo (/ dev / sda1).
Geralmente, é um processo fsck que é executado automaticamente na inicialização do sistema. Você pode verificá-lo rapidamente, por exemplo,
fonte
Eu já enfrentei uma situação dessas. A experiência e a solução são narradas no meu blog .
o trecho está aqui:
Erro: mount: / dev / mapper / STORBCK-backup já montado ou / STORBCK ocupado?
Diagnóstico: Quando tentamos montar o / STORBCK FS, estamos recebendo o erro acima mencionado.
Resolução: 1. Como o outro FS foi tornado somente leitura, parei / inicio o serviço iscsi. logado com sucesso no dispositivo. /etc/init.d/iscsi stop /etc/init.d/iscsi start https://manastri.blogspot.in/2016/11/mount-devmapperstorbck-backup-already.html
fonte