Dispositivo já montado ou o recurso está ocupado

9

Questão :::

Instalei o Redhat 5.10 x64 no servidor que apresentava um disco rígido defeituoso. Eu removi o disco rígido antigo com defeito e instalei um novo com capacidade de 500 GB e após a instalação, preciso copiar alguns dados do disco rígido antigo para o novo disco rígido em / u001. Então eu conectei o disco rígido antigo (320 gb) ao servidor. Ele está aparecendo, fdisk -lmas quando tento montar usando

sudo mount / dev / sdb2 ou / dev / sdb5 diz

Nota: O fdisk -l
disco rígido antigo também possuía o sistema operacional antigo instalado, como você pode ver em / dev / sda = Novo HDD
/ dev / sdb = Disco rígido antigo

Dispositivo já montado ou o recurso está ocupado

Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          25      200781   83  Linux
/dev/sda2              26       10346    82903432+  8e  Linux LVM
/dev/sda3           10347       11390     8385930   82  Linux swap / Solaris
/dev/sda4           11391       60801   396893857+   5  Extended
/dev/sda5           11391       60801   396893826   8e  Linux LVM

Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          13      104391   83  Linux
/dev/sdb2              14       10242    82164442+  8e  Linux LVM
/dev/sdb3           10243       11286     8385930   82  Linux swap / Solaris
/dev/sdb4           11287       38888   221713065    5  Extended
/dev/sdb5           11287       38888   221713033+  8e  Linux LVM
[admin@testsrv ~]$ sudo mount /dev/sdb2 /media/test/
mount: /dev/sdb2 already mounted or /media/test/ busy
[admin@testsrv ~]$ sudo mount /dev/sdb5 /media/test/
mount: /dev/sdb5 already mounted or /media/test/ busy

Resultado da montagem :::

/dev/mapper/VolGroup00_root-LogVol00 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/mapper/VolGroup00_u001-LogVol00 on /u001/app/oracle type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)

PVDISPLAY :: output

    sudo pvdisplay
      --- Physical volume ---
      PV Name               /dev/sda5
      VG Name               VolGroup00_u001
      PV Size               378.51 GB / not usable 7.63 MB
      Allocatable           yes (but full)
      PE Size (KByte)       32768
      Total PE              12112
      Free PE               0
      Allocated PE          12112
      PV UUID               E2ibW6-uaDJ-7FMA-OZS0-sApR-DNwK-0jO3Ob

      --- Physical volume ---
      PV Name               /dev/sda2
      VG Name               VolGroup00_root
      PV Size               79.06 GB / not usable 392.50 KB
      Allocatable           yes
      PE Size (KByte)       32768
      Total PE              2530
      Free PE               1
      Allocated PE          2529
      PV UUID               YSGQwx-yIsO-CR0C-4G6r-GI9O-nUya-gE22yk

LVMDISkSCAN :: Output

sudo lvmdiskscan
  /dev/ramdisk                                                        [       16.00 MB]
  /dev/root                                                           [       79.03 GB]
  /dev/ram                                                            [       16.00 MB]
  /dev/sda1                                                           [      196.08 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45   [      297.90 GB]
  /dev/ram2                                                           [       16.00 MB]
  /dev/sda2                                                           [       79.06 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p1 [      101.94 MB]
  /dev/ram3                                                           [       16.00 MB]
  /dev/sda3                                                           [        8.00 GB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p2 [       78.36 GB] LVM physical volume
  /dev/ram4                                                           [       16.00 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p3 [        8.00 GB]
  /dev/ram5                                                           [       16.00 MB]
  /dev/sda5                                                           [      378.51 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p5 [      211.44 GB] LVM physical volume
  /dev/ram6                                                           [       16.00 MB]
  /dev/VolGroup00_ora/LogVol00                                        [      211.44 GB]
  /dev/ram7                                                           [       16.00 MB]
  /dev/VolGroup00_u001/LogVol00                                       [      378.50 GB]
  /dev/ram8                                                           [       16.00 MB]
  /dev/ram9                                                           [       16.00 MB]
  /dev/ram10                                                          [       16.00 MB]
  /dev/ram11                                                          [       16.00 MB]
  /dev/ram12                                                          [       16.00 MB]
  /dev/ram13                                                          [       16.00 MB]
  /dev/ram14                                                          [       16.00 MB]
  /dev/ram15                                                          [       16.00 MB]
  /dev/sdb1                                                           [      101.94 MB]
  /dev/sdb2                                                           [       78.36 GB]
  /dev/sdb3                                                           [        8.00 GB]
  /dev/sdb5                                                           [      211.44 GB]
  3 disks
  25 partitions
  0 LVM physical volume whole disks
  4 LVM physical volumes
OmiPenguin
fonte
Qual é o resultado de mount?
csny
Você pode mostrar a saída de findmntou mount?
Spack
Além disso, a saída lsof +D /media/test/seria útil
csny
1
O problema é que o disco antigo não possui sistemas de arquivos simples nas partições, mas possui uma camada LVM entre o dispositivo e os sistemas de arquivos, conforme mostrado pelo tipo de partição. Verifique se o seu novo sistema possui ferramentas LVM instaladas, reinicialize com o disco antigo conectado e verifique lvdisplayse os dispositivos LVM foram detectados. Você deve poder acessá-los em vez de /dev/sdbX.
wurtel
2
Para todos os ajudantes, desculpe, foi puramente meu erro que eu esqueci totalmente que isso era partições lvm. E precisa montar usando mount / dev / mapper / VG_u001 / media / test @wurtel, você pode dizer quais ferramentas podem ser usadas para restaurar os arquivos dos LVMs.
OmiPenguin 19/01

Respostas:

2

Mesmo na versão 5.x, o RHEL estava usando o LVM por padrão. Você precisará executar algumas etapas antes de montar os volumes LVM.

Se você usou o mesmo nome de VGs no novo disco que no antigo, há um problema: você tem dois VGs com o mesmo nome. Para identificar exclusivamente os VGs que você deseja manipular (ou seja, o que está ligado /dev/sdb), você precisará dos UUIDs de VG. Corre:

# pvs -o +vg_uuid

para listar todos os PVs LVM detectados, incluindo seus UUIDs VG. Você também verá o nome do VG de cada partição, para poder ver se há ou não conflitos de nome.

O LVM é bastante inteligente o suficiente para não atrapalhar sua configuração ativa do VG, a menos que você realmente se esforce para confundi-la. Portanto, se o pvscomando acima mencionado não mostrar nada /dev/sdb, execute vgscane tente novamente.

Depois de conhecer os UUIDs do VG, você pode usar o comando vgrename para renomear quaisquer VGs conflitantes. Se não houver conflitos de nome, você pode pular para vgchange.

(Para montar os LV (s) dentro de um VG, você precisará ativar o VG, e um VG não será ativado se seu nome estiver em conflito com um VG já existente.)

O comando para renomear um VG se parece com o seguinte:

vgrename Zvlifi-Ep3t-e0Ng-U42h-o0ye-KHu1-nl7Ns4 new_name_for_vg

onde a Zvlifi-...sopa de letrinhas é o VG UUID e o outro parâmetro é apenas o novo nome para esse VG.

Depois que os conflitos de nome do VG forem resolvidos (ou se não houver conflitos em primeiro lugar), você precisará ativar o (s) VG (s) /dev/sdb. Você pode simplesmente ativar todos os VGs não ativados que o LVM vê com este comando:

vgchange -ay

Ao ativar um VG, os nomes de dispositivos (links) de todos os LVs dentro dele aparecerão como /dev/mapper/<VG name>-<LV name>. (Também /dev/<VG name>/<LV name>por motivos de compatibilidade herdada.)

Neste ponto, você pode montá-los como de costume.

telcoM
fonte
Isso funcionou para mim! Eu estava recebendo o já montado ou erro ocupado, então eu fiz vgchange -aye depois era capaz de correr:mount -t ext4 /dev/mapper/my--server--vg-root /tmp/myserver
josephdpurcell
1

Se por exemplo

mount /dev/sda1 /mnt/tmp

impressões

mount: /dev/sda1 is already mounted or /mnt/tmp busy

verifique se há algum processo usando esse dispositivo (/ dev / sda1).

Geralmente, é um processo fsck que é executado automaticamente na inicialização do sistema. Você pode verificá-lo rapidamente, por exemplo,

ps aux | grep sda1
Milan Laslop
fonte
Essa foi exatamente a raiz do meu problema, obrigado! (ainda na esperança de que o disco irá montar corretamente após a verificação fsck ter terminado)
Franck
0

Eu já enfrentei uma situação dessas. A experiência e a solução são narradas no meu blog .

o trecho está aqui:

Erro: mount: / dev / mapper / STORBCK-backup já montado ou / STORBCK ocupado?

Diagnóstico: Quando tentamos montar o / STORBCK FS, estamos recebendo o erro acima mencionado.

Resolução: 1. Como o outro FS foi tornado somente leitura, parei / inicio o serviço iscsi. logado com sucesso no dispositivo. /etc/init.d/iscsi stop /etc/init.d/iscsi start https://manastri.blogspot.in/2016/11/mount-devmapperstorbck-backup-already.html

Manas Tripathy
fonte