Acabei de atualizar meu host ESXi para 6.0 e notei um efeito colateral estranho. Agora, quando a inicialização do meu dispositivo local RDM é montada automaticamente pelo próprio Hypervisor e minha VM não pode ser inicializada porque o dispositivo está bloqueado pelo SO (o erro que estou recebendo é Failed to lock the file
).
Se eu listar todos os dispositivos:
[root@esx:~] esxcli storage filesystem list
Mount Point Volume Name UUID Mounted Type Size Free
------------------------------------------------- ----------- ----------------------------------- ------- ------ ------------- ------------
/vmfs/volumes/4cdacf34-9bc2bc46-e644-d48564c85da5 SYSTEM HDU 4cdacf34-9bc2bc46-e644-d48564c85da5 true VMFS-5 154618822656 127827705856
/vmfs/volumes/4cdacf03-d1fb2b7d-6384-d48564c85da5 DATA HDU 4cdacf03-d1fb2b7d-6384-d48564c85da5 true VMFS-5 2000112582656 893103636480
/vmfs/volumes/5000b526-be6827b9-b9e9-009c02a7fbf2 5000b526-be6827b9-b9e9-009c02a7fbf2 true vfat 299712512 83451904
/vmfs/volumes/ad7377ea-9bfcba10-6bad-896a6ee35f64 ad7377ea-9bfcba10-6bad-896a6ee35f64 true vfat 261853184 87711744
/vmfs/volumes/0baa70e5-8a38dacf-3d88-bca98a363fc0 0baa70e5-8a38dacf-3d88-bca98a363fc0 true vfat 261853184 122646528
/vmfs/volumes/3c3693e8-f77a642a-1910-5c6bdcb26d3a Hypervisor3 3c3693e8-f77a642a-1910-5c6bdcb26d3a true vfat 299778048 157663232
/vmfs/volumes/b901cb7d-fd6e00e0-e5eb-b36b42d0950f Hypervisor2 b901cb7d-fd6e00e0-e5eb-b36b42d0950f true vfat 261853184 261849088
/vmfs/volumes/4cdacf0f-59b94c5a-79e7-d48564c85da5 4cdacf0f-59b94c5a-79e7-d48564c85da5 true vfat 4293591040 4269015040
/vmfs/volumes/5b569e71-4ede41ca-d19f-f2af4b6cee7c Hypervisor1 5b569e71-4ede41ca-d19f-f2af4b6cee7c true vfat 261853184 169762816
/vmfs/volumes/localRDM RDM 5512f47e-00000000-0000-000000000000 true ufs 1998251364352 288346738688
O dispositivo que estou tentando desmontar é o último
Mount Point Volume Name UUID Mounted Type Size Free
------------------------------------------------- ----------- ----------------------------------- ------- ------ ------------- ------------
/vmfs/volumes/localRDM RDM 5512f47e-00000000-0000-000000000000 true ufs 1998251364352 288346738688
Conforme declarado pelos documentos , tentei desmontá-lo, mas o sistema operacional está reclamando e não parece querer desmontá-lo:
[root@esx:~] esxcli storage filesystem unmount -l RDM
No volume with label 'RDM' was found
[root@esx:~] esxcli storage filesystem unmount -p /vmfs/volumes/localRDM
No NAS volume was found mounted on '/vmfs/volumes/localRDM'
[root@esx:~] esxcli storage filesystem unmount -u 5512f47e-00000000-0000-000000000000
No volume with uuid '5512f47e-00000000-0000-000000000000' was found
De acordo com os documentos, a sintaxe para desmontar um dispositivo é:
# esxcli storage filesystem unmount [-u UUID | -l label | -p path ]
mas como você pode ver nenhum resultado até agora.
Gostaria de saber se eu remover o arquivo vmdk para este dispositivo e recriá-lo pode resolver o problema, mas tenho medo de perder todos os dados nele.
Editado 1
Ok, excluí o mapeamento de arquivo vmdk, mas o ESXi ainda está montando automaticamente o disco (e não, não há perda de dados)
Editado 2
Vejo que não há relação direta com o disco sendo passado e o ESXi montando automaticamente, pois conectei uma unidade UFS2 recém-formatada e o ESXi também montou automaticamente (e ainda não há RDM para este criado)
Respostas:
Eu tive o mesmo problema com as unidades RDM UFS usadas no NAS4Free sendo mapeadas como uma pasta, então fui aos Fóruns do VMWare e pedi ajuda.
Aqui está a resposta do usuário themiron nos fóruns do VMWare.
https://communities.vmware.com/thread/517516 (adicionado o link à fonte original, conforme indicado)
fonte