Estou trabalhando na expansão do back-end de armazenamento para vários clusters do VMware vSphere 5.5 e 6.0 no meu datacenter. Eu usei principalmente datastores NFS em toda a minha experiência em VMware (Solaris ZFS, Isilon, VNX, Linux ZFS) e posso introduzir uma matriz Nimble iSCSI no ambiente, bem como uma possível matriz híbrida Tegile (ZFS) .
As soluções de armazenamento atuais são matrizes baseadas no Nexenta ZFS e Linux ZFS, que fornecem montagens NFS aos hosts do vSphere. A conectividade de rede é fornecida através de 2 troncos LACP de 10 GbE nas cabeças de armazenamento e 2 x 10 GbE em cada host ESXi. Os switches são unidades duplas do Arista 7050S-52 configuradas como pares MLAG .
No lado do vSphere, estou usando o vSphere Distributed Switches (vDS) configurado com títulos LACP nos uplinks de 2 x 10GbE e no NIOC (Network I / O Control), compartilhando compartilhamentos para o grupo de portas VM, NFS, vMotion e tráfego de gerenciamento.
Essa abordagem de solução e design funcionou maravilhosamente por anos, mas adicionar armazenamento em bloco iSCSI é uma grande mudança para mim. Ainda precisarei manter a infraestrutura do NFS no futuro próximo.
Gostaria de entender como posso integrar o iSCSI nesse ambiente sem alterar meu design físico. O MLAG nos switches ToR é extremamente importante para mim.
- Para armazenamento baseado em NFS, o LACP é o meio geralmente aceito de fornecer redundância de caminho.
- Para o iSCSI, o LACP geralmente é desaprovado, com os designs de caminhos múltiplos MPIO sendo a abordagem recomendada.
- Estou usando 10GbE em todos os lugares e gostaria de manter os links de duas portas simples para cada um dos servidores. Isto é para simplicidade de cabeamento e design.
Dado o exposto, como posso tirar o máximo proveito de uma solução iSCSI?
- Configurar o iSCSI sobre LACP?
- Crie adaptadores iSCSI VMkernel no vDS e tente vinculá-los a uplinks separados para obter algum tipo de MPIO mutante?
- Adicionar mais adaptadores de rede?
fonte