Eu estava interessado nas especificações do servidor UNIX que minha universidade fornece para os alunos, então eu executei a busca de tela . Aqui está a saída:
[email protected]
`.-..........` OS: Red Hat Enterprise Linux 7.5 Maipo
`////////::.`-/. Kernel: x86_64 Linux 3.10.0-862.14.4.el7.x86_64
-: ....-////////. Uptime: 9h 1m
//:-::///////////` Packages: 3796
`--::: `-://////////////: Shell: bash 4.2.46
//////- ``.-:///////// .` CPU: Intel Xeon E5-2680 v2 @ 40x 3.6GHz [61.0°C]
`://////:-.` :///////::///:` GPU: Matrox Electronics Systems Ltd. G200eR2
.-/////////:---/////////////: RAM: 8290MiB / 64215MiB
.-://////////////////////.
yMN+`.-::///////////////-`
.-`:NMMNMs` `..-------..`
MN+/mMMMMMhoooyysshsss
MMM MMMMMMMMMMMMMMyyddMMM+
MMMM MMMMMMMMMMMMMNdyNMMh` hyhMMM
MMMMMMMMMMMMMMMMyoNNNMMM+. MMMMMMMM
MMNMMMNNMMMMMNM+ mhsMNyyyyMNMMMMsMM
Tudo o que posso encontrar sobre as GPUs Matrox é a página da Wikipedia que diz que o G200 foi lançado em 1998. Por que minha universidade os teria em um servidor moderno (a CPU foi lançada no final de 2013)?
Respostas:
Os servidores de uso geral não precisam de uma GPU moderna - apenas o suficiente para mostrar um desktop de console de tamanho médio. Eles lidam principalmente com computação e rede de CPU regulares.
Os VGAs Matrox G200, no entanto, são comumente usados em servidores devido à sua integração com um controlador de gerenciamento de rodapé (BMC, também conhecido como iLO, iDRAC ou IPMI).
Esse controlador de gerenciamento atua como um sistema independente com seu próprio sistema operacional e permite que o administrador do servidor se conecte remotamente à tela e ao teclado do console - eles podem ver as telas do BIOS, reiniciar um servidor mesmo que esteja completamente congelado e até iniciá-lo com potência total. fora. Para essas tarefas, o controlador deve saber o que o adaptador gráfico está exibindo no momento.
Então, eu acho que os antigos adaptadores de vídeo Matrox são usados para isso porque armazenam o buffer de vídeo na RAM do sistema (em vez de sua própria VRAM) e usam um layout de dados suficientemente simples para que o BMC possa decifrá-lo sem a necessidade de conhecimento arcano sobre as GPUs. internos, nem sem nenhuma ajuda do sistema operacional principal.
(Ou talvez o oposto - como mencionado nos comentários, o G200 geralmente é incorporado ao BMC, possivelmente dando ao BMC acesso direto direto ao buffer de vídeo do G200.)
Mas, mesmo que o servidor tenha sido construído para computação em GPU, presumo que ele não tenha uma "placa gráfica tudo-em-um" como os PCs, mas, em vez disso, um conjunto de GPGPUs dedicadas apenas para computação (por exemplo, da nVidia) trabalho - e ainda o mesmo Matrox VGA para o console.
fonte
O Matrox G200eR2 não é uma placa de vídeo separada. É um chip diretamente integrado à placa-mãe do servidor. É barato, muito confiável, fácil de integrar e oferece excelente capacidade de exibição de texto (console) e capacidade decente de gráficos 2D. Também é tão conhecido que quase todos os sistemas operacionais para hardware Intel possuem suporte para driver embutido.
O único objetivo de uma placa VGA é obter uma tela básica do console que você pode usar para a configuração do BIOS e a instalação inicial do servidor. Depois disso, você provavelmente só acessará o servidor remotamente. Não precisa ser uma boa placa VGA. Você não vai jogar nele. Mas é uma grande bênção se funcionar imediatamente com o sistema operacional que você instalará no servidor. E isso é tudo que você precisa e deseja em um servidor.
Os chips Matrox sempre foram muito populares para esse fim, e esse em particular ainda era usado em 2014 em novos servidores Dell e provavelmente em outras marcas também.
fonte
You are not going to be gaming on it.
- fale por si mesmo, criei programas de automação para jogos online de mmorpg e o rodava 24 horas por dia, 7 dias por semana, executando tarefas mundanas, mas benéficas, rudimentares, em servidores.Porque um servidor não precisa de uma GPU de alto desempenho.
E, a propósito, a Matrox possuía boas placas gráficas para vários monitores muito antes da ATI / AMD e NVidia.
Portanto, a decisão provavelmente tinha sido lógica no momento da compra.
fonte