Eu tenho um pouco de uma situação complicada. Primeiro de tudo eu sou um noob com conhecimento e experiência não-para-pouco UNIX. Eu trabalho para uma empresa enorme com muitos protocolos de segurança e não posso depurar ou examinar o código-fonte dos programas. Mas espero que vocês possam me ajudar a me aproximar do problema, para que eu possa denunciá-lo à pessoa certa.
Eles têm um software muito antigo em execução em um servidor UNIX. A tarefa deste programa é processar dados de um banco de dados e colocar arquivos de log em uma unidade de rede. Como os arquivos de log não são muito grandes e o software remove os logs antigos ao colocar novos, a unidade de rede é muito limitada no espaço. Este programa sempre funcionou perfeitamente, mas ultimamente erros foram gerados que o programa não pôde excluir os arquivos de log antigos.
Também foi criado um arquivo que eu assumo é um dump de núcleo. O arquivo é nomeado core.10042014100000
e um novo deles é criado a cada hora (o programa é executado a cada hora). No entanto, em um PC com Windows, o arquivo não pode ser lido, copiado e removido. (Não tenho certeza sobre o sistema UNIX, mas não tenho acesso a isso)
Alguém por favor pode me ajudar a chegar mais perto de descobrir o que está errado? Como, qual processo cria o arquivo principal ?, Por que o arquivo principal é criado ?, Por que não posso fazer nada com ele? e isso poderia ter alguma coisa a ver com os logs antigos que não estão sendo removidos?
Respostas:
No AIX, você pode usar o
dbx
comando para analisar arquivos principais ( tutorial ). Na maioria dos Unices, se você executarfile /path/to/core.10042014100000
Ele informará qual processo criou o arquivo principal.fonte