Atualmente, estou fazendo o curso PGM de Daphne Koller no Coursera. Nesse sentido, geralmente modelamos uma Rede Bayesiana como um gráfico direcionado de causa e efeito das variáveis que fazem parte dos dados observados. Mas, nos tutoriais e exemplos do PyMC, geralmente vejo que não é exatamente modelado da mesma maneira que o PGM ou pelo menos estou confuso. No PyMC, os pais de qualquer variável observada no mundo real geralmente são os parâmetros da distribuição que você usa para modelar a variável.
Agora, minha pergunta é realmente prática. Suponha que eu tenha 3 variáveis para as quais os dados são observados (A, B, C) (vamos supor que sejam todas variáveis contínuas apenas por causa disso). De algum conhecimento de domínio, pode-se dizer que A e B causam C. Portanto, temos um BN aqui - A, B são os pais e C são os filhos. agora da equação BN P (A, B, C) = P (C | A, B) * P (A) * P (B)
Posso dizer que A e B são algumas distribuições normais com algum mu e sigma, mas como eu modelo P (C | A, B)? A idéia geral que quero aprender é como eu aprendo esse BN usando PyMC para que eu possa consultar o BN. Ou eu tenho que aumentar o BN com os parâmetros do modelo de alguma forma.
Esse problema é solucionável usando o pymc? ou eu entendi errado alguns fundamentos?
Qualquer ajuda seria apreciada!
fonte