Perguntas com a marcação «information-theory»

13
Entropia Diferencial

A entropia diferencial do VR gaussiano é log2(σ2πe−−−√)log2⁡(σ2πe)\log_2(\sigma \sqrt{2\pi e}). Isso depende deσσ\sigma, que é o desvio padrão. Se normalizarmos a variável aleatória para que ela tenha variação unitária, sua entropia diferencial cai. Para mim, isso é contra-intuitivo, porque a...

12
Diferenças entre PROC Mixed e lme / lmer em R - graus de liberdade

Nota: esta pergunta é um repost, pois minha pergunta anterior teve que ser excluída por razões legais. Ao comparar o PROC MIXED do SAS com a função lmedo nlmepacote no R, deparei-me com algumas diferenças bastante confusas. Mais especificamente, os graus de liberdade nos diferentes testes...

12
Definições diferentes da AIC

Na Wikipedia, existe uma definição do Critério de Informação de Akaike (AIC) como AIC=2k−2logLAIC=2k−2log⁡L AIC = 2k -2 \log L , onde kkk é o número de parâmetros e logLlog⁡L\log L é a probabilidade de log do modelo. No entanto, os nossos notas Econometria na universidade um estado bem respeitado...

11
Informação mútua como probabilidade

Poderia a informação mútua sobre a entropia conjunta: 0 ≤ I( X, Y)H( X, Y)≤ 10≤I(X,Y)H(X,Y)≤1 0 \leq \frac{I(X,Y)}{H(X,Y)} \leq 1 ser definido como: "A probabilidade de transmitir uma informação de X para Y"? Sinto muito por ser tão ingênuo, mas nunca estudei teoria da informação e estou apenas...