Por que e quando devemos usar as Informações Mútuas sobre medições de correlação estatística como "Pearson", "spearman" ou "Kendall's
a informação mútua é um conceito da teoria da informação. É uma medida de dependência conjunta entre duas variáveis aleatórias, que não é, como o coeficiente de correlação usual, limitada a variáveis escalares.
Por que e quando devemos usar as Informações Mútuas sobre medições de correlação estatística como "Pearson", "spearman" ou "Kendall's
Mais recentemente, li dois artigos. O primeiro é sobre a história da correlação e o segundo é sobre o novo método chamado Maximal Information Coefficient (MIC). Preciso da sua ajuda para entender o método MIC para estimar correlações não lineares entre variáveis. Além disso, as instruções para seu...
Suponha que eu tenha dois conjuntos e e uma distribuição de probabilidade conjunta sobre esses conjuntos . Deixe e representam as distribuições marginais mais de e , respectivamente.Y p ( x , y ) p ( x ) p ( y ) X YXXXYYYp(x,y)p(x,y)p(x,y)p(x)p(x)p(x)p(y)p(y)p(y)XXXYYY As informações mútuas entre...
minha pergunta se aplica particularmente à reconstrução de
Eu trabalho com as informações mútuas há algum tempo. Mas encontrei uma medida muito recente no "mundo da correlação" que também pode ser usada para medir a independência da distribuição, a chamada "correlação à distância" (também denominada correlação browniana):...
Os testes de permutação (também chamados de teste de randomização, teste de re-randomização ou teste exato) são muito úteis e úteis quando a suposição de distribuição normal exigida por, por exemplo, t-testnão é atendida e quando a transformação dos valores pela classificação do teste...
Ao examinar os vetores próprios da matriz de covariância, obtemos as direções da variação máxima (o primeiro vetor próprio é a direção na qual os dados variam mais etc.); isso é chamado de análise de componentes principais (PCA). Fiquei imaginando o que significaria olhar para os autovetores /...
Quanto ao título, a idéia é usar informações mútuas, aqui e depois do IM, para estimar a "correlação" (definida como "o quanto eu sei sobre A quando conheço B") entre uma variável contínua e uma variável categórica. Em breve, vou lhe contar sobre o assunto, mas antes de aconselhá-lo a ler essa...
Poderia a informação mútua sobre a entropia conjunta: 0 ≤ I( X, Y)H( X, Y)≤ 10≤I(X,Y)H(X,Y)≤1 0 \leq \frac{I(X,Y)}{H(X,Y)} \leq 1 ser definido como: "A probabilidade de transmitir uma informação de X para Y"? Sinto muito por ser tão ingênuo, mas nunca estudei teoria da informação e estou apenas...
Uma maneira de gerar incorporação de palavras é a seguinte ( espelho ): Obtenha um corpora, por exemplo: "Gosto de voar. Gosto de PNL. Gosto de aprendizado profundo". Crie a palavra matriz de coocorrência a partir dela: Execute o SVD no XXX e mantenha as primeiras kkk colunas de U. você1...
Eu tenho uma dúvida muito básica. Desculpe se isso irrita poucos. Eu sei que o valor de Informações Mútuas deve ser maior que 0, mas deve ser menor que 1? É limitado por algum valor superior? Obrigado,
Aqui, "peso da evidência" (WOE) é um termo comum na literatura científica e de elaboração de políticas, mais frequentemente vista no contexto da avaliação de riscos, definida por: w(e:h)=logp(e|h)p(e|h¯¯¯)w(e:h)=logp(e|h)p(e|h¯)w(e : h) = \log\frac{p(e|h)}{p(e|\overline{h})} onde é evidência, h...
Eu já vi algumas conversas de não estatísticos em que eles parecem reinventar medidas de correlação usando informações mútuas em vez de regressão (ou testes estatísticos equivalentes / intimamente relacionados). Entendo que há uma boa razão pela qual os estatísticos não adotam essa abordagem. Meu...
Eu estou um pouco confuso. Alguém pode me explicar como calcular informações mútuas entre dois termos com base em uma matriz termo-documento com ocorrência de termos binários como pesos? D o c u m e n t 1D o c u m e n t doisD o c u m e n t 3′Wh y′1 11 11 1′Ho w′1 10 01 1′Wh e n′1 11 11 1′Wh e r...
Estou tentando aplicar a idéia de informações mútuas à seleção de recursos, conforme descrito nestas notas de aula (na página 5). Minha plataforma é Matlab. Um problema que encontro ao calcular informações mútuas a partir de dados empíricos é que o número é sempre tendencioso para cima. Encontrei...
Quero quantificar o relacionamento entre duas variáveis, A e B, usando informações mútuas. A maneira de calculá-lo é impedindo as observações (veja o código Python de exemplo abaixo). No entanto, quais fatores determinam qual número de posições é razoável? Eu preciso que a computação seja rápida,...
Suponha que eu tenha uma amostra de frequências de 4 eventos possíveis: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 e tenho as probabilidades esperadas de meus eventos ocorrerem: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 Com a soma das frequências observadas dos meus quatro eventos (18), posso calcular as...
Estou tendo problemas para criar alguma intuição sobre entropia conjunta. = incerteza na distribuição conjunta ; = incerteza em ; = incerteza em .H(X,Y)H(X,Y)H(X,Y)p(x,y)p(x,y)p(x,y)H(X)H(X)H(X)px(x)px(x)p_x(x)H(Y)H(Y)H(Y)py(y)py(y)p_y(y) Se H (X) for alto, a distribuição será mais incerta e,...
Estou tentando entender a forma normalizada de informações mútuas pontuais. n p m i = p m i ( x , y)l o g( p ( x , y) ))npmEu=pmEu(x,y)euog(p(x,y))npmi = \frac{pmi(x,y)}{log(p(x,y))} Por que a probabilidade conjunta de log normaliza as informações mútuas pontuais entre [-1, 1]? As informações...
Qual é a diferença entre correlação cruzada e informações mútuas. Que tipo de problemas podem ser resolvidos usando essas medidas e quando é apropriado usar um sobre o outro. Obrigado pelos comentários. Para esclarecer, a pergunta é motivada por um interesse na análise de danos, em vez de na...