Atualmente, estou tentando implementar um método usado em um artigo popular intitulado "Acabei de executar dois milhões de regressões". A idéia básica por trás disso é que existem certos casos em que não é óbvio quais controles devem ser incluídos no modelo. Uma coisa que você pode fazer nesse caso é desenhar controles aleatoriamente, executar milhões de regressões diferentes e depois ver como sua variável de interesse reagiu. Se geralmente possui o mesmo sinal em todas as especificações, podemos considerá-lo mais robusto do que uma variável cujo sinal sempre muda.
A maior parte do papel é muito clara. No entanto, o artigo pondera todas essas regressões diferentes da seguinte maneira: A probabilidade integrada da especificação especificada é dividida pela soma de todas as probabilidades integradas de todas as especificações.
O problema que estou tendo é que não tenho certeza de como a probabilidade integrada se relaciona com as regressões do OLS que gostaria de executar (no Stata). Tópicos de pesquisa no Google, como "verossimilhança de status integrado", têm sido um beco sem saída, pois continuo encontrando coisas como regressão logística de efeitos mistos. Confesso que esses modelos são complexos demais para eu entender.
Meu trabalho atual é que existem diferentes esquemas de ponderação usados na literatura que eu entendo (meio que). Por exemplo, é possível ponderar cada regressão com base no índice da razão de verossimilhança. Existe até um pacote R que usa o lri como pesos. Naturalmente, gostaria de implementar também o original.
Algum conselho?
Artigo: http://down.cenet.org.cn/upfile/34/2009112141315178.pdf
fonte
Respostas:
e(ll)
regress
fonte