Eu sou novo na regressão cume. Quando apliquei a regressão linear, obtive os seguintes resultados:
>myridge = lm.ridge(y ~ ma + sa + lka + cb + ltb , temp, lamda = seq(0,0.1,0.001))
> select(myridge)
modified HKB estimator is 0.5010689
modified L-W estimator is 0.3718668
smallest value of GCV at 0
Questões:
- É bom obter zero
GCV
? - O que exatamente isso significa?
- Existe algum problema com o meu modelo?
- Como posso encontrar o valor de de ?
myridge
ridge-regression
samarasa
fonte
fonte
Respostas:
Você pode estar melhor com o pacote penalizado ou o pacote glmnet ; ambos implementam laço ou rede elástica, combinando propriedades do laço (seleção de recurso) e regressão de crista (manipulação de variáveis colineares). penalizado também faz cume. Esses dois pacotes são muito mais completos do que
lm.ridge()
no pacote MASS para essas coisas.De qualquer forma, implica uma penalidade zero, portanto as estimativas de mínimos quadrados são ótimas no sentido de que elas tiveram a menor pontuação GCV (validação cruzada generalizada). No entanto, você pode não ter permitido uma penalidade suficientemente grande; em outras palavras, as estimativas de mínimos quadrados eram ideais para o pequeno conjunto de valores que você examinou. Traçar o caminho da crista (valores dos coeficientes em função de e ver se os traços se estabilizaram ou não. Caso contrário, aumente o intervalo de valores de avaliados.λ λ λλ = 0 λ λ λ
fonte
O motivo pelo qual você está recebendo um GCV 0 é porque você usou:
myridge = lm.ridge (y ~ ma + sa + lka + cb + ltb, temp, lamda = seq (0,0.1,0.001))
ao invés de
myridge = lm.ridge (y ~ ma + sa + lka + cb + ltb, temp, lambda = seq (0,0.1,0.001))
fonte