d******g 发帖数: 130 | 1 关于使用glmnet实现adaptive lasso,对于有大量input variable,考虑multi-
collinearity,想问问大家是不是先run ridge regression,将ridge regression得到的beta绝对值求倒数,然后作为weight赋值给"glmnet"中的"weight" option。 去实现adaptive LASSO.
非常感谢各种input! | d******g 发帖数: 130 | 2 关于使用glmnet实现adaptive lasso,对于有大量input variable,考虑multi-
collinearity,想问问大家是不是先run ridge regression,将ridge regression得到的beta绝对值求倒数,然后作为weight赋值给"glmnet"中的"weight" option。 去实现adaptive LASSO.
非常感谢各种input! | h******o 发帖数: 39 | | o****o 发帖数: 8077 | 4 Isn't this the recommendation from Zou's original paper (2006 JASA)?
的beta绝对值求倒数,然后作为weight赋值给"glmnet"中的"weight" option。 去实现
adaptive LASSO.
【在 d******g 的大作中提到】 : 关于使用glmnet实现adaptive lasso,对于有大量input variable,考虑multi- : collinearity,想问问大家是不是先run ridge regression,将ridge regression得到的beta绝对值求倒数,然后作为weight赋值给"glmnet"中的"weight" option。 去实现adaptive LASSO. : 非常感谢各种input!
| D**u 发帖数: 288 | | s******y 发帖数: 65 | 6 如果考虑collinearity就用ridge,不然就用ols。 | D**u 发帖数: 288 | 7 首先纠正一下楼主,应该是在glmnet用penalty.factor option,weight option 是针
对observation的。
再者,有谁能share一下experience,证实用这种方法(ridge output to lasso),确
实可以提高 model performance的么?
我得到的结果都很糟糕,根本不如直接用Lasso。 | D**u 发帖数: 288 | 8 又研究了一下,结果很棒,key is 在glmnet 的option中一定要加上standardize=
FALSE,因为大多数的结果都是不需要standardize的 |
|