由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Statistics版 - model selection一般都用什么方法
相关主题
用LASSO选变量后重新fit regression有什么弊端?有80个候选Predictors,怎么从中选<10个
regression的时候什么时候要standardize variables?model的predictors之间有multi-colinearity怎么办?
good classification methods for high dimension data找工作总结 [下]
电话面试完了,肯定没戏,大家帮我看看题目,就算学习吧【大包子】Factor data analysis
Google 面经新手请教一个分类问题
请教一下ridge regression。An interview question
R里面regression 变量选择的package?##面试过了,请教问题##
请问OLS怎样选择feature sets?问大牛们一个logistic model的问题哈
相关话题的讨论汇总
话题: pca话题: selection话题: lasso话题: model话题: variable
进入Statistics版参与讨论
1 (共1页)
c*****r
发帖数: 156
1
如果variable有几百个,那一般都有哪些比较常用的model selection的方法?
谢谢各位!
D******n
发帖数: 2836
2
forward, backward, stepwise.

【在 c*****r 的大作中提到】
: 如果variable有几百个,那一般都有哪些比较常用的model selection的方法?
: 谢谢各位!

j*******9
发帖数: 27
3
神经网络也是个很好的选择:)
a*****3
发帖数: 601
4
plus decision tree
s*******y
发帖数: 2977
5
Penalized model selection (L1 or L2 or hybrid of both)
j****e
发帖数: 158
6
Cluster or PCA first, because for hundrends of variables, you might have
multicollinarity
d******g
发帖数: 130
7
PCA for dimension reduction or shrinkage methods.
a*****3
发帖数: 601
8
能不能展开说说? 我正自学这方面知识,能不能推荐个入门读物?

multicollinarity

【在 j****e 的大作中提到】
: Cluster or PCA first, because for hundrends of variables, you might have
: multicollinarity

a*****3
发帖数: 601
9
你也展开说说? plus推荐个入门读物??

【在 d******g 的大作中提到】
: PCA for dimension reduction or shrinkage methods.
g********r
发帖数: 8017
10
有outcome vvariable的话,PCA不一定好。主成份不一定跟outcome相关。解释也成问
题。
类似思路更好的有supervised PCA, SIR, PLSDA等等。
机器学习的方法比如random forest, SVM挺好。
variable selection比如elastic net,group lasso之类大概也行。是不是有线性假设?

【在 d******g 的大作中提到】
: PCA for dimension reduction or shrinkage methods.
相关主题
请教一下ridge regression。有80个候选Predictors,怎么从中选<10个
R里面regression 变量选择的package?model的predictors之间有multi-colinearity怎么办?
请问OLS怎样选择feature sets?找工作总结 [下]
进入Statistics版参与讨论
A*******r
发帖数: 194
11
What type of response variable?
Try random forrest for binary outcome.
d******g
发帖数: 130
12
PCA does have interpretation issue but should good for prediction's sake.
There is always cross-validation for testing the best components for PCA
models as well as a parsimonious one.
For shrinkage method,LASSO is good for both variable selection and modeling,
outperforming ridge regression. I don't understand your "线性假设"? Do
you mean the assumptions for applying OLS? For computation sake, least
angle regression is usually used for LASSO instead of least square from what
I know. Efron has lots of paper on this.
Correct me if I am wrong on this. Hope this helps.


设?

【在 g********r 的大作中提到】
: 有outcome vvariable的话,PCA不一定好。主成份不一定跟outcome相关。解释也成问
: 题。
: 类似思路更好的有supervised PCA, SIR, PLSDA等等。
: 机器学习的方法比如random forest, SVM挺好。
: variable selection比如elastic net,group lasso之类大概也行。是不是有线性假设?

d******g
发帖数: 130
13
Faraway has two books on regression techniques using R. Efron and Hastie
have tons of papers on LASSO, etc. Hope this helps.

【在 a*****3 的大作中提到】
: 你也展开说说? plus推荐个入门读物??
g********r
发帖数: 8017
14
我是说lasso衍生品一般只寻找y和x的线性关系。当然可以从x衍生出一些predictor来
实现非线性。但是很多x的情况不是那么容易。
随机森林,支持向量机之类就没有这个限制。如果要先降维,SIR也只假设monotone,
不需要线性关系。

modeling,
what

【在 d******g 的大作中提到】
: PCA does have interpretation issue but should good for prediction's sake.
: There is always cross-validation for testing the best components for PCA
: models as well as a parsimonious one.
: For shrinkage method,LASSO is good for both variable selection and modeling,
: outperforming ridge regression. I don't understand your "线性假设"? Do
: you mean the assumptions for applying OLS? For computation sake, least
: angle regression is usually used for LASSO instead of least square from what
: I know. Efron has lots of paper on this.
: Correct me if I am wrong on this. Hope this helps.
:

R*******c
发帖数: 249
15
我理解你所说的“PCA不一定好。主成份不一定跟outcome相关”
请问可以稍微详细点解释一下 “类似思路更好的有supervised PCA, SIR, PLSDA等等
”,比如哪
个更好之类的?谢谢啊

设?

【在 g********r 的大作中提到】
: 有outcome vvariable的话,PCA不一定好。主成份不一定跟outcome相关。解释也成问
: 题。
: 类似思路更好的有supervised PCA, SIR, PLSDA等等。
: 机器学习的方法比如random forest, SVM挺好。
: variable selection比如elastic net,group lasso之类大概也行。是不是有线性假设?

l*********s
发帖数: 5409
16
Re

设?

【在 g********r 的大作中提到】
: 有outcome vvariable的话,PCA不一定好。主成份不一定跟outcome相关。解释也成问
: 题。
: 类似思路更好的有supervised PCA, SIR, PLSDA等等。
: 机器学习的方法比如random forest, SVM挺好。
: variable selection比如elastic net,group lasso之类大概也行。是不是有线性假设?

1 (共1页)
进入Statistics版参与讨论
相关主题
问大牛们一个logistic model的问题哈Google 面经
面经和教训请教一下ridge regression。
data science 面试求教R里面regression 变量选择的package?
有没有大牛来classifiy一下 PCA用法吗? (转载)请问OLS怎样选择feature sets?
用LASSO选变量后重新fit regression有什么弊端?有80个候选Predictors,怎么从中选<10个
regression的时候什么时候要standardize variables?model的predictors之间有multi-colinearity怎么办?
good classification methods for high dimension data找工作总结 [下]
电话面试完了,肯定没戏,大家帮我看看题目,就算学习吧【大包子】Factor data analysis
相关话题的讨论汇总
话题: pca话题: selection话题: lasso话题: model话题: variable