由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
DataSciences版 - 最简单机器学习问题求教
相关主题
为什么要知道DETAILS OF A MACHINE LEARNING ALGORITHM求问一个线性模型的题目
凑热闹转发一篇自己写的博文,轻拍如何跟一个非统计专业的人讲解统计专业和数学专业的区别
Ayasdi 搞tda 拉了几十个米的风投了机器学习的本质到底是线性代数还是概率论?
奇特的面试题 (转载)Big data是下一个大坑吗
一道time series的预测题pig能做iterative的问题吗?
问一个关于visualization的问题database startup の 广告~ (不是骗子)
问一道facebook的面试题.[请教]一个R问题
instacart 和 airbnb的 data scientist challenge, 谁做过?Career opportunities-Data Scientist (Permanent positions)
相关话题的讨论汇总
话题: lr话题: 梯度话题: 问题话题: 机器话题: 学习
进入DataSciences版参与讨论
1 (共1页)
A*******e
发帖数: 284
1
机器学习里面最基本的线性回归问题。
在统计里面的线性回归中的参数都可以通过数学公式计算出来的,如y = wX + b中的w
和b都是可以用给定的数据计算出来的。
为什么在机器学习中,面对这个问题还要慢慢梯度降低而得到这两个值,为啥不直接计
算一下出来呢。
2016最后一问,祝大家新年快乐!
w***g
发帖数: 5958
2
可以用close-form解直接算, 但是必须要注意加regularization项.
但close-form解局限性很大, 比如一改成hinge-loss就不干活了. 而
基本形式的LR碰到实际问题很少能做得过别的更复杂的方法.
之所以老能看到用梯度法解LR, 因为LR老是被作为toy example来验证
梯度法框架的正确性, 或者被作为toy example来解释梯度法框架的用
法. 如果你真觉得有人在实战中用LR, 那你就输了.

w

【在 A*******e 的大作中提到】
: 机器学习里面最基本的线性回归问题。
: 在统计里面的线性回归中的参数都可以通过数学公式计算出来的,如y = wX + b中的w
: 和b都是可以用给定的数据计算出来的。
: 为什么在机器学习中,面对这个问题还要慢慢梯度降低而得到这两个值,为啥不直接计
: 算一下出来呢。
: 2016最后一问,祝大家新年快乐!

C**********t
发帖数: 24
3
实际问题会涉及p个feature n个data points. 写成ordinary least squares problem
是有closed form解的,但是即便是用numerical linear algebra中解least squares的
算法求解,也不是直接implement那个closed form解,而是先做矩阵分解(qr,svd,
choleski)再求解线性方程组。具体的计算过程也是iterative的而且也会涉及各种误差。

w

【在 A*******e 的大作中提到】
: 机器学习里面最基本的线性回归问题。
: 在统计里面的线性回归中的参数都可以通过数学公式计算出来的,如y = wX + b中的w
: 和b都是可以用给定的数据计算出来的。
: 为什么在机器学习中,面对这个问题还要慢慢梯度降低而得到这两个值,为啥不直接计
: 算一下出来呢。
: 2016最后一问,祝大家新年快乐!

e*********6
发帖数: 3453
4
分析解是big o n3,太慢了,小数据集还行,大的太慢

w

【在 A*******e 的大作中提到】
: 机器学习里面最基本的线性回归问题。
: 在统计里面的线性回归中的参数都可以通过数学公式计算出来的,如y = wX + b中的w
: 和b都是可以用给定的数据计算出来的。
: 为什么在机器学习中,面对这个问题还要慢慢梯度降低而得到这两个值,为啥不直接计
: 算一下出来呢。
: 2016最后一问,祝大家新年快乐!

a*****a
发帖数: 19262
5
我的理解,当data points和features没有足够多的情况,那直接用NORM equation解没
问题(data points >> # of features)
但是,如果数据量大的化,close form解起来就够呛了,或者有时候矩阵rank<# of
features也不行。

w

【在 A*******e 的大作中提到】
: 机器学习里面最基本的线性回归问题。
: 在统计里面的线性回归中的参数都可以通过数学公式计算出来的,如y = wX + b中的w
: 和b都是可以用给定的数据计算出来的。
: 为什么在机器学习中,面对这个问题还要慢慢梯度降低而得到这两个值,为啥不直接计
: 算一下出来呢。
: 2016最后一问,祝大家新年快乐!

1 (共1页)
进入DataSciences版参与讨论
相关主题
Career opportunities-Data Scientist (Permanent positions)一道time series的预测题
这个训练过程看上去正常吗?问一个关于visualization的问题
工作中遇到的一个现象,问问大家怎么解释 (转载)问一道facebook的面试题.
有人面过square吗?instacart 和 airbnb的 data scientist challenge, 谁做过?
为什么要知道DETAILS OF A MACHINE LEARNING ALGORITHM求问一个线性模型的题目
凑热闹转发一篇自己写的博文,轻拍如何跟一个非统计专业的人讲解统计专业和数学专业的区别
Ayasdi 搞tda 拉了几十个米的风投了机器学习的本质到底是线性代数还是概率论?
奇特的面试题 (转载)Big data是下一个大坑吗
相关话题的讨论汇总
话题: lr话题: 梯度话题: 问题话题: 机器话题: 学习