N******K 发帖数: 10202 | |
N******K 发帖数: 10202 | 2 liyuanchao你老讲讲
【在 N******K 的大作中提到】 : 来讲讲
|
B*Q 发帖数: 25729 | 3 你们都是学什么的?
这么高深
俺文科高材生都看不懂 |
j********p 发帖数: 9680 | 4 你们先把 N^x 的概念搞清楚再说别的吧.
别着急丢人了. |
N******K 发帖数: 10202 | 5 你是yiyuanchao?
【在 j********p 的大作中提到】 : 你们先把 N^x 的概念搞清楚再说别的吧. : 别着急丢人了.
|
p*e 发帖数: 6785 | 6 search LASSO regularization
【在 N******K 的大作中提到】 : 来讲讲
|
j********p 发帖数: 9680 | |
y**********g 发帖数: 2728 | 8 擦。虽然我不是liyuanchao,也能解释清楚。
看图。L1 norm是尖的,和rss函数的连接处会出现0的解。
再者你问题也没问清楚,我的理解是你在问model regularization的情况。
【在 N******K 的大作中提到】 : 来讲讲
|
N******K 发帖数: 10202 | 9 (b) 为什么 椭圆不能往左挪一下 连接到0点
【在 y**********g 的大作中提到】 : 擦。虽然我不是liyuanchao,也能解释清楚。 : 看图。L1 norm是尖的,和rss函数的连接处会出现0的解。 : 再者你问题也没问清楚,我的理解是你在问model regularization的情况。
|
N******n 发帖数: 3003 | 10 L2是圆的,到后来shrink的速度越来越慢,
但是L1是匀速的,直接就到0了,如果可能的话。 |
|
|
N******K 发帖数: 10202 | 11 L1匀速 这个怎么解释?
【在 N******n 的大作中提到】 : L2是圆的,到后来shrink的速度越来越慢, : 但是L1是匀速的,直接就到0了,如果可能的话。
|
p*e 发帖数: 6785 | 12 只是L1 相对更容易出现shrink 一个而另外一个变化较小。 L2是同比例shrink
【在 N******K 的大作中提到】 : (b) 为什么 椭圆不能往左挪一下 连接到0点
|
N******n 发帖数: 3003 | 13 一阶求导,L2还有x,L1就是lambda了,不变了。绝对值小于lambda的都是0了。 |
N******K 发帖数: 10202 | 14 是不是的取决于object function的形状了?
【在 p*e 的大作中提到】 : 只是L1 相对更容易出现shrink 一个而另外一个变化较小。 L2是同比例shrink
|
J***J 发帖数: 6000 | 15 我们文科僧看问题角度和你们就是不一样
一个这么简单的问题怎么就给你们搞那么复杂呢
这不就是liyuanchao操(|x|) L1的老木(norm)导致他的JJ sparse
很难理解吗 |
d*****y 发帖数: 1365 | 16 L1 可导吗?
【在 N******n 的大作中提到】 : 一阶求导,L2还有x,L1就是lambda了,不变了。绝对值小于lambda的都是0了。
|
N******K 发帖数: 10202 | 17 it露怯了
【在 d*****y 的大作中提到】 : L1 可导吗?
|
y**********g 发帖数: 2728 | 18 你这样就不是最小化了吧?
【在 N******K 的大作中提到】 : (b) 为什么 椭圆不能往左挪一下 连接到0点
|
N******K 发帖数: 10202 | 19 椭圆level set改改形状 不久交到0点了?
另外 如果我去你们那里面试 回答这个问题 把你的图一画 就算过关了?
【在 y**********g 的大作中提到】 : 你这样就不是最小化了吧?
|
y**********g 发帖数: 2728 | 20 椭圆的形状是由data决定的。不是随便改的。改改形状就是新的contour线,意味着无
法最小化objective function.
你还别说,我还真的没有问过这个问题。你要是能画出这图,然后把这个图解释清楚,
应该算过关。
【在 N******K 的大作中提到】 : 椭圆level set改改形状 不久交到0点了? : 另外 如果我去你们那里面试 回答这个问题 把你的图一画 就算过关了?
|
|
|
N******K 发帖数: 10202 | 21 我说的改改椭圆 就是改改数据 一样
如果这个算过关 那也太容易了
【在 y**********g 的大作中提到】 : 椭圆的形状是由data决定的。不是随便改的。改改形状就是新的contour线,意味着无 : 法最小化objective function. : 你还别说,我还真的没有问过这个问题。你要是能画出这图,然后把这个图解释清楚, : 应该算过关。
|
p*e 发帖数: 6785 | 22 什么意思,我没懂你的意思
【在 N******K 的大作中提到】 : 是不是的取决于object function的形状了?
|
y**********g 发帖数: 2728 | 23 这不是你问的题目吗?就这个题目本身,我感觉回答到这个程度差不多了。
【在 N******K 的大作中提到】 : 我说的改改椭圆 就是改改数据 一样 : 如果这个算过关 那也太容易了
|
p*e 发帖数: 6785 | 24 所谓sparse,只是相对于别的比如 L2 L3,不是绝对的。
你还可以不是方形,L0.5 这种边凹进去的,那更sparse
【在 N******K 的大作中提到】 : 椭圆level set改改形状 不久交到0点了? : 另外 如果我去你们那里面试 回答这个问题 把你的图一画 就算过关了?
|
U***g 发帖数: 330 | 25 http://metaoptimize.com/qa/questions/7624/why-does-l1-regulariz
【在 y**********g 的大作中提到】 : 擦。虽然我不是liyuanchao,也能解释清楚。 : 看图。L1 norm是尖的,和rss函数的连接处会出现0的解。 : 再者你问题也没问清楚,我的理解是你在问model regularization的情况。
|
N******n 发帖数: 3003 | 26 不可,但是有定义的,绝对值小于的全部为0.
【在 d*****y 的大作中提到】 : L1 可导吗?
|