由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Programming版 - 华人大妈谈deep learning的未来,大家怎么看? (转载)
相关主题
一个Deep Learning的talk区块链真正有意义的地方是
可微分编程Question about learning C#
[bssd] Yann LeCun stepped down机器学习能发现拓扑不变量,对称群之类的关系么
最近的科技发展简直要逼死人了phd码工感觉是完全不同的一个档次
Deep Learning没啥数学关于搞ML刷数据的职业前途
full stack马工算个几把毛,还不是被你们嘲笑的臭教书的管着神经网络研究的致命伤
我来科普下深度学习的应用范围吧[bssd]AI这辆车赶快上
LeCun被搞下来是必然的machine learning, neural network 为啥这几年火?
相关话题的讨论汇总
话题: dl话题: learning话题: deep话题: ng话题: 大妈
进入Programming版参与讨论
1 (共1页)
s*******h
发帖数: 3219
1
【 以下文字转载自 JobHunting 讨论区 】
发信人: sammamish (sammamish), 信区: JobHunting
标 题: 华人大妈谈deep learning的未来,大家怎么看?
发信站: BBS 未名空间站 (Thu Mar 23 22:04:25 2017, 美东)
scootie 发于 2017-03-22 16:20, 论坛: Chats&&华人闲话
我对deep learning这行没什么好感,感觉泡沫大于实际用处。抛开虚头八脑的东西,骨
头就是以前的dms数据库管理。
搞big data的大牛都说了,大数据目前尚无error bar,根本无从验证数据的真伪,所
以big data支持所有人的所有观点,也就是什么都不支持。
数据有多种query法,因为数据量极大,微小的query差异都能导致最终结果的极大差距
。而哪个结果对那个结果不真,没有standard去验证。
就好像心理学研究做survey取sample,如何问问题,选择哪些问题来问,最后可以导致
完全不同的结果。而且结果是否是因为问题牵涉的条件s所导致的,并没有确凿证据。
至于machine learning人工智能什么的,facebook都开砍AI spending了,因为发现错
误率高达70%。
L****8
发帖数: 3938
2
平行宇宙来的大妈

scootie 发于 2017-03-22 16:20, 论坛: Chats&&华人闲话
,骨

【在 s*******h 的大作中提到】
: 【 以下文字转载自 JobHunting 讨论区 】
: 发信人: sammamish (sammamish), 信区: JobHunting
: 标 题: 华人大妈谈deep learning的未来,大家怎么看?
: 发信站: BBS 未名空间站 (Thu Mar 23 22:04:25 2017, 美东)
: scootie 发于 2017-03-22 16:20, 论坛: Chats&&华人闲话
: 我对deep learning这行没什么好感,感觉泡沫大于实际用处。抛开虚头八脑的东西,骨
: 头就是以前的dms数据库管理。
: 搞big data的大牛都说了,大数据目前尚无error bar,根本无从验证数据的真伪,所
: 以big data支持所有人的所有观点,也就是什么都不支持。
: 数据有多种query法,因为数据量极大,微小的query差异都能导致最终结果的极大差距

n******g
发帖数: 2201
3
这位大妈水平较高
[在 sammamish (sammamish) 的大作中提到:]
scootie 发于 2017-03-22 16:20, 论坛: Chats&&华人闲话
距。而哪个结果对那个结果不真,没有standard去验证。
致完全不同的结果。而且结果是否是因为问题牵涉的条件s所导致的,并没有确凿证据。
n******e
发帖数: 163
4
这位大妈真不糊涂,这年头盲目崇拜跟风的人太多了。我老早就说过,AI 卡在物理上
,至今双缝实验、量子纠缠、引力的量子解释等都是未解决的问题,换句话说就是时空
的本质认识有待纠正,也就是说,时间序列信号处理算法的可靠性就是个问号,AI 不
就成了空中楼阁?Deep learning 就是个大泡沫!
x****u
发帖数: 44466
5
说泡沫肯定有,说骨头就是DMS就是扯淡

,骨

【在 s*******h 的大作中提到】
: 【 以下文字转载自 JobHunting 讨论区 】
: 发信人: sammamish (sammamish), 信区: JobHunting
: 标 题: 华人大妈谈deep learning的未来,大家怎么看?
: 发信站: BBS 未名空间站 (Thu Mar 23 22:04:25 2017, 美东)
: scootie 发于 2017-03-22 16:20, 论坛: Chats&&华人闲话
: 我对deep learning这行没什么好感,感觉泡沫大于实际用处。抛开虚头八脑的东西,骨
: 头就是以前的dms数据库管理。
: 搞big data的大牛都说了,大数据目前尚无error bar,根本无从验证数据的真伪,所
: 以big data支持所有人的所有观点,也就是什么都不支持。
: 数据有多种query法,因为数据量极大,微小的query差异都能导致最终结果的极大差距

r*******e
发帖数: 510
6
笑死了,。 我还以为是笑话版。
w***g
发帖数: 5958
7
有一小撮人靠炒作deep learning的概念捞得盆满钵溢,
搞得诚实劳动的码工看起来都像是傻逼。泡泡再不破,
很多人都没法安心工作了。从精神上我还是支持华人
大妈的。

【在 r*******e 的大作中提到】
: 笑死了,。 我还以为是笑话版。
g****t
发帖数: 31659
8
我觉得会炒到很多人失业的。这种泡沫都是专业人员在背后炒起来,
in a systematic way.

【在 w***g 的大作中提到】
: 有一小撮人靠炒作deep learning的概念捞得盆满钵溢,
: 搞得诚实劳动的码工看起来都像是傻逼。泡泡再不破,
: 很多人都没法安心工作了。从精神上我还是支持华人
: 大妈的。

l******t
发帖数: 55733
9
大妈屁都不懂
n******e
发帖数: 163
10
第一只羊跳崖,后面的都跟着跳的傻逼行为不容易停止。尽管深度学习被发现有严重缺
陷,这一波还会延续相当长的时间。Andrew Ng 、Yann Lecun 、Hinton 等这辈子不会
有机会fix 这个缺陷的,Ng 跳槽百度不久我老有幸跟其师兄(machine learning 牛人
)电话聊过,人家就是谨慎,根本就不那么抬举deep learning,可是前面那三位胆大
这辈子也就挣够了。
相关主题
full stack马工算个几把毛,还不是被你们嘲笑的臭教书的管着区块链真正有意义的地方是
我来科普下深度学习的应用范围吧Question about learning C#
LeCun被搞下来是必然的机器学习能发现拓扑不变量,对称群之类的关系么
进入Programming版参与讨论
L****8
发帖数: 3938
11
啥缺陷?

【在 n******e 的大作中提到】
: 第一只羊跳崖,后面的都跟着跳的傻逼行为不容易停止。尽管深度学习被发现有严重缺
: 陷,这一波还会延续相当长的时间。Andrew Ng 、Yann Lecun 、Hinton 等这辈子不会
: 有机会fix 这个缺陷的,Ng 跳槽百度不久我老有幸跟其师兄(machine learning 牛人
: )电话聊过,人家就是谨慎,根本就不那么抬举deep learning,可是前面那三位胆大
: 这辈子也就挣够了。

t**********e
发帖数: 134
12
http://www.mitbbs.com/article_t/Military/47721427.html

【在 L****8 的大作中提到】
: 啥缺陷?
x****u
发帖数: 44466
13
首先Ng就不是搞深度学习的,你这事都分不清,和李彦宏水平差不多

【在 n******e 的大作中提到】
: 第一只羊跳崖,后面的都跟着跳的傻逼行为不容易停止。尽管深度学习被发现有严重缺
: 陷,这一波还会延续相当长的时间。Andrew Ng 、Yann Lecun 、Hinton 等这辈子不会
: 有机会fix 这个缺陷的,Ng 跳槽百度不久我老有幸跟其师兄(machine learning 牛人
: )电话聊过,人家就是谨慎,根本就不那么抬举deep learning,可是前面那三位胆大
: 这辈子也就挣够了。

h*i
发帖数: 3446
14
缺陷大概是指DL学到的是错误的特征,很容易被假图所攻击吧?我在本版科普过几次了
,DL的学习方式与生物脑的学习方式很不一样,所以有这种大的缺陷,也是意料之中的
。当然了,在没有敌人,数据又很多的场景中,DL还是可以用来解决知觉问题的,不过
这样的场景在应用中可能没有人们想象的多。
这些文章其实在DL刚火起来的时候就有了,大家知道这些也不是一两年了。学界的人纷
纷出来圈钱,其实是想捞一把就走。他们把AI炒红了,其实我们这些不作DL,而作其他
类型AI的人也可以浑水摸鱼,借个名头趁机捞点资源。所以我们也不会出来大张旗鼓点
破DL的问题。
话说回来,其实生物的知觉系统也是可能学会错误特征的,所以也能被攻击,这就是心
理学上的所谓的各种错觉现象(左边我的头像就是一个例子)。如果什么机器学习方法
能复制人知觉上的各种错觉现象,这才能真算是模拟了人脑的工作方式了。哈哈。

【在 t**********e 的大作中提到】
: http://www.mitbbs.com/article_t/Military/47721427.html
x****u
发帖数: 44466
15
我擦那根本不是缺陷好不好,人脑照样有类似现象
人类本来应该找异性交配,但实际上自慰器就能攻击掉一大批

【在 h*i 的大作中提到】
: 缺陷大概是指DL学到的是错误的特征,很容易被假图所攻击吧?我在本版科普过几次了
: ,DL的学习方式与生物脑的学习方式很不一样,所以有这种大的缺陷,也是意料之中的
: 。当然了,在没有敌人,数据又很多的场景中,DL还是可以用来解决知觉问题的,不过
: 这样的场景在应用中可能没有人们想象的多。
: 这些文章其实在DL刚火起来的时候就有了,大家知道这些也不是一两年了。学界的人纷
: 纷出来圈钱,其实是想捞一把就走。他们把AI炒红了,其实我们这些不作DL,而作其他
: 类型AI的人也可以浑水摸鱼,借个名头趁机捞点资源。所以我们也不会出来大张旗鼓点
: 破DL的问题。
: 话说回来,其实生物的知觉系统也是可能学会错误特征的,所以也能被攻击,这就是心
: 理学上的所谓的各种错觉现象(左边我的头像就是一个例子)。如果什么机器学习方法

h*i
发帖数: 3446
16
关键在于人的知觉出错的地方完全不同于DL出错的地方。DL错的地方人是不可能错的。
所以我们知道DL其实还差得很远。
从知觉的错觉入手是一个很好的研究大脑的工作机制的方式,当然有些人已经在这样做
了。

【在 x****u 的大作中提到】
: 我擦那根本不是缺陷好不好,人脑照样有类似现象
: 人类本来应该找异性交配,但实际上自慰器就能攻击掉一大批

x****u
发帖数: 44466
17
本质上是一样的,就是你直觉正确但逻辑上错误的东西
还有个例子就是过山车很多人觉得恐怖,但实际上比开车死亡率低多了
用自慰器举例是因为其直觉比例权重太高,以至于让人可以忽略逻辑

【在 h*i 的大作中提到】
: 关键在于人的知觉出错的地方完全不同于DL出错的地方。DL错的地方人是不可能错的。
: 所以我们知道DL其实还差得很远。
: 从知觉的错觉入手是一个很好的研究大脑的工作机制的方式,当然有些人已经在这样做
: 了。

n******e
发帖数: 163
18

你恰恰判断错了,我老比全世界任何人都着急知道深度学习谁是谁,当西雅图一小公司
从贝尔实验室买下Lecun 开发的软件包(2000年)几个月后,俺就跟同一家公司NDA了
,我疯狂要挖出底层原理都10年了Ng才捅红深度学习。以后的事以后再说了,嘿嘿。

【在 x****u 的大作中提到】
: 首先Ng就不是搞深度学习的,你这事都分不清,和李彦宏水平差不多
x****u
发帖数: 44466
19
Ng也就是在知乎上有点名气,现在深度学习的主要进展和他一点关系没有
你装着明白也要先看看别人都谈了啥

【在 n******e 的大作中提到】
:
: 你恰恰判断错了,我老比全世界任何人都着急知道深度学习谁是谁,当西雅图一小公司
: 从贝尔实验室买下Lecun 开发的软件包(2000年)几个月后,俺就跟同一家公司NDA了
: ,我疯狂要挖出底层原理都10年了Ng才捅红深度学习。以后的事以后再说了,嘿嘿。

n******e
发帖数: 163
20
Ng 可贵的是捧红了深度学习,让全世界看到了灯塔,而且他又聚焦到“人类智慧起源
于一个单一算法”,尽管他不是第一个提出。这些功不可没。
相关主题
phd码工感觉是完全不同的一个档次[bssd]AI这辆车赶快上
关于搞ML刷数据的职业前途machine learning, neural network 为啥这几年火?
神经网络研究的致命伤聊点实际的,码农出货量。
进入Programming版参与讨论
x****u
发帖数: 44466
21
你真是Ng粉啊。难道不是AlexNet在李菲菲的ImageNet上一鸣惊人才捧红了DL?
Ng搞的东西和DL关系不大,他也一直看不起DL。他第一次公开课介绍过LeNet5,但表明
just for fun而且说的很多地方都不对。
DL选20个最有影响力的人他也进不去啊。

【在 n******e 的大作中提到】
: Ng 可贵的是捧红了深度学习,让全世界看到了灯塔,而且他又聚焦到“人类智慧起源
: 于一个单一算法”,尽管他不是第一个提出。这些功不可没。

c*******9
发帖数: 9032
22
嗯。DL有很多用法,大妈估计只知道一些典型的图像识别应用。

【在 l******t 的大作中提到】
: 大妈屁都不懂
n******e
发帖数: 163
23
Hinton 说他走到这步用了25年,又过了好几年了。“单一算法”一爆出来就给这个版
本的深度学习画上句号,想起一句话:“辛辛苦苦30年,一夜回到解放前”。
g****t
发帖数: 31659
24
什么是单一算法?在哪儿爆出来的?

【在 n******e 的大作中提到】
: Hinton 说他走到这步用了25年,又过了好几年了。“单一算法”一爆出来就给这个版
: 本的深度学习画上句号,想起一句话:“辛辛苦苦30年,一夜回到解放前”。

n******e
发帖数: 163
25
Hinton 说他走到这步用了25年,又过了好几年了。“单一算法”一爆出来就给这个版
本的深度学习画上句号,想起一句话:“辛辛苦苦30年,一夜回到解放前”。
e*******o
发帖数: 4654
l*********n
发帖数: 1676
27
我认识到几个技术水平很一般的都转行搞ML, BD之类的去了,貌似会吹就成。

scootie 发于 2017-03-22 16:20, 论坛: Chats&&华人闲话
,骨

【在 s*******h 的大作中提到】
: 【 以下文字转载自 JobHunting 讨论区 】
: 发信人: sammamish (sammamish), 信区: JobHunting
: 标 题: 华人大妈谈deep learning的未来,大家怎么看?
: 发信站: BBS 未名空间站 (Thu Mar 23 22:04:25 2017, 美东)
: scootie 发于 2017-03-22 16:20, 论坛: Chats&&华人闲话
: 我对deep learning这行没什么好感,感觉泡沫大于实际用处。抛开虚头八脑的东西,骨
: 头就是以前的dms数据库管理。
: 搞big data的大牛都说了,大数据目前尚无error bar,根本无从验证数据的真伪,所
: 以big data支持所有人的所有观点,也就是什么都不支持。
: 数据有多种query法,因为数据量极大,微小的query差异都能导致最终结果的极大差距

g****t
发帖数: 31659
28
what is “单一算法”?

【在 n******e 的大作中提到】
: Hinton 说他走到这步用了25年,又过了好几年了。“单一算法”一爆出来就给这个版
: 本的深度学习画上句号,想起一句话:“辛辛苦苦30年,一夜回到解放前”。

g****t
发帖数: 31659
29
靠,放10年前,这都是找不着工作的星宿派啊。
现在摇身一变...

【在 e*******o 的大作中提到】
: https://www.amazon.com/Master-Algorithm-Ultimate-Learning-Machine/dp/
: 0465065708

1 (共1页)
进入Programming版参与讨论
相关主题
machine learning, neural network 为啥这几年火?Deep Learning没啥数学
聊点实际的,码农出货量。full stack马工算个几把毛,还不是被你们嘲笑的臭教书的管着
微软首席人工智能科学家邓力离职,加盟对冲基金巨头 (转载)我来科普下深度学习的应用范围吧
100伪币悬赏:CNN这个东西本质上处理不了形变LeCun被搞下来是必然的
一个Deep Learning的talk区块链真正有意义的地方是
可微分编程Question about learning C#
[bssd] Yann LeCun stepped down机器学习能发现拓扑不变量,对称群之类的关系么
最近的科技发展简直要逼死人了phd码工感觉是完全不同的一个档次
相关话题的讨论汇总
话题: dl话题: learning话题: deep话题: ng话题: 大妈