f******2 发帖数: 2455 | 1 版上有没有带Berkeley背景的出来走两步,给介绍一下乔丹这两年在干啥呢?
记得当年深度学习刚出来招摇过市的时候,他是第一出来说不的。这两年没再听到声音
了。有没有内部人士讲讲,这位大牛最近在钻研什么? |
T*******e 发帖数: 1 | 2 他和Ion Stoica 合作搞了个Ray framework, 主攻distributed RL. 不过好像没什么人
用。。
【在 f******2 的大作中提到】 : 版上有没有带Berkeley背景的出来走两步,给介绍一下乔丹这两年在干啥呢? : 记得当年深度学习刚出来招摇过市的时候,他是第一出来说不的。这两年没再听到声音 : 了。有没有内部人士讲讲,这位大牛最近在钻研什么?
|
f******2 发帖数: 2455 | 3 我感觉觉得他这样的大牛闭关两年,出来灭这些加拿大来捞金的应该是分分钟的事儿。
所以想问问内部人士这位大牛在密室里干啥
: 他和Ion Stoica 合作搞了个Ray framework, 主攻distributed RL. 不过好像没
什么人
: 用。。
【在 T*******e 的大作中提到】 : 他和Ion Stoica 合作搞了个Ray framework, 主攻distributed RL. 不过好像没什么人 : 用。。
|
l*******m 发帖数: 1096 | 4 他现在还是很高产,不过他的文章一般码工读不懂,都不知道他在干嘛
https://people.eecs.berkeley.edu/~jordan/publications.html
【在 f******2 的大作中提到】 : 我感觉觉得他这样的大牛闭关两年,出来灭这些加拿大来捞金的应该是分分钟的事儿。 : 所以想问问内部人士这位大牛在密室里干啥 : : : 他和Ion Stoica 合作搞了个Ray framework, 主攻distributed RL. 不过好像没 : 什么人 : : 用。。 :
|
s*****V 发帖数: 21731 | 5 乔丹的文章标题就可以看出他对目前的宣传AI不满
Artificial Intelligence — The Revolution Hasn’t Happened Yet
https://medium.com/@mijordan3/artificial-intelligence-the-revolution-hasnt-
happened-yet-5e1d5812e1e7
We need to realize that the current public dialog on AI — which
focuses on a narrow subset of industry and a narrow subset of academia
8202;— risks blinding us to the challenges and opportunities that are
presented by the full scope of AI, IA and II.
【在 l*******m 的大作中提到】 : 他现在还是很高产,不过他的文章一般码工读不懂,都不知道他在干嘛 : https://people.eecs.berkeley.edu/~jordan/publications.html
|
g****t 发帖数: 31659 | 6 他最新的文章least square 辨识系统什么的是传统自控的课题。论文的质量还是不错
的。
: 他现在还是很高产,不过他的文章一般码工读不懂,都不知道他在干嘛
: https://people.eecs.berkeley.edu/~jordan/publications.html
【在 l*******m 的大作中提到】 : 他现在还是很高产,不过他的文章一般码工读不懂,都不知道他在干嘛 : https://people.eecs.berkeley.edu/~jordan/publications.html
|
w*****r 发帖数: 197 | 7 不认识这个人...
这个人哪里牛? 成名作是什么? |
w***g 发帖数: 5958 | 8 这人其实是做统计的。十几年前搞的是graphical model。
其实就是贝叶斯统计包装了一下。当时CV没有deep learning,
各类generative model都是用graphical model表述的,所以
相当火过一阵子。在文本处理中几乎也是处于统治地位。
这几年DL胡乱拟合吊打贝叶斯,贝叶斯那批人其实很多不死心的。
【在 w*****r 的大作中提到】 : 不认识这个人... : 这个人哪里牛? 成名作是什么?
|
f******2 发帖数: 2455 | 9 工程院/科学院两院院士 —我印象里,手懒,没差,你帮忙查查
: 不认识这个人...
: 这个人哪里牛? 成名作是什么?
【在 w*****r 的大作中提到】 : 不认识这个人... : 这个人哪里牛? 成名作是什么?
|
l*******m 发帖数: 1096 | 10 他培养了几个华人教授
Andrew Ng
Eric Xing
Percy Liang
【在 w*****r 的大作中提到】 : 不认识这个人... : 这个人哪里牛? 成名作是什么?
|
|
|
g****t 发帖数: 31659 | 11 Andrew Ng如何混上深学宗师地位的....
: 他培养了几个华人教授
: Andrew Ng
: Eric Xing
: Percy Liang
【在 l*******m 的大作中提到】 : 他培养了几个华人教授 : Andrew Ng : Eric Xing : Percy Liang
|
g****t 发帖数: 31659 | 12 我找统计的人问过多次。统计内部主流一直是频率法,不是贝叶斯。所以我不太明白机
器学习这里为什么贝叶斯这么多。
: 这人其实是做统计的。十几年前搞的是graphical model。
: 其实就是贝叶斯统计包装了一下。当时CV没有deep learning,
: 各类generative model都是用graphical model表述的,所以
: 相当火过一阵子。在文本处理中几乎也是处于统治地位。
: 这几年DL胡乱拟合吊打贝叶斯,贝叶斯那批人其实很多不死心的。
【在 w***g 的大作中提到】 : 这人其实是做统计的。十几年前搞的是graphical model。 : 其实就是贝叶斯统计包装了一下。当时CV没有deep learning, : 各类generative model都是用graphical model表述的,所以 : 相当火过一阵子。在文本处理中几乎也是处于统治地位。 : 这几年DL胡乱拟合吊打贝叶斯,贝叶斯那批人其实很多不死心的。
|
T*******e 发帖数: 1 | 13 个人感觉reinforced learning需要大量的simulation, 这些simulation逻辑相对复杂
,非常适合distributed processing. 用一堆cpu会比gpu有优势。这样cpu负责
simulation, Gpu负责differentiation, 把spark那一套distributed scheduling加进
来就搞了一个Ray framework. 好像现在databricks在推, 不知道能不能火起来。
【在 T*******e 的大作中提到】 : 他和Ion Stoica 合作搞了个Ray framework, 主攻distributed RL. 不过好像没什么人 : 用。。
|
f******2 发帖数: 2455 | 14 如果这是传统mpi适用的领域,除非特殊网络,否则network的效果,造成并行计算根本
不能起到加速的目的。
RL这些算法每个模拟的计算粒度有多小啊?
: 个人感觉reinforced learning需要大量的simulation, 这些simulation逻辑相
对复杂
: ,非常适合distributed processing. 用一堆cpu会比gpu有优势。这样cpu负责
: simulation, Gpu负责differentiation, 把spark那一套distributed
scheduling加进
: 来就搞了一个Ray framework. 好像现在databricks在推, 不知道能不能火起来。
【在 T*******e 的大作中提到】 : 个人感觉reinforced learning需要大量的simulation, 这些simulation逻辑相对复杂 : ,非常适合distributed processing. 用一堆cpu会比gpu有优势。这样cpu负责 : simulation, Gpu负责differentiation, 把spark那一套distributed scheduling加进 : 来就搞了一个Ray framework. 好像现在databricks在推, 不知道能不能火起来。
|
g****t 发帖数: 31659 | 15 不管什么新东西。最后都需要有智能音箱这种出货几千万的产品来验证。或者如同安防
视频识别什么的几千万设备长时间验证出来。不然一般散户不宜入戏太深。除非你创业
赌一
个方向的。
: 个人感觉reinforced learning需要大量的simulation, 这些simulation
逻辑相
对复杂
: ,非常适合distributed processing. 用一堆cpu会比gpu有优势。这样
cpu负责
: simulation, Gpu负责differentiation, 把spark那一套distributed
scheduling加进
: 来就搞了一个Ray framework. 好像现在databricks在推, 不知道能不能
火起来。
【在 T*******e 的大作中提到】 : 个人感觉reinforced learning需要大量的simulation, 这些simulation逻辑相对复杂 : ,非常适合distributed processing. 用一堆cpu会比gpu有优势。这样cpu负责 : simulation, Gpu负责differentiation, 把spark那一套distributed scheduling加进 : 来就搞了一个Ray framework. 好像现在databricks在推, 不知道能不能火起来。
|
w***g 发帖数: 5958 | 16 frequentist是主流,就像OOP是主流一样。
但是主流的东西叫不响。
CS两大高逼格象牙塔,一个是函数式编程,说不清的东西都包装在IO monad里。
另一个就是贝叶斯,说不清的东西都包装在prior里。
因为说不清+说得清最后还是说不清。所以
函数式编程编了半天,最后出来一个大的IO monad,
贝叶斯统计统了半天,最后出来一个大的prior。
真的干起来,就是乱棍打死老拳师。
【在 g****t 的大作中提到】 : 我找统计的人问过多次。统计内部主流一直是频率法,不是贝叶斯。所以我不太明白机 : 器学习这里为什么贝叶斯这么多。 : : : 这人其实是做统计的。十几年前搞的是graphical model。 : : 其实就是贝叶斯统计包装了一下。当时CV没有deep learning, : : 各类generative model都是用graphical model表述的,所以 : : 相当火过一阵子。在文本处理中几乎也是处于统治地位。 : : 这几年DL胡乱拟合吊打贝叶斯,贝叶斯那批人其实很多不死心的。 :
|
x****u 发帖数: 44466 | 17 百度帮着在国内炒作
【在 g****t 的大作中提到】 : Andrew Ng如何混上深学宗师地位的.... : : : 他培养了几个华人教授 : : Andrew Ng : : Eric Xing : : Percy Liang :
|
f******2 发帖数: 2455 | 18 tony,感觉你是Berkeley派的,能认识回答一下我前面问你(回你贴)的问题吗?
我觉得如果计算粒度非常小的问题,还是要mpi来搞,而且要低延时高速网络,
mapreduce(hadoop/spark)对于mapper阶段simd的问题是很合适,其他的就不行了
: 个人感觉reinforced learning需要大量的simulation, 这些simulation逻辑相
对复杂
: ,非常适合distributed processing. 用一堆cpu会比gpu有优势。这样cpu负责
: simulation, Gpu负责differentiation, 把spark那一套distributed
scheduling加进
: 来就搞了一个Ray framework. 好像现在databricks在推, 不知道能不能火起来。
【在 T*******e 的大作中提到】 : 个人感觉reinforced learning需要大量的simulation, 这些simulation逻辑相对复杂 : ,非常适合distributed processing. 用一堆cpu会比gpu有优势。这样cpu负责 : simulation, Gpu负责differentiation, 把spark那一套distributed scheduling加进 : 来就搞了一个Ray framework. 好像现在databricks在推, 不知道能不能火起来。
|
l*******m 发帖数: 1096 | 19 Andrew发财前非常humble, local的民间学术活动也经常参加,(可能也为了找老婆),
他和Hinton关系也不错。llya sutskever完成image net 2012的比赛就去Andrew那里做
pos doc。但imagenet比赛反响太大,llya两个月后回加拿大和Hinton成立公司等待收
购。Andrew基本上是知道alexnet第一个第三方的人。他的vision很好,立刻跳坑,
成就深学第四大牛。
:Andrew Ng如何混上深学宗师地位的....
: |
S****8 发帖数: 401 | 20 Andrew 在国内的时候花边八卦不少
),
【在 l*******m 的大作中提到】 : Andrew发财前非常humble, local的民间学术活动也经常参加,(可能也为了找老婆), : 他和Hinton关系也不错。llya sutskever完成image net 2012的比赛就去Andrew那里做 : pos doc。但imagenet比赛反响太大,llya两个月后回加拿大和Hinton成立公司等待收 : 购。Andrew基本上是知道alexnet第一个第三方的人。他的vision很好,立刻跳坑, : 成就深学第四大牛。 : : :Andrew Ng如何混上深学宗师地位的.... : :
|
|
|
c*******v 发帖数: 2599 | 21 2012以后还有video,语音,翻译这几个方向的大规模市场验证过的突破。
这些其实都和Andew Ng等名人无关。他还能混多久存疑。
),
【在 l*******m 的大作中提到】 : Andrew发财前非常humble, local的民间学术活动也经常参加,(可能也为了找老婆), : 他和Hinton关系也不错。llya sutskever完成image net 2012的比赛就去Andrew那里做 : pos doc。但imagenet比赛反响太大,llya两个月后回加拿大和Hinton成立公司等待收 : 购。Andrew基本上是知道alexnet第一个第三方的人。他的vision很好,立刻跳坑, : 成就深学第四大牛。 : : :Andrew Ng如何混上深学宗师地位的.... : :
|
H**r 发帖数: 10015 | 22 除了好为人师,这货有啥成果?
),
【在 l*******m 的大作中提到】 : Andrew发财前非常humble, local的民间学术活动也经常参加,(可能也为了找老婆), : 他和Hinton关系也不错。llya sutskever完成image net 2012的比赛就去Andrew那里做 : pos doc。但imagenet比赛反响太大,llya两个月后回加拿大和Hinton成立公司等待收 : 购。Andrew基本上是知道alexnet第一个第三方的人。他的vision很好,立刻跳坑, : 成就深学第四大牛。 : : :Andrew Ng如何混上深学宗师地位的.... : :
|
d******c 发帖数: 2407 | 23 有趣的八卦。
学术界之外的名声,可能一部分来自ML公开课,另一部分来自去google访问,碰见Jeff
Dean,搞google brain吧。在google开始搞Deep Learning,对于一般人来说就相当于
宗师了。
),
【在 l*******m 的大作中提到】 : Andrew发财前非常humble, local的民间学术活动也经常参加,(可能也为了找老婆), : 他和Hinton关系也不错。llya sutskever完成image net 2012的比赛就去Andrew那里做 : pos doc。但imagenet比赛反响太大,llya两个月后回加拿大和Hinton成立公司等待收 : 购。Andrew基本上是知道alexnet第一个第三方的人。他的vision很好,立刻跳坑, : 成就深学第四大牛。 : : :Andrew Ng如何混上深学宗师地位的.... : :
|
e*******o 发帖数: 4654 | 24 人家对ml 和dp 流行的贡献无人能敌吧。
andrew 能给门外汉把东西讲清楚的能力,很少人能超过?
),
【在 l*******m 的大作中提到】 : Andrew发财前非常humble, local的民间学术活动也经常参加,(可能也为了找老婆), : 他和Hinton关系也不错。llya sutskever完成image net 2012的比赛就去Andrew那里做 : pos doc。但imagenet比赛反响太大,llya两个月后回加拿大和Hinton成立公司等待收 : 购。Andrew基本上是知道alexnet第一个第三方的人。他的vision很好,立刻跳坑, : 成就深学第四大牛。 : : :Andrew Ng如何混上深学宗师地位的.... : :
|