B****x 发帖数: 17 | 1 ACM Paris Kanellakis Theory and Practice Award奖励对计算机应用有重大影响的理论
发现. http://awards.acm.org/kanellakis/
2008
Cortes, Corinna
Vapnik, Vladimir
Paris Kanellakis Theory and Practice Award
2008 – Vladimir Vapnik
Fellow of NEC Laboratories/Columbia University (2008)
Citation
For the development of Support Vector Machines, a highly effective
algorithm for classification and related machine learning problems.
Full Citation
In their 1995 paper titled "Support vector networks," Cortes and Vapnik
introduced ... 阅读全帖 |
|
d******e 发帖数: 7844 | 2 而且SVM的成就不应该算到Vapnik一个人的头上吧?
N多人共同努力得到的。
只不过Vapnik的书比较畅销,而且名气最大,所以LZ才会觉得是Vapnik一人的功劳吧。
有谁知道谁第一次提出Support Vector Machines的概念么?我一直在网上都没有找到 |
|
z*******n 发帖数: 1034 | 3 November 25, 2014 1:23 PM
Jordan Novet
Facebook’s campaign to grow its artificial intelligence talent pool has
announced a new victory.
The social networking company’s AI lab today revealed — in a Facebook post
, naturally — its latest high-profile hire: Vladimir Vapnik. He’s credited
with coming up with the first support vector machine (SVM) algorithm. SVMs
are widely used today for machine learning purposes. They can come in handy
for analyzing text, images, and other types of content.
Vapnik’... 阅读全帖 |
|
c*******r 发帖数: 238 | 4 图灵奖很多是几个人分的吧,不如你说说看在统计学习理论上还有谁的贡献
跟VAPNIK是比肩的。
VAPNIK早年的那一套理论(关于示性函数的大数定理,ERM/SRM的一致性等)
不能不说是统计学习理论上的开创性以及里程碑式的贡献。 |
|
|
B****x 发帖数: 17 | 6 分领域看更合理:
http://academic.research.microsoft.com/RankList?
entitytype=2&domainID=1&last=0&start=1&end=100
http://academic.research.microsoft.com/RankList?
entitytype=2&domainID=6&last=0&start=1&end=100
理论:
1. Robert Tarjan
2. Christos Papadimitriou
9. Richard Karp
11. Madhu Sudan
12. Les Valiant
13. Jeff Ullman
14. John Hopcroft
Machine Learning:
1. Vladimir Vapnik
3. Michael Jordan
4. Robert Schapire
29. Michael Kearns
31. Daphne Koller
37. Leo Breiman
75. Les Valiant
82. Sebastian Thrun
q=Lesl... 阅读全帖 |
|
w***g 发帖数: 5958 | 7 拜托大家别拿SVM出来说事了。VC theory比PAC高一个档次我觉得是无需置疑的。PAC只
是提供了一个描述方法可靠性的语言,而VC theory直接就点中了复杂性的本质。SVM只不
过是VC theory的一个小小的应用而已。
话虽如此,Valiant这个图灵奖还是比Vapnik要合适。毕竟他在理论界还有很多贡献。我
很怀疑评奖委员会里有没有搞机器学习的人。大家需要注意的是图灵奖是ACM颁的,虽然
它旗下也有SIGART (AI),但搞的都是些非主流的东西。机器学习有它自己的组织,像AA
AI, IMLS什么的。要那些组织来颁奖的话,那就非Vapnik不可了。
要我说,ACM不管的东西严格上来说不属于CS. |
|
|
c*******r 发帖数: 238 | 9 SVM只不过是VAPNIK统计学习理论的一个应用。
也许他那一套东西太数学化不算传统计算机领域。 |
|
|
|
w******5 发帖数: 3 | 12 Vapnik最大的贡献是提出VC dimension
SVM是VC的一个重要应用
但是从theory的角度讲VC作为PAC model基石的重要性更大一些 |
|
w**********s 发帖数: 291 | 13 看citation是很片面的。
有的人的工作很深,没几个人能看懂,但解决了其他牛人不能解决的问题,所以那些牛
人就推选他了。好像andrew yao就是这样的。
不过如果像Vapnik这么厉害的,历史终究会记住他吧。有时候不得流行大奖还更加增添
他的光辉。 |
|
p*********g 发帖数: 226 | 14 基本上是Vapnik先打下基础,然后
Corinna Cortes 拓展到 kernel (Wahba 的实在不能算)
Bennett and Mangasarian 1992 提出 soft-margin loss (但不在SVM背景下)
再前面点,RKHS were invented by Aronszajn and coworkers in the 50s.
kernel + soft-margin 之后才迎来了10-15 年左右的辉煌,不过现在让位于 sparse/
low rank 了。 |
|
p*********g 发帖数: 226 | 15 本来不想再讨论了,有几点看来还是讲讲明白。
Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
在 AT&T 的同事。
Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
, Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
Vapnik 一人。当然这点其实并不重要,东西好就行了。
一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
learning 的东西都没有什么实用意义。在我们这个年代,frequentist 的方法自然会
盛行,因为我们有了_一定的_计算能力。随着计算技术的... 阅读全帖 |
|
p*********g 发帖数: 226 | 16 >> 你查查Vapnik 92和95年的关于SVM的paper,一个5000多引用,一个接近3000。
呵呵,Corinna Cortes 还是挺令人崇拜的,引入soft margin其实是她的idea,Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点develop着发,就像大多数人一样,就没那么shocking了。
如果真要比citation, MJ 显然要等10年再和 Vapnik 比,毕竟年龄相差20岁了。
graphical model 还有得可以搞,kernel 和 max margin 已经日落西山了。
其实,Vapnik 最大的问题是他忽略了西方统计领域的一些早有的东西,这让统计的人
有点 upset。当然不怪他,毕竟当时在苏联。
感兴趣当年苏联 math programming 界轶事的,推荐这张paper,其实很多是整个苏联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc |
|
p*********g 发帖数: 226 | 17 >> 你查查Vapnik 92和95年的关于SVM的paper,一个5000多引用,一个接近3000。
呵呵,Corinna Cortes 还是挺令人崇拜的,引入soft margin其实是她的idea,Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点develop着发,就像大多数人一样,就没那么shocking了。
如果真要比citation, MJ 显然要等10年再和 Vapnik 比,毕竟年龄相差20岁了。
graphical model 还有得可以搞,kernel 和 max margin 已经日落西山了。
其实,Vapnik 最大的问题是他忽略了西方统计领域的一些早有的东西,这让统计的人
有点 upset。当然不怪他,毕竟当时在苏联。
感兴趣当年苏联 math programming 界轶事的,推荐这张paper,其实很多是整个苏联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc... 阅读全帖 |
|
p*********g 发帖数: 226 | 18 引MJ的人,大多看过他的paper。引Vapnik的人,大多是因为别人引了,又懒得自己查
。而且Vapnik的那本是书,很多东西也是别人的工作。他在苏联发展这项工作的时候,
其实又忽略了很多西方统记界已经有的东西。所以引Vapnik的书,不代表引Vapnik 原
创的工作。
MJ 现在被引的大多是他的paper,所以基本上就是他的工作。
其实说到现在还是漏了两个learning界的巨人:另一个michael,还有Rich Sutton。 |
|
p*********g 发帖数: 226 | 19 本来不想再讨论了,有几点看来还是讲讲明白。
Vapnik 如果不到美国,估计 SVM 远不会像现在这么成功,他做了20年的separable,
单单这个在实用中基本不会work。让它真正实用的关键的两步:一是Cortes的 soft
margin,二是 Guyon 的 kernelization (Grace Wahba 不能算),两个都是 Vapnik
在 AT&T 的同事。
Vapnik 和 Chervonenkis 在统计学习的贡献自是有目共睹,但很多我们现在看到的SVM
和 max margin 的成果其实来自于许多人共同努力,名字想得到的就有Cortes, Guyon
, Shaw-Taylor, Schoekopf, Smola, Bartlett 等一长串。 所以不能把这些全都归于
Vapnik 一人。当然这点其实并不重要,东西好就行了。
一项工作的意思随着时间的变化而变化。在没有计算机的年代,自然所有这些 machine
learning 的东西都没有什么实用意义。在我们这个年代,frequentist 的方法自然会
盛行,因为我们有了_一定的_计算能力。随着计算技术的 |
|
p*********g 发帖数: 226 | 20 引MJ的人,大多看过他的paper。引Vapnik的人,大多是因为别人引了,又懒得自己查
。而且Vapnik的那本是书,很多东西也是别人的工作。他在苏联发展这项工作的时候,
其实又忽略了很多西方统记界已经有的东西。所以引Vapnik的书,不代表引Vapnik 原
创的工作。
MJ 现在被引的大多是他的paper,所以基本上就是他的工作。
其实说到现在还是漏了两个learning界的巨人:另一个michael,还有Rich Sutton。 |
|
w***g 发帖数: 5958 | 21 又上了会网,感慨万千啊。
deep-learning发起之前,普林斯顿这个地方可以说是ML界的
一座大山了。当时两个热门技术,一个是boosting,
代表人物在普林的cs系,另一个是SVM,代表人物vapnik在
普林的NEC lab。麦克乔丹的图模型paper发的漂亮,实战
其实干不过SVM和boosting的。现在vapnik也跳槽了,schapire
也下海了。据说vapnik当年还是想进学校的,现在应该不会
再想了吧。 |
|
|
N**D 发帖数: 10322 | 23 the essense of svm is "margin", which is a regulazier term
most other methods , first is penalty term, then regularizer term
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/ |
|
N**D 发帖数: 10322 | 24 这个个搞graphical model的说起svm, 别说"notthing but ...", "can be obtained
from this .... prob model..." etc
有本事提出个更好的
SVM很运气,根本没有对应的noise model
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/ |
|
|
N**D 发帖数: 10322 | 26 the essense of svm is "margin", which is a regulazier term
most other methods , first is penalty term, then regularizer term
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,就br />
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/ |
|
N**D 发帖数: 10322 | 27 这个个搞graphical model的说起svm, 别说"notthing but ...", "can be obtained
from this .... prob model..." etc
有本事提出个更好的
SVM很运气,根本没有对应的noise model
Vapnik 在苏联20年就专心 separable 的了。separable SVM 其实 Vapnik 早就在苏联
搞得差不多了,到了美国,把这些集大成的精华发在一个地方。要是真的一点点
develop着发,就像大多数人一样,就br />
Vapnik 比,毕竟年龄相差20岁了。
联科学界的情况:http://www.springerlink.com/content/0byp2upjdgc8ycr9/ |
|
w***g 发帖数: 5958 | 28 我不知道vapnik当初搞SVM是怎么搞出来的。但是我上学时教授教的顺序是先PAC,然后
VC dimension,然后再SVM,所有这些都在PAC的框架上做的。我不是说Vapnik不牛,他
从贡献上来说早就够诺贝尔奖了。但是这个Valiant即使不如Vapnik,差的也不大。
(看了 BudFox的回帖再补充一下,PAC和SVM可能没关系。话说我上的那门课是Robert
Schapire教的,所以SVM就被PAC给统一了。)
再说statistical learning theory。这东西现在这么火主要就是出了个SVM。别的理论
也不是没有,只是因为没有像SVM这么好用的,所以就都被比下去了。这么多learning方
法,SVM胜出了,30%是理论好,30%是时代背景,还有30%是运气。十年前neural
network多火?现在还有多少人用?
再说时代背景。很难说50年后是什么状态,但我比较倾向认为10年后SVM就会让位于K-N
N。什么算法最流行,很大程度上决定于当时的计算机性能和数据规模的。一旦SVM退出
了历史舞台,statistical learning theory也就... 阅读全帖 |
|
C*********g 发帖数: 3728 | 29 你说的很有道理,交流必须是双向的。
就比如你谈到overfitting,我是在Vapnik的书里读到的。以他的水平,可以高屋建瓴
地谈问题,直截了当的说level of algorithm complexity must match level of data
complexity. 我当时就拜服得五体投地。
但是,很多统计科班出身的Ph.D,恐怕一辈子也不可能说出这么牛叉而通俗易懂的话来
。Vapnik的东西,能完全啃下来的,也不见得有多少人。
Vapnik自己也是师承n代数学家,外加n年苦功。换一个Frequencist来,估计理解也
不可能一样。
而对应的其他专业的科研人员,不客气地说,很多Science/Nature 文章的作者,对于
统计学的理解,还停留在大学一年级上。老陈不是太差。
所以,统计科班出身的Ph.D和其他专业的交流,不是一件本该和谐的事情。责任不是单
方面的。 |
|
U**s 发帖数: 3390 | 30 您真搞笑 statistical learning theory那个时代那么小众的领域,教材不拿Vapnik的
原著拿什么
Vapnik的精简版和完整版俺都有 |
|
z***t 发帖数: 2374 | 31 这是Hastie聪明的地方,Vapnik已经写过书了
再写也超不过Vapnik,不如不写,否则浪费大家时间和买多余纸张的钱
写ML这种研究性教材,作者必须水平高,市面上其他教材的作者和Hastie他们差太多了
即使MJ出来写,也就这水平了
说其他作者自不量力,欺骗群众,也不过分,因为Hastie的第一版很早就出来了,而且
很不错,后来几本书还远不如最早Duda的pattern classification
系. |
|
z***t 发帖数: 2374 | 32 这是Hastie聪明的地方,Vapnik已经写过书了
再写也超不过Vapnik,不如不写,否则浪费大家时间和买多余纸张的钱
写ML这种研究性教材,作者必须水平高,市面上其他教材的作者和Hastie他们差太多了
即使MJ出来写,也就这水平了
说其他作者自不量力,欺骗群众,也不过分,因为Hastie的第一版很早就出来了,而且
很不错,后来几本书还远不如最早Duda的pattern classification
系. |
|
|
b********p 发帖数: 875 | 34 从duda到vapnik跳跃太大了点.
其实从AIMA相关章节开始好了,在看看主教和乔丹的书,
要看懂vapnik得把拓扑实变泛函概率论都打通才行啊 |
|
I*****2 发帖数: 1586 | 35 我听过MJ讲的也听过vapnik讲的,
对比一下,可能大师称号只能给vapnik,大师讲东西已经脱离形式注重内容,大师讲课
中一边引用哲学家的话语,一边自然而然的联系到实体论等哲学观点。
MJ的也就是technically 非常有insight而已,基本上还是流于形式的高级技术讨论而已
。 |
|
p*********g 发帖数: 226 | 36 > 这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
你这个是完全的误解,这里很多人就是喜欢只及一点、不及其余。最后一次 respond
to you。
这些和 Vapnik 的东西都是缺一不可、相辅相成的。在实用上,没有soft margin 和
kernel,没有可能 work,也就不可能在90年代中叶把龙头从 neural network 那里扳
过来,SVM 也不会有多少人用。但这并不损害 Vapnik 学习理论的价值,而且显然这个比soft margin 和 kernel 更重要。 |
|
m****t 发帖数: 555 | 37 某人把Vapnik捧上了天,原来是私生子。
可怜啊,Vapnik都没承认你,你还去给人舔屁股。 |
|
p*********g 发帖数: 226 | 38 > 这个强调SVM的成功在于soft margin 和kernel, 说明还需要看书,再研究研究。
你这个是完全的误解,这里很多人就是喜欢只及一点、不及其余。最后一次 respond
to you。
这些和 Vapnik 的东西都是缺一不可、相辅相成的。在实用上,没有soft margin 和
kernel,没有可能 work,也就不可能在90年代中叶把龙头从 neural network 那里扳
过来,SVM 也不会有多少人用。但这并不损害 Vapnik 学习理论的价值,而且显然这个比soft margin 和 kernel 更重要。 |
|
p*********g 发帖数: 226 | 39 俺本来也没兴趣比较 Vapnik 和 MJ,没什么意思。出来发文,只是认为不应该把 SVM 的功劳全归于 Vapnik,客观为好。
好了,事实都摆在那儿了,见仁见智。你这种就没意思了,要谩骂的话,回你的 ChinaNews 去
吧。 |
|
m****t 发帖数: 555 | 40 某人把Vapnik捧上了天,原来是私生子。
可怜啊,Vapnik都没承认你,你还去给人舔屁股。 |
|
d******e 发帖数: 7844 | 41 没人说他不牛,现在是在和Vapnik比。
不过图灵奖这东西就是个虚名,50年后的Machine Learning教材里,SVM还会是重头戏
,Statistical Learning Theory也将带着Vapnik的名字名垂青史。
你们现在谁能马上完整的说出最近10年的图灵奖获得者?这东西也就是爽一时而已嘛。
永远是挖大坑的人才能被人传诵,只能说PAC这个坑还不够大。 |
|
n*****m 发帖数: 73 | 42 Vapnik (Father of SVM) 早就挺过中医了。
A new learning paradigm: Learning using privileged information
Vapnik V, Vashist A., Neural Networks
Volume 22, Issues 5-6, July-August 2009, Pages 544-557
自己去读
10 |
|
m*********k 发帖数: 10521 | 43 成功奖励 20 伪币的用户:
biduhold, dragoncity, Herzog, erin17, mineola, zlight, waiting140,
yiyayiyayou, Comet, Herzog, grasshopper, ergen, vapnik, Crabapple, az,
lovelybear, bullpop, bzbk2, breetmiller, amplifier, fainters, rongxuer,
gcheadache, biaohanMM, dter, guatai710, Avantgarde, lxfpku
奖励版面:(ChinaNews)20伪币成功
奖励版面:(Dreamer)20伪币成功
奖励版面:(Faculty)20伪币成功
奖励版面:(Fashion)20伪币成功
奖励版面:(Georgia)20伪币成功
奖励版面:(JobHunting)20伪币成功
奖励版面:(Living)20伪币成功
奖励版面:(Love)20伪币成功
奖励版面:(Movie)20伪币成功
奖励版面:(NextGeneration)20伪币成功
... 阅读全帖 |
|
m*********k 发帖数: 10521 | 44 本次统计截止时间为:2013-08-06 02:00:00 (美东时间)
成功奖励 20 伪币的用户: alvdena, attractive0, bingmickey, biotoit, bluemoss,
Brutus, chengineer, ChinaGirl, choming, dora123, flamingoqy, florida5678,
freelong, honyi97, Imagination, jameslee435, jaspertrip, jigao, jinselan,
jokeyzhu, liam, life773127, LLNL, lunchbreak, lys, midwestPstD, native,
neosunrise, orangesky, Riveroak, root012, seahope, shicing, sweetgrey,
sweetlife, tgbqaz, tigerbabysd, txak47, vapnik, walkingon, windbell,
xiaoapple, xiaojiang007, xiaomingxi... 阅读全帖 |
|
L*********4 发帖数: 883 | 45 正解.
Vapnik当年说过,物理化学那些东西,维数太低,所以才能建立人类能说得清楚的科学模
型.
而真正维数高的东西,只能靠从大数据里学习人类无法简单理解的模型来解决. |
|
发帖数: 1 | 46 看看人老毛子Vapnik讲统计学习理论,就能体会到类似数学物理理论之美 |
|
发帖数: 1 | 47 Vapnik很厉害,苏联人数学好,玩ppt不行 |
|
U**s 发帖数: 3390 | 48 vapnik: Statistical Learning Theory 俺有国内最早的影印版 |
|
U**s 发帖数: 3390 | 49 靠百度装内行是很土鳖的做法
统计学习理论在机器学习领域有特指,是V Vapnik的statistical learning theory |
|
v****k 发帖数: 229 | 50 【 以下文字转载自 TAX 讨论区 】
发信人: vapnik (Master), 信区: TAX
标 题: amazon 上卖东西的收入要交税么?
发信站: BBS 未名空间站 (Tue Jan 31 11:17:58 2012, 美东)
谢谢回答!他们会寄一个类似于 1099 的东西么? |
|