y*****i 发帖数: 141 | 1 烂校,PhD,网络方向。
publication的质量会有人care吗?自己挣扎做半天到头来只是自慰?另外就目前做的东西看好坏都
不是太好。。。 |
r********3 发帖数: 2998 | 2 他们会问一下你在paper的工作里面做了啥。
网络方向还行,发出去的paper基本都是有实实在在的工作。如果是一些偏理论方向的
paper,特别是learning之类的,再好的质量别人也不怎么care.
的东西看好坏都
【在 y*****i 的大作中提到】 : 烂校,PhD,网络方向。 : publication的质量会有人care吗?自己挣扎做半天到头来只是自慰?另外就目前做的东西看好坏都 : 不是太好。。。
|
f****g 发帖数: 313 | 3 it depends on the position and education of your interviewer.
If the position requires PhD degree, your projects/publications matter a lot
; If the interviewer has PhD degree, he/she might be interested with your
research. Otherwise, nobody cares. |
m*****i 发帖数: 2325 | 4 看招人的人吧? 但你强调你在你的publication里有很多coding 的实现会很有用。 抛
开coding过分强调publication 有可能引起over qualified 的反效果。
google, MS,等大公司到不注重你的coding,更注重你的个人创造力。
的东西看好坏都
【在 y*****i 的大作中提到】 : 烂校,PhD,网络方向。 : publication的质量会有人care吗?自己挣扎做半天到头来只是自慰?另外就目前做的东西看好坏都 : 不是太好。。。
|
r********3 发帖数: 2998 | 5 Google和MS最注重coding。特别是MS。
【在 m*****i 的大作中提到】 : 看招人的人吧? 但你强调你在你的publication里有很多coding 的实现会很有用。 抛 : 开coding过分强调publication 有可能引起over qualified 的反效果。 : google, MS,等大公司到不注重你的coding,更注重你的个人创造力。 : : 的东西看好坏都
|
D*******a 发帖数: 3688 | 6 google is more focused on coding. MS allows you write pseudo code while
google requires production code on white board.
【在 r********3 的大作中提到】 : Google和MS最注重coding。特别是MS。
|
r********3 发帖数: 2998 | 7 好吧。都比较注重。
我觉得networking, storage, database方面发的paper,无论如何都是有很实在的工作
。无论找什么工作,都是很帮助的。至少在工作量和说服力上比computer vision,
machine learning很多paper要强很多。 |
f*****w 发帖数: 2602 | 8 I have different feeling that learning is becoming popular in the industry,
if you are an expert in learning theory, to find a position in google/amazon
is very easy. |
m*p 发帖数: 1331 | 9 小弟弟,先搞个infocomm为校争光再说。阿瓜脸上也有光彩的说。
的东西看好坏都
【在 y*****i 的大作中提到】 : 烂校,PhD,网络方向。 : publication的质量会有人care吗?自己挣扎做半天到头来只是自慰?另外就目前做的东西看好坏都 : 不是太好。。。
|
C*********e 发帖数: 587 | 10 .....这不是胡说吗
【在 r********3 的大作中提到】 : 好吧。都比较注重。 : 我觉得networking, storage, database方面发的paper,无论如何都是有很实在的工作 : 。无论找什么工作,都是很帮助的。至少在工作量和说服力上比computer vision, : machine learning很多paper要强很多。
|
|
|
m**********n 发帖数: 285 | 11 完全同意。特别是amazon。
,
amazon
【在 f*****w 的大作中提到】 : I have different feeling that learning is becoming popular in the industry, : if you are an expert in learning theory, to find a position in google/amazon : is very easy.
|
m**********n 发帖数: 285 | 12 不要再误导别人了。不知道的话还是不要说。看看招聘广告,多少大公司在招learning
的人。
【在 r********3 的大作中提到】 : 他们会问一下你在paper的工作里面做了啥。 : 网络方向还行,发出去的paper基本都是有实实在在的工作。如果是一些偏理论方向的 : paper,特别是learning之类的,再好的质量别人也不怎么care. : : 的东西看好坏都
|
C*********e 发帖数: 587 | 13 一直不明白那个running123到底是什么都不懂在胡说,还是故意误导。。。。。
learning
【在 m**********n 的大作中提到】 : 不要再误导别人了。不知道的话还是不要说。看看招聘广告,多少大公司在招learning : 的人。
|
W*********y 发帖数: 481 | 14 那能多说两句吗,现在machine learning和data mining的phd找工作很吃香?
感觉machine learning的phd平时写写matlab,倒腾公式,离公司的工程要求好像远点。
learning
【在 m**********n 的大作中提到】 : 不要再误导别人了。不知道的话还是不要说。看看招聘广告,多少大公司在招learning : 的人。
|
C*********e 发帖数: 587 | 15 业界/学术界,用ML/DM/IR/Stat是大趋势
具体到ML,平时用哪种工具的都有,Matlab/C++/R/Java,这看个人
点。
【在 W*********y 的大作中提到】 : 那能多说两句吗,现在machine learning和data mining的phd找工作很吃香? : 感觉machine learning的phd平时写写matlab,倒腾公式,离公司的工程要求好像远点。 : : learning
|
I******k 发帖数: 378 | 16 要写上去吗?
的东西看好坏都
【在 y*****i 的大作中提到】 : 烂校,PhD,网络方向。 : publication的质量会有人care吗?自己挣扎做半天到头来只是自慰?另外就目前做的东西看好坏都 : 不是太好。。。
|
x***i 发帖数: 585 | 17 我现在搞security,也是一天到晚,搞statistic & machine learning。
相当的郁闷,co-adviser 是统计系的。说的东东我都不懂啊,经常被鄙视。 |
r********3 发帖数: 2998 | 18 你这话,未免太贬低传统领域的从业人员了。
【在 C*********e 的大作中提到】 : 业界/学术界,用ML/DM/IR/Stat是大趋势 : 具体到ML,平时用哪种工具的都有,Matlab/C++/R/Java,这看个人 : : 点。
|
M**u 发帖数: 10158 | 19 security没什么可搞了
只能搞ml了。。。
【在 x***i 的大作中提到】 : 我现在搞security,也是一天到晚,搞statistic & machine learning。 : 相当的郁闷,co-adviser 是统计系的。说的东东我都不懂啊,经常被鄙视。
|
u**d 发帖数: 211 | 20 从学术上讲,ml 对很多领域比较有吸引力
结合 ml 的基本方法,经常能得到一些很有意思的结果
但所谓的“有意思”多数仅仅是停留在学术上
关键还是 learning 的准确率
为了发篇文章,90% 的准确率已经很高了
但在很多工业应用中,这是完全不可接受的
当然有些应用没啥问题,比如 recommendation 或者广告
偶尔推荐错了也没啥影响。
我觉得最成功的 learning 应用之一就是垃圾邮件
很简单,准确率 > 99%,应用非常广泛
从这个角度想,要是 learning 最好的准确率只有 90%
100 封邮件丢 10 封,换成哪个公司都要掂量掂量
丢这么多信,用户肯定要抱怨
【在 x***i 的大作中提到】 : 我现在搞security,也是一天到晚,搞statistic & machine learning。 : 相当的郁闷,co-adviser 是统计系的。说的东东我都不懂啊,经常被鄙视。
|
|
|
d******e 发帖数: 7844 | 21 哪有你这么衡量的。
真正的应用是要调节Specificity和Sensitivity来满足需求的。
准确率只有80%的分类器,一样有可能会很实用。
一个笼统的99%准确率根本说明不了任何问题。
【在 u**d 的大作中提到】 : 从学术上讲,ml 对很多领域比较有吸引力 : 结合 ml 的基本方法,经常能得到一些很有意思的结果 : 但所谓的“有意思”多数仅仅是停留在学术上 : 关键还是 learning 的准确率 : 为了发篇文章,90% 的准确率已经很高了 : 但在很多工业应用中,这是完全不可接受的 : 当然有些应用没啥问题,比如 recommendation 或者广告 : 偶尔推荐错了也没啥影响。 : 我觉得最成功的 learning 应用之一就是垃圾邮件 : 很简单,准确率 > 99%,应用非常广泛
|
u**d 发帖数: 211 | 22 不是所有的问题都能通过参数调节来达到要求啊
就算是针对 training set 做好了,来新的咋办?
重新调?自动调?如何调?
退一步,即使模型可以参数化,如果 workload 如何,准确率就如何
可实际的 workload 可能本身就很复杂,无法 model
我提 email spam 就是因为是一个很简单的模型,不用很复杂的参数调节
对实际的 workload 就能有很好的结果。
我们的 research,很多时候提了一个方法,对 1,2,3 情况有提高
可问题是在实际的 workload 里,根本无法自动区分 1,2,3
如果这个方法对 4,5,6 不 work 或者差很多, 你让用户怎么用?
当然新的方法是有意义的,但是对实际的系统很难有影响
80% 当然可以很实用,看 application 嘛
search 为例,把 non-sense 的结果放在前几名,用户没啥问题
大多数结果好就行了。可要是 facet search,把一些 non-sense
的 value 做 navigation 就非常的尴尬
【在 d******e 的大作中提到】 : 哪有你这么衡量的。 : 真正的应用是要调节Specificity和Sensitivity来满足需求的。 : 准确率只有80%的分类器,一样有可能会很实用。 : 一个笼统的99%准确率根本说明不了任何问题。
|
d******e 发帖数: 7844 | 23 果然是个外行,连基本的ROC曲线都不懂。
学过基本的机器学习课程的人都知道决策是要由代价来决定的。
比如一个指纹认证系统,把错误的识别为正确的会带来非常大的代价。
而把正确的识别为错误的代价很小,用户只要重新调整姿势输入即可。
所以作为一个指纹识别系统,False Positive Rate通常要控制的非常低,比如0.001%。
而False Negative rate有5%甚至10%都无所谓。而不是像你说的单纯追求准确率。
垃圾邮件的识别一样要作上述的调节,一般来说,把重要邮件识别为垃圾邮件,代价很
大,所以False Positive Rate也要控制的很低。这也是为什么hotmail里有很多广告邮
件会出现,原因就是他们的过滤器牺牲了FN来降低FP。
这种调节是工业应用中常用的手段,不是你一拍脑门就能在这里YY出来的
【在 u**d 的大作中提到】 : 不是所有的问题都能通过参数调节来达到要求啊 : 就算是针对 training set 做好了,来新的咋办? : 重新调?自动调?如何调? : 退一步,即使模型可以参数化,如果 workload 如何,准确率就如何 : 可实际的 workload 可能本身就很复杂,无法 model : 我提 email spam 就是因为是一个很简单的模型,不用很复杂的参数调节 : 对实际的 workload 就能有很好的结果。 : 我们的 research,很多时候提了一个方法,对 1,2,3 情况有提高 : 可问题是在实际的 workload 里,根本无法自动区分 1,2,3 : 如果这个方法对 4,5,6 不 work 或者差很多, 你让用户怎么用?
|
r********3 发帖数: 2998 | 24 ml只是一个工具而已,不应该夸张其作用和重要程度。
很多自然学科,实际应用不接受ml的一个重要原因就是,纯ml做出来的东西并没有寻求
到问题的本质。它只是作为帮助人类探索本质的一个工具而已。所以,相对于很多归根
结底探索自然本质的传统学科做法来说,显得肤浅了一些。
肯定马上会有人跳出来说,ml的数学背景和理论那么高深复杂,怎么可能“肤浅”呢?
这里的肤浅是指对问题本质的探索。而ml背后所谓一大堆理论,都是ml专家自己搞出来
的一套东西。他们并没有去论证问题的本质是否遵循那套理论的。而论证问题本质是否
遵循一套理论,比知道这套理论之后如何创建模型去解决,更加重要百倍。
我以前举个地震预报的例子来说明为什么单纯做ml的人很肤浅。做ml的人的做法,就是
Google一堆历史数据,然后在matlab上写点script,做做feature selection,把各种
decision tree, SVM, neural network等程序来跑一把,然后就得到一个预测模型了。
真正搞地质学的人,在没有搞清楚地震发生的本质原因的时候,是不会做任何预报工作
的。他们会背着采样仪器,跑到深山野林,火山口,深海油田,去寻找地壳底层的岩石
样本。然后请教化学家,做物质化学组成的分析。然后请教流体力学,对地壳内部,地
幔层等物理模型做猜测。然后根据地壳漂移的学说,推断某个地理板块是否是断层带,
是否受到板块挤压。同时,根据国家地震网的探针数据分析其挤压板块是否处于活跃。
然后由此做地震预报工作。
【在 u**d 的大作中提到】 : 从学术上讲,ml 对很多领域比较有吸引力 : 结合 ml 的基本方法,经常能得到一些很有意思的结果 : 但所谓的“有意思”多数仅仅是停留在学术上 : 关键还是 learning 的准确率 : 为了发篇文章,90% 的准确率已经很高了 : 但在很多工业应用中,这是完全不可接受的 : 当然有些应用没啥问题,比如 recommendation 或者广告 : 偶尔推荐错了也没啥影响。 : 我觉得最成功的 learning 应用之一就是垃圾邮件 : 很简单,准确率 > 99%,应用非常广泛
|
k****n 发帖数: 1334 | 25 i really don't think so
显然做networking system database的是一大块,ml只是小部分需求
research lab或者学校另当别论
当民工不看ml
learning
【在 m**********n 的大作中提到】 : 不要再误导别人了。不知道的话还是不要说。看看招聘广告,多少大公司在招learning : 的人。
|
s*******a 发帖数: 8827 | 26 不错,这个地震的例子挺有意思的
【在 r********3 的大作中提到】 : ml只是一个工具而已,不应该夸张其作用和重要程度。 : 很多自然学科,实际应用不接受ml的一个重要原因就是,纯ml做出来的东西并没有寻求 : 到问题的本质。它只是作为帮助人类探索本质的一个工具而已。所以,相对于很多归根 : 结底探索自然本质的传统学科做法来说,显得肤浅了一些。 : 肯定马上会有人跳出来说,ml的数学背景和理论那么高深复杂,怎么可能“肤浅”呢? : 这里的肤浅是指对问题本质的探索。而ml背后所谓一大堆理论,都是ml专家自己搞出来 : 的一套东西。他们并没有去论证问题的本质是否遵循那套理论的。而论证问题本质是否 : 遵循一套理论,比知道这套理论之后如何创建模型去解决,更加重要百倍。 : 我以前举个地震预报的例子来说明为什么单纯做ml的人很肤浅。做ml的人的做法,就是 : Google一堆历史数据,然后在matlab上写点script,做做feature selection,把各种
|
d******e 发帖数: 7844 | 27 你这个棒槌又出来晃悠了。
【在 r********3 的大作中提到】 : ml只是一个工具而已,不应该夸张其作用和重要程度。 : 很多自然学科,实际应用不接受ml的一个重要原因就是,纯ml做出来的东西并没有寻求 : 到问题的本质。它只是作为帮助人类探索本质的一个工具而已。所以,相对于很多归根 : 结底探索自然本质的传统学科做法来说,显得肤浅了一些。 : 肯定马上会有人跳出来说,ml的数学背景和理论那么高深复杂,怎么可能“肤浅”呢? : 这里的肤浅是指对问题本质的探索。而ml背后所谓一大堆理论,都是ml专家自己搞出来 : 的一套东西。他们并没有去论证问题的本质是否遵循那套理论的。而论证问题本质是否 : 遵循一套理论,比知道这套理论之后如何创建模型去解决,更加重要百倍。 : 我以前举个地震预报的例子来说明为什么单纯做ml的人很肤浅。做ml的人的做法,就是 : Google一堆历史数据,然后在matlab上写点script,做做feature selection,把各种
|
D***r 发帖数: 7511 | 28 你说的大体上是没错
但是,machine learning本身也是一种观察手段
所以可以用ml的方法来帮助发现地壳运动规律,等等
而且,地震预报就是地震预报,哪个方法最管用就用哪个
这完全是engineering
【在 r********3 的大作中提到】 : ml只是一个工具而已,不应该夸张其作用和重要程度。 : 很多自然学科,实际应用不接受ml的一个重要原因就是,纯ml做出来的东西并没有寻求 : 到问题的本质。它只是作为帮助人类探索本质的一个工具而已。所以,相对于很多归根 : 结底探索自然本质的传统学科做法来说,显得肤浅了一些。 : 肯定马上会有人跳出来说,ml的数学背景和理论那么高深复杂,怎么可能“肤浅”呢? : 这里的肤浅是指对问题本质的探索。而ml背后所谓一大堆理论,都是ml专家自己搞出来 : 的一套东西。他们并没有去论证问题的本质是否遵循那套理论的。而论证问题本质是否 : 遵循一套理论,比知道这套理论之后如何创建模型去解决,更加重要百倍。 : 我以前举个地震预报的例子来说明为什么单纯做ml的人很肤浅。做ml的人的做法,就是 : Google一堆历史数据,然后在matlab上写点script,做做feature selection,把各种
|
d******e 发帖数: 7844 | 29 这个人是个learning盲,你跟他说这个没用。
【在 D***r 的大作中提到】 : 你说的大体上是没错 : 但是,machine learning本身也是一种观察手段 : 所以可以用ml的方法来帮助发现地壳运动规律,等等 : 而且,地震预报就是地震预报,哪个方法最管用就用哪个 : 这完全是engineering
|
v***0 发帖数: 5096 | 30 你这个棒槌以来总给网民带来欢笑。
【在 r********3 的大作中提到】 : ml只是一个工具而已,不应该夸张其作用和重要程度。 : 很多自然学科,实际应用不接受ml的一个重要原因就是,纯ml做出来的东西并没有寻求 : 到问题的本质。它只是作为帮助人类探索本质的一个工具而已。所以,相对于很多归根 : 结底探索自然本质的传统学科做法来说,显得肤浅了一些。 : 肯定马上会有人跳出来说,ml的数学背景和理论那么高深复杂,怎么可能“肤浅”呢? : 这里的肤浅是指对问题本质的探索。而ml背后所谓一大堆理论,都是ml专家自己搞出来 : 的一套东西。他们并没有去论证问题的本质是否遵循那套理论的。而论证问题本质是否 : 遵循一套理论,比知道这套理论之后如何创建模型去解决,更加重要百倍。 : 我以前举个地震预报的例子来说明为什么单纯做ml的人很肤浅。做ml的人的做法,就是 : Google一堆历史数据,然后在matlab上写点script,做做feature selection,把各种
|
|
|
z**l 发帖数: 292 | 31 你描述的是一种应用ML解决实际问题的方法,但是更多情况下更重要的是ML算法跟人在
实际应用中的互动。比如你说的收集历史数据,下一步是feature discovery or
extraction,找出所有可能相关的feature,这一步其实是把人的知识放进modeling的
过程。然后做feature selection,然后modeling。根据model的结果,找出不work的可
能原因,比如是某些data instance上model效果很差,那么就要人为(最好有domain
expert)找出原因。多半是有些重要的feature没有发现,然后人也可以在model的提示
下更新自己的知识。这种人与model交互提高的过程才是ml算法在实际中最常见的应用
模式。至于你说的找到原因,比起背着设备直接去找,如果有model提出方向,找原因
的过程会更加有针对性,更加有效率。
【在 r********3 的大作中提到】 : ml只是一个工具而已,不应该夸张其作用和重要程度。 : 很多自然学科,实际应用不接受ml的一个重要原因就是,纯ml做出来的东西并没有寻求 : 到问题的本质。它只是作为帮助人类探索本质的一个工具而已。所以,相对于很多归根 : 结底探索自然本质的传统学科做法来说,显得肤浅了一些。 : 肯定马上会有人跳出来说,ml的数学背景和理论那么高深复杂,怎么可能“肤浅”呢? : 这里的肤浅是指对问题本质的探索。而ml背后所谓一大堆理论,都是ml专家自己搞出来 : 的一套东西。他们并没有去论证问题的本质是否遵循那套理论的。而论证问题本质是否 : 遵循一套理论,比知道这套理论之后如何创建模型去解决,更加重要百倍。 : 我以前举个地震预报的例子来说明为什么单纯做ml的人很肤浅。做ml的人的做法,就是 : Google一堆历史数据,然后在matlab上写点script,做做feature selection,把各种
|
m**********n 发帖数: 285 | 32 赞一个。很多人不理解 human learning + machine learning。
另外多说一个不相关的。不要只考虑分类精度。不是非得彻底solve问题才能用。在不少应用中,能用machine learning的方法降低当前的损失就意味着赚钱。
【在 z**l 的大作中提到】 : 你描述的是一种应用ML解决实际问题的方法,但是更多情况下更重要的是ML算法跟人在 : 实际应用中的互动。比如你说的收集历史数据,下一步是feature discovery or : extraction,找出所有可能相关的feature,这一步其实是把人的知识放进modeling的 : 过程。然后做feature selection,然后modeling。根据model的结果,找出不work的可 : 能原因,比如是某些data instance上model效果很差,那么就要人为(最好有domain : expert)找出原因。多半是有些重要的feature没有发现,然后人也可以在model的提示 : 下更新自己的知识。这种人与model交互提高的过程才是ml算法在实际中最常见的应用 : 模式。至于你说的找到原因,比起背着设备直接去找,如果有model提出方向,找原因 : 的过程会更加有针对性,更加有效率。
|
r********3 发帖数: 2998 | 33 我从来没有说ML没有用。我只是说大家不要夸大ML的实际用处。
【在 z**l 的大作中提到】 : 你描述的是一种应用ML解决实际问题的方法,但是更多情况下更重要的是ML算法跟人在 : 实际应用中的互动。比如你说的收集历史数据,下一步是feature discovery or : extraction,找出所有可能相关的feature,这一步其实是把人的知识放进modeling的 : 过程。然后做feature selection,然后modeling。根据model的结果,找出不work的可 : 能原因,比如是某些data instance上model效果很差,那么就要人为(最好有domain : expert)找出原因。多半是有些重要的feature没有发现,然后人也可以在model的提示 : 下更新自己的知识。这种人与model交互提高的过程才是ml算法在实际中最常见的应用 : 模式。至于你说的找到原因,比起背着设备直接去找,如果有model提出方向,找原因 : 的过程会更加有针对性,更加有效率。
|