h********3 发帖数: 2075 | 1 如果说Hastie的《Elements of Statistical Learning》都难懂,那估计你是没法看
Bishop的PRML。相对于Bishop的PRML,《Elements of Statistical Learning》通俗易
懂得多。Hastie和Friedman很在意自己的书和paper是否容易被人读懂,所以写作都很
不错,包括他们的paper。 |
|
|
|
|
|
d********m 发帖数: 3662 | 6 primordial ruse of making love |
|
v***o 发帖数: 1554 | 7 Ai的,就是个递归/迭代算法
必须有大数据支持Ml是名副其实
但绝对不是啊AI |
|
|
|
w***g 发帖数: 5958 | 9 我没看过Hastie那本, 但是看了眼目录, 感觉比Bishop那本更好. Hastie基本上每一章
讲的是Machine Learning的一类方法, 覆盖面很全, 篇幅分配也比较均衡. Bishop的书
其实应该叫"Bayesian Methods for PRML", 把所有的方法都纳入了贝叶斯统计的体系.
虽然很有系统性, 各种方法也都能覆盖到, 但是对于一些实用性较强的方法如SVM,
Bishop用了大量的篇幅论述这些方法的实用性不那么强的贝叶斯版本, 而忽略了这些方
法非贝叶斯的一些扩展, 感觉比较有失偏颇.
另外, Hastie和Bishop两本书貌似都没有涉及VC Theory和Generalization Error的内
容, 作为教材的话感觉缺了一大块, 得补一些Vapnik和Schapire的书中的章节. |
|
|
w***g 发帖数: 5958 | 11 我没看过Hastie那本, 但是看了眼目录, 感觉比Bishop那本更好. Hastie基本上每一章
讲的是Machine Learning的一类方法, 覆盖面很全, 篇幅分配也比较均衡. Bishop的书
其实应该叫"Bayesian Methods for PRML", 把所有的方法都纳入了贝叶斯统计的体系.
虽然很有系统性, 各种方法也都能覆盖到, 但是对于一些实用性较强的方法如SVM,
Bishop用了大量的篇幅论述这些方法的实用性不那么强的贝叶斯版本, 而忽略了这些方
法非贝叶斯的一些扩展, 感觉比较有失偏颇.
另外, Hastie和Bishop两本书貌似都没有涉及VC Theory和Generalization Error的内
容, 作为教材的话感觉缺了一大块, 得补一些Vapnik和Schapire的书中的章节. |
|
|
t********e 发帖数: 344 | 13 什么叫PRML啊? pattern recognition & machine learning? |
|
s*********n 发帖数: 191 | 14 奥,information theory不熟....囧....哈哈
不过高斯在ML里面还算是个知识点吧,可能不是那么重点,pr里面强调更多一些。
PRML里面前面有gaussian mixture model的章节,还是需要掌握的,比如density计算。
pattern classification这本书里面倒是更加重视一点了。
但平时也是直接调matlab函数算的,突然面试过程中要手算,还是蛮突兀的....没想到
面试官出这个怪招.... |
|
|
m*******e 发帖数: 115 | 16 Semiconductor company in Santa Clara, CA., or Denver area, Colorado.
Signal processing architect for base band communication channels. Permanent
position.
Required Skills:
PhD in EE + 5 years directly related work experience
Strong signal processing knowledge for communication channels, especially
base band.
PRML, Adaptive filtering, control loops, timing/frequency synchronization,
modulation coding, Reed-Solomon coding, detection/estimation, fixed point
arithmetic
Desired skills:
Excellent C++ ... 阅读全帖 |
|
j****a 发帖数: 1277 | 17 同意.据说mitchell那本好点?没看过
PRML要花点时间才能吃透 |
|
p*********g 发帖数: 226 | 18 > 50年后的Machine Learning教材里,SVM还会是重头戏
你还真别说,现在哪本教材里 SVM 是重头戏?即使是 Alex Smola 现在在写的教材也
不是(他和 Scholkopf 那本当然不算教材),Robert Schapire, Kevin Murphy 在写
的更不是了。至于 Elements of machine learning, PRML, Tom Mitchel 的就更不提
了。
真的等你写书时,发现 SVM 也就是群星中的一颗。现在火的原因 wdong 讲得差不多了。 |
|
d******e 发帖数: 7844 | 19 说“重头戏”是有些过头了,但你看ESL第12章,SVM独立占据了一个章节,PRML的第7
章也算是围着SVM说。
就好比Neural Network,过了几十年了,哪本书里没有再过20年,也还会在教科书里
。你找一个单独有PAC章节的教材来看看?
了。 |
|
p*********g 发帖数: 226 | 20 ESL 共18章,PRML 共14章,SVM 占半章。
> 就好比Neural Network,过了几十年了,哪本书里没有
我想问,哪本书里有?
7
书里 |
|
|
i*********8 发帖数: 3229 | 22 你这档次太低了,属于对科普很感兴趣的民科
Elements of ML, PRML那都是写人家的东西,没成系统的原创
这两本书加起来citation才4K还不到VPKNIK一本书的零头。
了。 |
|
N**D 发帖数: 10322 | 23 Alex 的large margin, 本质就是SVM,
kevin murphy, 是谁?
Elements of machine learning, 错误百出
PRML重点是graph model, Bayes method, 根本是和SLT对着干的,当然不会说SVM好了
了。 |
|
d******e 发帖数: 7844 | 24 PRML by Bishop or ESL By Hastie
They are both free and can be found over internet |
|
发帖数: 1 | 25 多谢大家的comments!
我其实也是尝试过很多东西了。为了家里LD的机器学习考试,也是被迫把PRML都看了。
但现在没时间搞那么多理论了;刷题leetcode是王道,而且也不是那么简单的!要赶紧
狂刷!
边刷边学习呗 |
|
发帖数: 1 | 26 多谢大家的comments!
我其实也是尝试过很多东西了。为了家里LD的机器学习考试,也是被迫把PRML都看了。
但现在没时间搞那么多理论了;刷题leetcode是王道,而且也不是那么简单的!要赶紧
狂刷!
边刷边学习呗 |
|
发帖数: 1 | 27 小弟我从生物信息phd想转到data science
自己做过的有NGS-genomics之类的研究
也做过基于clinical feature 用ML进行phenotype prediction的研究
熟悉linux/hpcc,R,尤其是python(Numpy, Scripy, Matplotlib, Pandas, Scikit-
learn)这一套
学习了bishop的PRML,当然也补课了multi calculus,和线性代数
也刷过一些kaggle
刷kaggle和自己的phenotype prediction的套路都是:
feature engineering, data cleaning, machine learning data training, test
prediction, data visulization
请问掌握这些我算是入门了吗?
如果入门了的话,如何进阶呢?
是继续加深我的machine learning/数学的基础知识,以及加强python coding能力 (
我的自学当然不能跟科班比)
还是继续学习新的东西,比如mapreduce,Hado... 阅读全帖 |
|
i******t 发帖数: 22541 | 28 1 PRML
2 Machine Learning_ A Probabilistic Perspective
谢谢 |
|
N******n 发帖数: 3003 | 29 同意,太简单了。
还是建议看PRML书。 看个2遍,题目看一遍,ML就差不多了。 |
|
f*****e 发帖数: 2992 | 30 PRML neural networks那一章, mixture density networks,那个可真是优美。 |
|
|
d******e 发帖数: 7844 | 32 L1SVM的文章有很多。
http://www.stat.umn.edu/~xshen/paper/icmla.pdf
第3页的图应该能让你对L1 norm SVM和L2 norm SVM的区别有所了解。
L1 norm SVM是没有直接的kernel版本的,因为L1 norm的penalty是没办法在RKHS里甚
至都不容易解释,更不能简单实现的。
SVM在Large Sample Size上性能一样好啊,只不过他在Small Sample Size上的优势更
明显。如果sample size足够大KNN也一样很好,不过这种比较也没什么意义。
你如果真想了解SVM,随便找本Machine Learning的书,比如PRML或者ESL。比在BBS上
问有效多了 |
|
h****5 发帖数: 35 | 33 去年旁听的一门课用PRML做教材,这学期有门课用ESL做教材,感觉都是反复读教材的
同时,补数学基础知识(线性代数,概率统计)...... |
|
h********3 发帖数: 2075 | 34 Hastie那本书还算偏应用的,比较简单的了。Hastie的书对于Bayesian的方法没有怎么
介绍。真正学machine learning的话,得去看PRML。 |
|
C********e 发帖数: 492 | 35 如果按照697页C.19的形式 d(x^T * a) / d(x) = d(a^T * x) / d(x) = a的话,
第141页的公式3.13就有问题了。
求牛人指点。多谢! |
|
n*****g 发帖数: 365 | 36 这两个公式强调的不太一样。
第141页的公式3.13没有问题,注意这个公式最后的结果是个标量。697页C.19的结果是
矢量或者矩阵。 |
|
C********e 发帖数: 492 | 37 3.13也是一个vector吧
因为w, phi, phi^T都是vector,sum的第一项和第二项结果都是vector |
|
d*****r 发帖数: 41 | 38 感觉以一个Nx1的vector对一个scalar function 做gradient,结果应该是一个Nx1的
vector,没道理变成一个1xN的vector啊
3.13的那个transpose可能是不对啊,谁是大牛来说说 |
|
C********e 发帖数: 492 | 39 看这个书的很好多啊。。
不过不知道这么多Bayes的东西是否有用。 |
|
C********e 发帖数: 492 | 40 我看了一下wiki的介绍觉得明白了http://en.wikipedia.org/wiki/Matrix_calculus
简单结论就是书的附录写错了,应该等于a ^ T
矩阵求导有两种layout notation, numerator-layout notation和denominator-layout
notation.
书中正文用的都是numerator-layout notation,所以3.13中,lnP是scaler,w是
vector,一个scaler对vector (N
*1) 求导,结果确实是1*N的vector。 |
|
发帖数: 1 | 41 小弟我从生物信息phd想转到data science
自己做过的有NGS-genomics之类的研究
也做过基于clinical feature 用ML进行phenotype prediction的研究
熟悉linux/hpcc,R,尤其是python(Numpy, Scripy, Matplotlib, Pandas, Scikit-
learn)这一套
学习了bishop的PRML,当然也补课了multi calculus,和线性代数
也刷过一些kaggle
刷kaggle和自己的phenotype prediction的套路都是:
feature engineering, data cleaning, machine learning data training, test
prediction, data visulization
请问掌握这些我算是入门了吗?
如果入门了的话,如何进阶呢?
是继续加深我的machine learning/数学的基础知识,以及加强python coding能力 (
我的自学当然不能跟科班比)
还是继续学习新的东西,比如mapreduce,Hado... 阅读全帖 |
|