l****y 发帖数: 4773 | 1 俺不懂什么machinelearning,这程序下棋是不是跟事先学习李师师棋谱有关?
换句话说来个黑箱挑战,让中日韩不同风格段位上至80岁老头下至冲段屁孩随机和阿狗
下,下完了才知道是谁,能不能打懵机器? |
d***e 发帖数: 3728 | 2 估计把所有棋谱都录入,每一步都在一堆定式里选择。棋手对战的话最好要有非常好的
全局观,不让自己的意图被判断出来 |
l****y 发帖数: 4773 | 3 听过一段datamining课,sb老师纯粹卖弄统计概念,估计这玩意也是根据已有数据棋谱
来预测下一步。说到底和国际象棋人机对战有本质区别,这阿发狗是人训练出来的专咬
翻毛和小李的狗 |
i***h 发帖数: 12655 | 4 你真是给术版丢人
【在 l****y 的大作中提到】 : 听过一段datamining课,sb老师纯粹卖弄统计概念,估计这玩意也是根据已有数据棋谱 : 来预测下一步。说到底和国际象棋人机对战有本质区别,这阿发狗是人训练出来的专咬 : 翻毛和小李的狗
|
l*******e 发帖数: 4009 | 5 我也是外行,但是据我所知阿发狗没有专门研究李师师的棋谱
阿发狗不是简单地依靠电脑的计算速度来穷举找出最优解,或者存储古今中外所有棋谱
来搜,他的关键是个模拟神经网络,有学习能力,有类似人的正负反馈,所以他玩什么
游戏玩几盘都能比世界最厉害的人玩得好 |
l*******e 发帖数: 4009 | 6 这么说跟以前的深蓝什么的也没啥本质区别,只是电脑计算能力进一步提高,我看网上
炒得沸沸扬扬,说的阿发狗多牛逼,尤其“学习能力”这词太吓人了 |
s***e 发帖数: 5242 | 7 深蓝只会下象棋,阿法狗稍微改改做什么都可以
【在 l*******e 的大作中提到】 : 这么说跟以前的深蓝什么的也没啥本质区别,只是电脑计算能力进一步提高,我看网上 : 炒得沸沸扬扬,说的阿发狗多牛逼,尤其“学习能力”这词太吓人了
|
g**a 发帖数: 2129 | 8 neuro network的基础应该是markov chain。棋类这种一步步来的最适合用这种方法来
获得最优解。对每一步概率通过learning dataset来进行优化就是学习过程。这个
supervised learning 具体怎么搞还得看看书。另外一个应用实例是DNA测序。DNA
alignment过程简直就像是专门为markov chain设计的应用。应该跟穷举没什么关系的
。穷举默认每个status独立,并且每种选择的概率一样。这只能算非常初级的markov
chain。 |
y*********n 发帖数: 190 | 9 这里就你说的最靠谱了
【在 g**a 的大作中提到】 : neuro network的基础应该是markov chain。棋类这种一步步来的最适合用这种方法来 : 获得最优解。对每一步概率通过learning dataset来进行优化就是学习过程。这个 : supervised learning 具体怎么搞还得看看书。另外一个应用实例是DNA测序。DNA : alignment过程简直就像是专门为markov chain设计的应用。应该跟穷举没什么关系的 : 。穷举默认每个status独立,并且每种选择的概率一样。这只能算非常初级的markov : chain。
|
c****t 发帖数: 5452 | 10 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
【在 y*********n 的大作中提到】 : 这里就你说的最靠谱了
|
|
|
y*********n 发帖数: 190 | 11 你写的那段
连wiki都差的远
我敢肯定
你连wiki都看不懂
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
g**a 发帖数: 2129 | 12 你说的neural network是什么样的?跟下面这张图不同的地方在哪?我是说原理上,不
要扯太远,OK?
net
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
g**a 发帖数: 2129 | 13 那这个是基于什么的?
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
y*********n 发帖数: 190 | 14 他看的连英文版都不是
肯定是汉语版的
估计是那个chinese network那个杂牌科技网站
他描述出来的
也就国内蓝翔技校里的大专生
发的帖子
的水准
lol
至于pooling layer, convolutional layer,
对他都跟登月那么深奥
你问问他啥是bipartite graph和max matching
保证一问一个蒙
【在 g**a 的大作中提到】 : 你说的neural network是什么样的?跟下面这张图不同的地方在哪?我是说原理上,不 : 要扯太远,OK? : : net
|
g**a 发帖数: 2129 | 15 大哥,你觉得你说这段话里面,有任何可以被计算机理解的东西吗?我不管你说的
neural network到底是什么样的,你要用它实现,首先需要一个数学模型啊。你到底知
道MM和HMM是什么东西不?
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
y*********n 发帖数: 190 | 16 bbs在线2万人
懂DBNCNN的
最多一只手
所以也不算丢人
属于正常绝大多数
这个内容
对学术背景要求极高
条件很难满足
跟CS coding太不一样
学一门java
打遍天下
【在 i***h 的大作中提到】 : 你真是给术版丢人
|
g**a 发帖数: 2129 | 17 原来你是在扣字眼。那按你的意思,nn的每个节点都要定义一个概率函数?
nn
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
y*********n 发帖数: 190 | 18 不是数学模型
太泛泛了
这里专指Stochastic Modeling
gaea说的也比较general
专指Hidden Markov Models
nn
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
y*********n 发帖数: 190 | 19 你前面讲的HMM的内容
都不是一般的错
而是非常的错
相当的错
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
y*********n 发帖数: 190 | 20 你还是回food版
继续煮饭吧
厨房虽然你也未必能做好
但起码让你头发少白了几根
我是本着对你身体健康的角度
为你着想
以后少看这些距离自己太远的
又追不上的
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
|
|
g**a 发帖数: 2129 | 21 好吧,你讲得太泛了。我就问你三个问题:
1. 你说的这些节点分层吗?
2. 各层之间的节点是什么关系?more specifically, n和n+1层是什么关系?n和n+2层
呢?
3. 同一层的节点之间是什么关系?
hmm
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
g**a 发帖数: 2129 | 22 你这样定义的nn不可能有数学解。再等几十年看看能不能有个天才再提出个模型来。
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
y*********n 发帖数: 190 | 23 他没有graph theory的底子
这些问题比如 k-coloring
都和天书一样
【在 g**a 的大作中提到】 : 好吧,你讲得太泛了。我就问你三个问题: : 1. 你说的这些节点分层吗? : 2. 各层之间的节点是什么关系?more specifically, n和n+1层是什么关系?n和n+2层 : 呢? : 3. 同一层的节点之间是什么关系? : : hmm
|
t***u 发帖数: 20182 | |
c****t 发帖数: 5452 | 25 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可
以讲一下先
【在 y*********n 的大作中提到】 : 他没有graph theory的底子 : 这些问题比如 k-coloring : 都和天书一样
|
g**a 发帖数: 2129 | 26 你用一个确定的函数来定义节点关系,那为什么还要分节点呢?这种特殊情况其实也可
以归类到MM里面,所以我一直在问你,你到底知道MM的一些基本假设不?
【在 c****t 的大作中提到】 : 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可 : 以讲一下先
|
y*********n 发帖数: 190 | 27 你总是提文献
好吧
那你回答一下
你最近看的文献
是哪一年的?
就给我年数字即可
【在 c****t 的大作中提到】 : 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可 : 以讲一下先
|
y*********n 发帖数: 190 | 28 你只要给我文献的year
我就能断定你
给吧
【在 c****t 的大作中提到】 : 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可 : 以讲一下先
|
y*********n 发帖数: 190 | 29 谁吃饱了撑着
背诵一堆和就业市场无关的数学名词啊
你清醒清醒,好吗
gradient descent
heat equation
wave equation
Euler method
Newton method
convex optimization
eigenvalue problem
normal equations
least square
这些都是跟deep learning有直接关系的知识体系
转行学CS coding
只为找工作的人
99.99%是不会知道这些
是什么东东
【在 c****t 的大作中提到】 : 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可 : 以讲一下先
|
c****t 发帖数: 5452 | 30 你要知道nn的最初建立是有神经科学/仿生意义的,你觉得这些和hmm的关系是什么?
【在 g**a 的大作中提到】 : 你用一个确定的函数来定义节点关系,那为什么还要分节点呢?这种特殊情况其实也可 : 以归类到MM里面,所以我一直在问你,你到底知道MM的一些基本假设不?
|
|
|
c****t 发帖数: 5452 | 31 好吧,这些名词我不但不懂,见都没见过,呵呵,你满意了,你给解释解释呗,既然我
都不懂,你也不用费心了,还是讲讲我说的nn和hmm关系有什么不对,应该是怎么
样的?
【在 y*********n 的大作中提到】 : 谁吃饱了撑着 : 背诵一堆和就业市场无关的数学名词啊 : 你清醒清醒,好吗 : gradient descent : heat equation : wave equation : Euler method : Newton method : convex optimization : eigenvalue problem
|
y*********n 发帖数: 190 | 32 瞧你这点出息
狗屁不懂
还自以为是
基本概念都没见过
上来就指手画脚
这里有我前面提及的部分相关知识背景
http://feed.mtome.com/Publications/CiML/CiML-v7-book.pdf#page=2
Unsupervised and Transfer Learning
Challenges in Machine Learning, Volume 7
Isabelle Guyon, Gideon Dror, Vincent Lemaire, Graham Taylor, and Danie
【在 c****t 的大作中提到】 : 好吧,这些名词我不但不懂,见都没见过,呵呵,你满意了,你给解释解释呗,既然我 : 都不懂,你也不用费心了,还是讲讲我说的nn和hmm关系有什么不对,应该是怎么 : 样的?
|
c****t 发帖数: 5452 | 33 赫赫,确实不太懂狗屁,你还挺实诚的别人说什么你都信,谢谢你的连接,我审稿的时
候为了不丢人基本知识还是得背的滚瓜烂熟的,当我前面都说得费话,我去删了,继续
等你自己说出来nn为什么是基于hmm的
【在 y*********n 的大作中提到】 : 瞧你这点出息 : 狗屁不懂 : 还自以为是 : 基本概念都没见过 : 上来就指手画脚 : 这里有我前面提及的部分相关知识背景 : http://feed.mtome.com/Publications/CiML/CiML-v7-book.pdf#page=2 : Unsupervised and Transfer Learning : Challenges in Machine Learning, Volume 7 : Isabelle Guyon, Gideon Dror, Vincent Lemaire, Graham Taylor, and Danie
|
y*********n 发帖数: 190 | 34 狗屁审稿
你审的是国内蓝翔大专
VPN到美国网站剽窃来的
翻译都没翻对的
稿子吧
这篇文献的作者是蒙特利尔大学的
Université de Montréal数学系 和哈佛数学系,多伦多数学系,waterloo数学系齐
名的
都是拿turing的最佳候选学校, 同时还是医学诺贝尔的获奖学校
【在 c****t 的大作中提到】 : 赫赫,确实不太懂狗屁,你还挺实诚的别人说什么你都信,谢谢你的连接,我审稿的时 : 候为了不丢人基本知识还是得背的滚瓜烂熟的,当我前面都说得费话,我去删了,继续 : 等你自己说出来nn为什么是基于hmm的
|
c****t 发帖数: 5452 | 35 跪了
【在 y*********n 的大作中提到】 : 狗屁审稿 : 你审的是国内蓝翔大专 : VPN到美国网站剽窃来的 : 翻译都没翻对的 : 稿子吧 : 这篇文献的作者是蒙特利尔大学的 : Université de Montréal数学系 和哈佛数学系,多伦多数学系,waterloo数学系齐 : 名的 : 都是拿turing的最佳候选学校, 同时还是医学诺贝尔的获奖学校
|
l****y 发帖数: 4773 | 36 俺不懂什么machinelearning,这程序下棋是不是跟事先学习李师师棋谱有关?
换句话说来个黑箱挑战,让中日韩不同风格段位上至80岁老头下至冲段屁孩随机和阿狗
下,下完了才知道是谁,能不能打懵机器? |
d***e 发帖数: 3728 | 37 估计把所有棋谱都录入,每一步都在一堆定式里选择。棋手对战的话最好要有非常好的
全局观,不让自己的意图被判断出来 |
l****y 发帖数: 4773 | 38 听过一段datamining课,sb老师纯粹卖弄统计概念,估计这玩意也是根据已有数据棋谱
来预测下一步。说到底和国际象棋人机对战有本质区别,这阿发狗是人训练出来的专咬
翻毛和小李的狗 |
i***h 发帖数: 12655 | 39 你真是给术版丢人
【在 l****y 的大作中提到】 : 听过一段datamining课,sb老师纯粹卖弄统计概念,估计这玩意也是根据已有数据棋谱 : 来预测下一步。说到底和国际象棋人机对战有本质区别,这阿发狗是人训练出来的专咬 : 翻毛和小李的狗
|
l*******e 发帖数: 4009 | 40 我也是外行,但是据我所知阿发狗没有专门研究李师师的棋谱
阿发狗不是简单地依靠电脑的计算速度来穷举找出最优解,或者存储古今中外所有棋谱
来搜,他的关键是个模拟神经网络,有学习能力,有类似人的正负反馈,所以他玩什么
游戏玩几盘都能比世界最厉害的人玩得好 |
|
|
l*******e 发帖数: 4009 | 41 这么说跟以前的深蓝什么的也没啥本质区别,只是电脑计算能力进一步提高,我看网上
炒得沸沸扬扬,说的阿发狗多牛逼,尤其“学习能力”这词太吓人了
【在 c****t 的大作中提到】 : 跪了
|
s***e 发帖数: 5242 | 42 深蓝只会下象棋,阿法狗稍微改改做什么都可以
【在 l*******e 的大作中提到】 : 这么说跟以前的深蓝什么的也没啥本质区别,只是电脑计算能力进一步提高,我看网上 : 炒得沸沸扬扬,说的阿发狗多牛逼,尤其“学习能力”这词太吓人了
|
g**a 发帖数: 2129 | 43 neuro network的基础应该是markov chain。棋类这种一步步来的最适合用这种方法来
获得最优解。对每一步概率通过learning dataset来进行优化就是学习过程。这个
supervised learning 具体怎么搞还得看看书。另外一个应用实例是DNA测序。DNA
alignment过程简直就像是专门为markov chain设计的应用。应该跟穷举没什么关系的
。穷举默认每个status独立,并且每种选择的概率一样。这只能算非常初级的markov
chain。 |
y*********n 发帖数: 190 | 44 这里就你说的最靠谱了
【在 g**a 的大作中提到】 : neuro network的基础应该是markov chain。棋类这种一步步来的最适合用这种方法来 : 获得最优解。对每一步概率通过learning dataset来进行优化就是学习过程。这个 : supervised learning 具体怎么搞还得看看书。另外一个应用实例是DNA测序。DNA : alignment过程简直就像是专门为markov chain设计的应用。应该跟穷举没什么关系的 : 。穷举默认每个status独立,并且每种选择的概率一样。这只能算非常初级的markov : chain。
|
c****t 发帖数: 5452 | 45 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
【在 y*********n 的大作中提到】 : 这里就你说的最靠谱了
|
y*********n 发帖数: 190 | 46 你写的那段
连wiki都差的远
我敢肯定
你连wiki都看不懂
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
g**a 发帖数: 2129 | 47 你说的neural network是什么样的?跟下面这张图不同的地方在哪?我是说原理上,不
要扯太远,OK?
net
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
g**a 发帖数: 2129 | 48 那这个是基于什么的?
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
y*********n 发帖数: 190 | 49 他看的连英文版都不是
肯定是汉语版的
估计是那个chinese network那个杂牌科技网站
他描述出来的
也就国内蓝翔技校里的大专生
发的帖子
的水准
lol
至于pooling layer, convolutional layer,
对他都跟登月那么深奥
你问问他啥是bipartite graph和max matching
保证一问一个蒙
【在 g**a 的大作中提到】 : 你说的neural network是什么样的?跟下面这张图不同的地方在哪?我是说原理上,不 : 要扯太远,OK? : : net
|
g**a 发帖数: 2129 | 50 大哥,你觉得你说这段话里面,有任何可以被计算机理解的东西吗?我不管你说的
neural network到底是什么样的,你要用它实现,首先需要一个数学模型啊。你到底知
道MM和HMM是什么东西不?
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
|
|
y*********n 发帖数: 190 | 51 bbs在线2万人
懂DBNCNN的
最多一只手
所以也不算丢人
属于正常绝大多数
这个内容
对学术背景要求极高
条件很难满足
跟CS coding太不一样
学一门java
打遍天下
【在 i***h 的大作中提到】 : 你真是给术版丢人
|
g**a 发帖数: 2129 | 52 原来你是在扣字眼。那按你的意思,nn的每个节点都要定义一个概率函数?
nn
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
y*********n 发帖数: 190 | 53 不是数学模型
太泛泛了
这里专指Stochastic Modeling
gaea说的也比较general
专指Hidden Markov Models
nn
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
y*********n 发帖数: 190 | 54 你前面讲的HMM的内容
都不是一般的错
而是非常的错
相当的错
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
y*********n 发帖数: 190 | 55 你还是回food版
继续煮饭吧
厨房虽然你也未必能做好
但起码让你头发少白了几根
我是本着对你身体健康的角度
为你着想
以后少看这些距离自己太远的
又追不上的
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
g**a 发帖数: 2129 | 56 好吧,你讲得太泛了。我就问你三个问题:
1. 你说的这些节点分层吗?
2. 各层之间的节点是什么关系?more specifically, n和n+1层是什么关系?n和n+2层
呢?
3. 同一层的节点之间是什么关系?
hmm
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
g**a 发帖数: 2129 | 57 你这样定义的nn不可能有数学解。再等几十年看看能不能有个天才再提出个模型来。
【在 c****t 的大作中提到】 : 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
|
y*********n 发帖数: 190 | 58 他没有graph theory的底子
这些问题比如 k-coloring
都和天书一样
【在 g**a 的大作中提到】 : 好吧,你讲得太泛了。我就问你三个问题: : 1. 你说的这些节点分层吗? : 2. 各层之间的节点是什么关系?more specifically, n和n+1层是什么关系?n和n+2层 : 呢? : 3. 同一层的节点之间是什么关系? : : hmm
|
t***u 发帖数: 20182 | |
c****t 发帖数: 5452 | 60 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可
以讲一下先
【在 y*********n 的大作中提到】 : 他没有graph theory的底子 : 这些问题比如 k-coloring : 都和天书一样
|
|
|
g**a 发帖数: 2129 | 61 你用一个确定的函数来定义节点关系,那为什么还要分节点呢?这种特殊情况其实也可
以归类到MM里面,所以我一直在问你,你到底知道MM的一些基本假设不?
【在 c****t 的大作中提到】 : 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可 : 以讲一下先
|
y*********n 发帖数: 190 | 62 你总是提文献
好吧
那你回答一下
你最近看的文献
是哪一年的?
就给我年数字即可
【在 c****t 的大作中提到】 : 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可 : 以讲一下先
|
y*********n 发帖数: 190 | 63 你只要给我文献的year
我就能断定你
给吧
【在 c****t 的大作中提到】 : 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可 : 以讲一下先
|
y*********n 发帖数: 190 | 64 谁吃饱了撑着
背诵一堆和就业市场无关的数学名词啊
你清醒清醒,好吗
gradient descent
heat equation
wave equation
Euler method
Newton method
convex optimization
eigenvalue problem
normal equations
least square
这些都是跟deep learning有直接关系的知识体系
转行学CS coding
只为找工作的人
99.99%是不会知道这些
是什么东东
【在 c****t 的大作中提到】 : 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可 : 以讲一下先
|
c****t 发帖数: 5452 | 65 你要知道nn的最初建立是有神经科学/仿生意义的,你觉得这些和hmm的关系是什么?
【在 g**a 的大作中提到】 : 你用一个确定的函数来定义节点关系,那为什么还要分节点呢?这种特殊情况其实也可 : 以归类到MM里面,所以我一直在问你,你到底知道MM的一些基本假设不?
|
c****t 发帖数: 5452 | 66 好吧,这些名词我不但不懂,见都没见过,呵呵,你满意了,你给解释解释呗,既然我
都不懂,你也不用费心了,还是讲讲我说的nn和hmm关系有什么不对,应该是怎么
样的?
【在 y*********n 的大作中提到】 : 谁吃饱了撑着 : 背诵一堆和就业市场无关的数学名词啊 : 你清醒清醒,好吗 : gradient descent : heat equation : wave equation : Euler method : Newton method : convex optimization : eigenvalue problem
|
y*********n 发帖数: 190 | 67 瞧你这点出息
狗屁不懂
还自以为是
基本概念都没见过
上来就指手画脚
这里有我前面提及的部分相关知识背景
http://feed.mtome.com/Publications/CiML/CiML-v7-book.pdf#page=2
Unsupervised and Transfer Learning
Challenges in Machine Learning, Volume 7
Isabelle Guyon, Gideon Dror, Vincent Lemaire, Graham Taylor, and Danie
【在 c****t 的大作中提到】 : 好吧,这些名词我不但不懂,见都没见过,呵呵,你满意了,你给解释解释呗,既然我 : 都不懂,你也不用费心了,还是讲讲我说的nn和hmm关系有什么不对,应该是怎么 : 样的?
|
c****t 发帖数: 5452 | 68 赫赫,确实不太懂狗屁,你还挺实诚的别人说什么你都信,谢谢你的连接,我审稿的时
候为了不丢人基本知识还是得背的滚瓜烂熟的,当我前面都说得费话,我去删了,继续
等你自己说出来nn为什么是基于hmm的
【在 y*********n 的大作中提到】 : 瞧你这点出息 : 狗屁不懂 : 还自以为是 : 基本概念都没见过 : 上来就指手画脚 : 这里有我前面提及的部分相关知识背景 : http://feed.mtome.com/Publications/CiML/CiML-v7-book.pdf#page=2 : Unsupervised and Transfer Learning : Challenges in Machine Learning, Volume 7 : Isabelle Guyon, Gideon Dror, Vincent Lemaire, Graham Taylor, and Danie
|
y*********n 发帖数: 190 | 69 狗屁审稿
你审的是国内蓝翔大专
VPN到美国网站剽窃来的
翻译都没翻对的
稿子吧
这篇文献的作者是蒙特利尔大学的
Université de Montréal数学系 和哈佛数学系,多伦多数学系,waterloo数学系齐
名的
都是拿turing的最佳候选学校, 同时还是医学诺贝尔的获奖学校
【在 c****t 的大作中提到】 : 赫赫,确实不太懂狗屁,你还挺实诚的别人说什么你都信,谢谢你的连接,我审稿的时 : 候为了不丢人基本知识还是得背的滚瓜烂熟的,当我前面都说得费话,我去删了,继续 : 等你自己说出来nn为什么是基于hmm的
|
c****t 发帖数: 5452 | 70 跪了
【在 y*********n 的大作中提到】 : 狗屁审稿 : 你审的是国内蓝翔大专 : VPN到美国网站剽窃来的 : 翻译都没翻对的 : 稿子吧 : 这篇文献的作者是蒙特利尔大学的 : Université de Montréal数学系 和哈佛数学系,多伦多数学系,waterloo数学系齐 : 名的 : 都是拿turing的最佳候选学校, 同时还是医学诺贝尔的获奖学校
|
|
|
a**n 发帖数: 27 | 71 嘻嘻,我也第一次听说NN是基于HMM的,长见识了。
我回去就把蓝翔技校的书都烧了
就是不知道Hinton爷爷是喜欢DBN呢还是喜欢CNN
Hinton爷爷搞了几十年的NN,原来是每天CNN的广播听出来的,嘻嘻 |