p******g 发帖数: 1 | 1 cnn dnn这玩意儿像黑盒子,靠大量计算解很大的参数空间。参数和数据卷积。还不知
道原因。 和人的智能没有半毛钱关系。还需要精细调参数。
本千老说的在行吗? |
n********t 发帖数: 21 | 2 結果還是不生物強點
【在 p******g 的大作中提到】 : cnn dnn这玩意儿像黑盒子,靠大量计算解很大的参数空间。参数和数据卷积。还不知 : 道原因。 和人的智能没有半毛钱关系。还需要精细调参数。 : 本千老说的在行吗?
|
p******g 发帖数: 1 | 3 数据科学家都是盲人摸象吧。不懂黑盒子,但瞎jb调。
: 結果還是不生物強點
【在 n********t 的大作中提到】 : 結果還是不生物強點
|
l******t 发帖数: 55733 | |
l******r 发帖数: 1 | 5 hyperparameter现在有啥好的算法去调?
我所知道的就是GridSearch(也就是格点查找,有点类似穷举了,brute force的方法)
trainable parameter是可以用backprop,这个比较solid。
【在 l******t 的大作中提到】 : 当然不是瞎几把调
|
l******r 发帖数: 1 | 6 deep learning其实就是 maximum likely hood estimation
已知一组observation (training)
然后去估计参数,什么样的参数,让出现这组observation的概率最大。数学基础非常
solid,不容怀疑。
当然和人类思维没半毛钱关系。
应用很广,不止是图像识别,自然语言处理。最近的Generative Adverserial Network
(GAN)就非常牛逼,可以以假乱真了。还有我见过有人用deep neural nets解简单的
Schrodinger equation。
【在 p******g 的大作中提到】 : cnn dnn这玩意儿像黑盒子,靠大量计算解很大的参数空间。参数和数据卷积。还不知 : 道原因。 和人的智能没有半毛钱关系。还需要精细调参数。 : 本千老说的在行吗?
|
d*****u 发帖数: 17243 | 7 严格说也不完全是MLE,有的时候也人为添加prior或者bias
比如生成对话的时候,一般的MLE模型会导致单调重复的输出(当然也可以认为是没有
充分掌握MLE的使用条件)
有的就在里面加一些hidden variable,比如规定它们是Gaussian,参数训练得出。每
次从里面采样一个输出到下一层。
Network
【在 l******r 的大作中提到】 : deep learning其实就是 maximum likely hood estimation : 已知一组observation (training) : 然后去估计参数,什么样的参数,让出现这组observation的概率最大。数学基础非常 : solid,不容怀疑。 : 当然和人类思维没半毛钱关系。 : 应用很广,不止是图像识别,自然语言处理。最近的Generative Adverserial Network : (GAN)就非常牛逼,可以以假乱真了。还有我见过有人用deep neural nets解简单的 : Schrodinger equation。
|