w***g 发帖数: 5958 | 1 用-v加载目录,留下一堆root:root的文件。现在的软件怎么都这么不负责任。 |
a9 发帖数: 21638 | 2 我用了一阵子docker,感觉跟脱裤子放屁有一拼
【在 w***g 的大作中提到】 : 用-v加载目录,留下一堆root:root的文件。现在的软件怎么都这么不负责任。
|
N*****m 发帖数: 42603 | 3 那是image写得不好
【在 w***g 的大作中提到】 : 用-v加载目录,留下一堆root:root的文件。现在的软件怎么都这么不负责任。
|
w***g 发帖数: 5958 | 4 是。不过都docker了,里面还建非root帐号, 那就真是脱裤子放屁了。
【在 N*****m 的大作中提到】 : 那是image写得不好
|
N*****m 发帖数: 42603 | 5 一般不用,但是有这种往主机上写的应用还是应该建一个
【在 w***g 的大作中提到】 : 是。不过都docker了,里面还建非root帐号, 那就真是脱裤子放屁了。
|
w***g 发帖数: 5958 | 6 docker这东西绝对是security hazard。基本上能run docker就相当于有root权限了。
【在 N*****m 的大作中提到】 : 一般不用,但是有这种往主机上写的应用还是应该建一个
|
N*****m 发帖数: 42603 | 7 是的,所以rkt越来越流行
【在 w***g 的大作中提到】 : docker这东西绝对是security hazard。基本上能run docker就相当于有root权限了。
|
d*******r 发帖数: 3299 | 8 那 coreos rocket VS docker 有戏?
【在 N*****m 的大作中提到】 : 是的,所以rkt越来越流行
|
c******n 发帖数: 16666 | 9 这玩意儿可以上production了不
那个open image format稳定了没 还是暂时先用docker image?
【在 N*****m 的大作中提到】 : 是的,所以rkt越来越流行
|
l*********s 发帖数: 5409 | 10 歪个楼,wdong比较下贝叶斯学习和深度学习? |
|
|
c*****e 发帖数: 3226 | 11 一个是传统的 ml, 一个是 nn, 有啥好比较的?
【在 l*********s 的大作中提到】 : 歪个楼,wdong比较下贝叶斯学习和深度学习?
|
w***g 发帖数: 5958 | 12 就我的理解,深度学习一般不太追求对问题的建模。
贝叶斯学习则比较注重对问题建模。贝叶斯方法和
函数式编程在有一点上非常像,就是极度追求
理论的完美性,当和现实世界的不完美性产生
冲突时,会把不完美的那部分排除在理论之外。
比如Haskel用IO monad包装整个现实世界,从而
实现形式上的纯函数式。贝叶斯方法则严重依赖
prior probability。至于prior probability
怎么选则不予讨论。而且prior distribution
的形式完全是由数学上的和谐性决定的,说不出
什么物理依据。比如multinomial分布的prior
是dirichilet分布,完全是由数学形式上的
可行性决定的,没啥道理可讲。因为有这些理论
上优美性的条条框框制约,所以这两个东西在
实战上总是输人一截成不了主流。这次神经网络
兴起之前最流行的graphical model就是贝叶斯
方法,图像分类的实战上一直干不过SVM。
本来这两个是独立的概念没法比,但因为都在
图像分类上有应用,所以勉为其难从效果上
比一下。希望专家路过指正。
【在 l*********s 的大作中提到】 : 歪个楼,wdong比较下贝叶斯学习和深度学习?
|
l*********s 发帖数: 5409 | 13 表面上神经网络非常通用,但是我感觉里面的机关比贝叶斯方法只多不少,先验分布的
选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函
数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型.
有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?
【在 w***g 的大作中提到】 : 就我的理解,深度学习一般不太追求对问题的建模。 : 贝叶斯学习则比较注重对问题建模。贝叶斯方法和 : 函数式编程在有一点上非常像,就是极度追求 : 理论的完美性,当和现实世界的不完美性产生 : 冲突时,会把不完美的那部分排除在理论之外。 : 比如Haskel用IO monad包装整个现实世界,从而 : 实现形式上的纯函数式。贝叶斯方法则严重依赖 : prior probability。至于prior probability : 怎么选则不予讨论。而且prior distribution : 的形式完全是由数学上的和谐性决定的,说不出
|
l*********s 发帖数: 5409 | 14 对我们来说,两个都要学吗?还是nn可以取代ml,学一个就行了?
【在 c*****e 的大作中提到】 : 一个是传统的 ml, 一个是 nn, 有啥好比较的?
|
b*******r 发帖数: 713 | 15 哈哈,我觉得wdong和littlebirds说的都很对。现在大环境应该是无闹入nn吧 |
N*****m 发帖数: 42603 | 16 狗也在推,k8s现在可支持rkt
docker那帮人不想让别人抢饭碗,所以其他人都另起炉灶
【在 d*******r 的大作中提到】 : 那 coreos rocket VS docker 有戏?
|
l*********s 发帖数: 5409 | 17 好吧 :-), 这流行变化的真快
【在 b*******r 的大作中提到】 : 哈哈,我觉得wdong和littlebirds说的都很对。现在大环境应该是无闹入nn吧
|
l*******m 发帖数: 1096 | 18 现在用DL做贝叶斯十分流行,只是老中概率教育不好,基本上是欧洲人做。
基本上就是两个DL networks左右互搏,避免了MCMC或是VI
.
【在 l*********s 的大作中提到】 : 表面上神经网络非常通用,但是我感觉里面的机关比贝叶斯方法只多不少,先验分布的 : 选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函 : 数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型. : 有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?
|
w***g 发帖数: 5958 | 19 你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
花在deep learning之前(图片数据库)和deep learning之后
(post processing, 搭服务, 做demo)上面。至于tensorflow/
caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
也破了。对于我来说,deep learning框架就是个black box plug-in。
等人家好的model release出来,管他是tensorflow, mxnet还是torch
我直接一套就行。
.
【在 l*********s 的大作中提到】 : 表面上神经网络非常通用,但是我感觉里面的机关比贝叶斯方法只多不少,先验分布的 : 选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函 : 数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型. : 有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?
|
l*********s 发帖数: 5409 | 20 明白了,谢谢!
【在 w***g 的大作中提到】 : 你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西, : 直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都 : 花在deep learning之前(图片数据库)和deep learning之后 : (post processing, 搭服务, 做demo)上面。至于tensorflow/ : caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题 : 也破了。对于我来说,deep learning框架就是个black box plug-in。 : 等人家好的model release出来,管他是tensorflow, mxnet还是torch : 我直接一套就行。 : : .
|
|
|
l*********s 发帖数: 5409 | 21 统计这行基本是中国人为主,烙印很少,和IT完全相反。
【在 l*******m 的大作中提到】 : 现在用DL做贝叶斯十分流行,只是老中概率教育不好,基本上是欧洲人做。 : 基本上就是两个DL networks左右互搏,避免了MCMC或是VI : : .
|
l*******m 发帖数: 1096 | 22 统计和概率是两回事
【在 l*********s 的大作中提到】 : 统计这行基本是中国人为主,烙印很少,和IT完全相反。
|
g****t 发帖数: 31659 | 23 这些分布就是因为现存的知识足够,所以用的人多吧。
跟软件blackbox类似。好用比正确更重要。好用的话,出问题就修一修,
加一些条件。不好用,那就无路走。
例如曼德勃罗60年代说股市的variance和更高阶矩不一定存在,
切比雪夫不等式,大数定律...都不一定适用。
所以正态分布为基础的经济学理论都不靠谱。
市场可能会有tail events。
他肯定是正确的。
但是现有的财务系统,从券商软件到交易系统,据我所知model主要还是从正态分布出
发进行修正。而不是往更难的数学那里走。尽管研究variance无穷大的分布,
可能从原理上来讲是更正确的道路。
【在 w***g 的大作中提到】 : 就我的理解,深度学习一般不太追求对问题的建模。 : 贝叶斯学习则比较注重对问题建模。贝叶斯方法和 : 函数式编程在有一点上非常像,就是极度追求 : 理论的完美性,当和现实世界的不完美性产生 : 冲突时,会把不完美的那部分排除在理论之外。 : 比如Haskel用IO monad包装整个现实世界,从而 : 实现形式上的纯函数式。贝叶斯方法则严重依赖 : prior probability。至于prior probability : 怎么选则不予讨论。而且prior distribution : 的形式完全是由数学上的和谐性决定的,说不出
|
s********k 发帖数: 6180 | 24 LDA不就是研究long tail的工具?
【在 g****t 的大作中提到】 : 这些分布就是因为现存的知识足够,所以用的人多吧。 : 跟软件blackbox类似。好用比正确更重要。好用的话,出问题就修一修, : 加一些条件。不好用,那就无路走。 : 例如曼德勃罗60年代说股市的variance和更高阶矩不一定存在, : 切比雪夫不等式,大数定律...都不一定适用。 : 所以正态分布为基础的经济学理论都不靠谱。 : 市场可能会有tail events。 : 他肯定是正确的。 : 但是现有的财务系统,从券商软件到交易系统,据我所知model主要还是从正态分布出 : 发进行修正。而不是往更难的数学那里走。尽管研究variance无穷大的分布,
|
T*******e 发帖数: 4928 | 25 你们平时用Docker干什么?
【在 w***g 的大作中提到】 : 用-v加载目录,留下一堆root:root的文件。现在的软件怎么都这么不负责任。
|
w***g 发帖数: 5958 | 26 我用docker部署服务,还有编译环境
【在 T*******e 的大作中提到】 : 你们平时用Docker干什么?
|
c*********e 发帖数: 16335 | 27 wdong请分析一下amazon go是啥原理?
【在 w***g 的大作中提到】 : 你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西, : 直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都 : 花在deep learning之前(图片数据库)和deep learning之后 : (post processing, 搭服务, 做demo)上面。至于tensorflow/ : caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题 : 也破了。对于我来说,deep learning框架就是个black box plug-in。 : 等人家好的model release出来,管他是tensorflow, mxnet还是torch : 我直接一套就行。 : : .
|
w***g 发帖数: 5958 | 28 这个我没啥了解,分析不了。
【在 c*********e 的大作中提到】 : wdong请分析一下amazon go是啥原理?
|