l*******n 发帖数: 35 | |
x***4 发帖数: 1815 | 2 刚刚看到了。 c的核心,python的糖衣。典型g的风格。那个whitepaper还没有仔细看。
open source版只能在单机用。
谁弄个jvm的clone吧。
【在 l*******n 的大作中提到】 : 如题
|
N*****m 发帖数: 42603 | 3 蟒蛇社区的又一剂强心剂
看。
【在 x***4 的大作中提到】 : 刚刚看到了。 c的核心,python的糖衣。典型g的风格。那个whitepaper还没有仔细看。 : open source版只能在单机用。 : 谁弄个jvm的clone吧。
|
w***g 发帖数: 5958 | 4 东西是牛的,因为卖的是data flow平台,所以API应该比
caffe和mxnet都更干净漂亮。但是deep learning本身
的data flow本身就非常straightfoward,并且基本上是
标准化的,所以tensorflow从学术上讲并不是一个非常
牛B的东西。至于会不会流行,要看他们接下来是否会
放出直接可以用的模型。设计上来说mxnet已经超过caffe
了,caffe的作者也在写caffe2。但是大家都还在用
caffe,因为model zoo太牛B了。G这时候才放出
tensorflow,已经没有先机了。从数据量来说,
目前已经到了单机可以训练整个imagenet的地步了,
GPU的计算能力和内存容量还在不断涨,cluster并没有
太大的前景。
Deep learning从应用上来说已经没啥门槛了。
【在 l*******n 的大作中提到】 : 如题
|
N*****m 发帖数: 42603 | 5 caffe的作者现在在狗上班
【在 w***g 的大作中提到】 : 东西是牛的,因为卖的是data flow平台,所以API应该比 : caffe和mxnet都更干净漂亮。但是deep learning本身 : 的data flow本身就非常straightfoward,并且基本上是 : 标准化的,所以tensorflow从学术上讲并不是一个非常 : 牛B的东西。至于会不会流行,要看他们接下来是否会 : 放出直接可以用的模型。设计上来说mxnet已经超过caffe : 了,caffe的作者也在写caffe2。但是大家都还在用 : caffe,因为model zoo太牛B了。G这时候才放出 : tensorflow,已经没有先机了。从数据量来说, : 目前已经到了单机可以训练整个imagenet的地步了,
|
w***g 发帖数: 5958 | 6 G这种人很多,但我很怀疑这些人在G是不是还能接着创新。
就说Jia的caffe2,我估计也没多大前景。
开源软件是一个众人捡柴火焰高的事情,作者说要推倒重来,
大家未必能认。caffe是6796个星,mxnet是842个星,caffe2是279个星。
从这个就能看出来。
至少从开源软件上来说,G放出来的都是些不痛不痒的东西,
没有啥真让人耳目一新的。少数几个比较好的,也都是收购的小公司。
真正牛B的, 就看GFS, bigtable, mapreduce这些,
paper都是从G出来的,但现在有G啥事吗?
我在中部村子里坐井观天,欢迎G家的出来反驳。
要说机群环境下大规模数据处理平台,真有创新性的
我觉得要属Grappa。将来至少能干掉GraphLab。
【在 N*****m 的大作中提到】 : caffe的作者现在在狗上班
|
l*********s 发帖数: 5409 | 7 只能单机版用?我就说狗狗这么这么大方呢
看。
【在 x***4 的大作中提到】 : 刚刚看到了。 c的核心,python的糖衣。典型g的风格。那个whitepaper还没有仔细看。 : open source版只能在单机用。 : 谁弄个jvm的clone吧。
|
l*******m 发帖数: 1096 | 8 坐等benchmark
【在 w***g 的大作中提到】 : G这种人很多,但我很怀疑这些人在G是不是还能接着创新。 : 就说Jia的caffe2,我估计也没多大前景。 : 开源软件是一个众人捡柴火焰高的事情,作者说要推倒重来, : 大家未必能认。caffe是6796个星,mxnet是842个星,caffe2是279个星。 : 从这个就能看出来。 : 至少从开源软件上来说,G放出来的都是些不痛不痒的东西, : 没有啥真让人耳目一新的。少数几个比较好的,也都是收购的小公司。 : 真正牛B的, 就看GFS, bigtable, mapreduce这些, : paper都是从G出来的,但现在有G啥事吗? : 我在中部村子里坐井观天,欢迎G家的出来反驳。
|
w***g 发帖数: 5958 | 9 都是扔到GPU上跑,速度上不会有太大的差别。
唯一有比较大区别的就是内存管理是否有效。
因为目前的数据都很大,GPU内存都是掐着手指头算要用足的,
有时候差一两个GB,可能就得上一个贵得多的显卡。
【在 l*******m 的大作中提到】 : 坐等benchmark
|
N*****m 发帖数: 42603 | 10 对,狗的问题就是喜欢藏着掖着,最后黄花菜都凉了
【在 w***g 的大作中提到】 : G这种人很多,但我很怀疑这些人在G是不是还能接着创新。 : 就说Jia的caffe2,我估计也没多大前景。 : 开源软件是一个众人捡柴火焰高的事情,作者说要推倒重来, : 大家未必能认。caffe是6796个星,mxnet是842个星,caffe2是279个星。 : 从这个就能看出来。 : 至少从开源软件上来说,G放出来的都是些不痛不痒的东西, : 没有啥真让人耳目一新的。少数几个比较好的,也都是收购的小公司。 : 真正牛B的, 就看GFS, bigtable, mapreduce这些, : paper都是从G出来的,但现在有G啥事吗? : 我在中部村子里坐井观天,欢迎G家的出来反驳。
|
l*******m 发帖数: 1096 | 11 是个理。主要CPU GPU数据交换,如果是同步太慢,异步费GPU内存
【在 w***g 的大作中提到】 : 都是扔到GPU上跑,速度上不会有太大的差别。 : 唯一有比较大区别的就是内存管理是否有效。 : 因为目前的数据都很大,GPU内存都是掐着手指头算要用足的, : 有时候差一两个GB,可能就得上一个贵得多的显卡。
|
l*******m 发帖数: 1096 | |
w***g 发帖数: 5958 | 13 果不其然,哈哈。
总结:G的性能很差,不但慢,而且还out of memory。
如果开源的真是G自己的infrastructure,倒也在情理中。G的优势不是单击算得超快,
而是可以scale out到机群上跑。
【在 l*******m 的大作中提到】 : benchmark from a Facebook guy is here : https://github.com/soumith/convnet-benchmarks/issues/66
|
l*******m 发帖数: 1096 | 14 yangqing 急了,出了个fix, performance 向上20%
【在 w***g 的大作中提到】 : 果不其然,哈哈。 : 总结:G的性能很差,不但慢,而且还out of memory。 : 如果开源的真是G自己的infrastructure,倒也在情理中。G的优势不是单击算得超快, : 而是可以scale out到机群上跑。
|