d*****u 发帖数: 17243 | 1 建议初学者用keras
tensorflow现在正在快速变更期,同一个功能有N种实现方法,不利于初学
而且keras的模块在tensorflow里都能用
实际上是tensorflow之上的一个API |
|
s**********l 发帖数: 8966 | 2 caffe+tensorflow
学术界caffe用的人还是挺多的,比较好的结果,都是在caffe里加layer搞成的,他的
源代码也好读。
tensorflow进步非常快,上一波google没开源,后来hadoop火起来狗家也没吃到啥,所
以这次吸取教训大力推tensorflow 1.0,资源很丰富,周围玩的人也多,值得搞一下。
另外玩deep learning的话务必上ubuntu,mac/centos/windows都有诸般不爽。 |
|
C*****5 发帖数: 8812 | 3 请问这种throughput是在什么软硬件环境里做的?Tensorflow,caffe2还是其他?用啥
手机?
大牛精通Tensorflow,Tensorflow Lite是手到擒来,期待大牛的mobile新作。 |
|
d*****u 发帖数: 17243 | 4 那倒不是。现在深度学习用得最多的就是tensorflow, theano和torch
不管是企业还是研究机构都用它们
还有keras这种基于tensorflow或者theano的framework
当然你要说那些特别前沿的或者有针对性的是另外一回事 |
|
d*****u 发帖数: 17243 | 5 tensorflow支持多GPU
theano只支持单GPU
不过多GPU效果提升并不明显,而且tensorflow在其他方面比theano要慢 |
|
C*****5 发帖数: 8812 | 6 tensorflow一直都是二奶地位
而且tensorflow又慢又占内存,丫流行对nvda只有好。 |
|
c******a 发帖数: 4400 | 7 Google就凭这个才有资格挑战啊。在未来某个时间点可能取消对其他芯片支持?
: tensorflow一直都是二奶地位
: 而且tensorflow又慢又占内存,丫流行对nvda只有好。
|
|
w***g 发帖数: 5958 | 8 东西是牛的,因为卖的是data flow平台,所以API应该比
caffe和mxnet都更干净漂亮。但是deep learning本身
的data flow本身就非常straightfoward,并且基本上是
标准化的,所以tensorflow从学术上讲并不是一个非常
牛B的东西。至于会不会流行,要看他们接下来是否会
放出直接可以用的模型。设计上来说mxnet已经超过caffe
了,caffe的作者也在写caffe2。但是大家都还在用
caffe,因为model zoo太牛B了。G这时候才放出
tensorflow,已经没有先机了。从数据量来说,
目前已经到了单机可以训练整个imagenet的地步了,
GPU的计算能力和内存容量还在不断涨,cluster并没有
太大的前景。
Deep learning从应用上来说已经没啥门槛了。 |
|
|
w***g 发帖数: 5958 | 10 只有你发了,我估计别人没有真的去看代码。我给你一些提示,
你再改改看。
1. 注意Y和Y_predicted的形状。如果Y和Y_predicted的
形状不一样,tf.squared_difference会发生什么?
2. 为什么傻逼作者要把learning_rate設得这么异乎寻常
地低? 如果设成0.01会发生什么问题?
把learning_rate降低是正确的fix吗? 还能怎么解决
这个问题?
(再提示:Spark的loss function有啥区别?)
还有一些罗嗦的错就不说了, 不影响这个程序运行。
书的作者对tensorflow完全没有概念。这书的tensorflow
代码最好完全不要看。
我其实也调了一个钟头。虽然自己写代码没问题,
要找别人代码里的坑还是很难。 |
|
w***g 发帖数: 5958 | 11 没试过。我用tensorflow。torch本身就是第二阵营, pytorch还能超过torch了?
想少走弯路,上tensorflow肯定没错。用的人多,坑就少。 |
|
k*****u 发帖数: 1688 | 12 copy的mxnet作者的blog:
对于一个优秀的深度学习系统,或者更广来说优秀的科学计算系统,最重要的是编程接
口的设计。他们都采用将一个领域特定语言(domain specific language)嵌入到一个主
语言中。例如numpy将矩阵运算嵌入到python中。这类嵌入一般分为两种,其中一种嵌
入的较浅,其中每个语句都按原来的意思执行,且通常采用命令式编程(imperative
programming),其中numpy和Torch就是属于这种。而另一种则用一种深的嵌入方式,提
供一整套针对具体应用的迷你语言。这一种通常使用声明式语言(declarative
programing),既用户只需要声明要做什么,而具体执行则由系统完成。这类系统包括
Caffe,theano和刚公布的TensorFlow。
目前现有的系统大部分都采用上两种编程模式的一种。与它们不同的是,MXNet尝试将
两种模式无缝的结合起来。在命令式编程上MXNet提供张量运算,而声明式编程中MXNet
支持符号表达式。用户可以自由的混合它们来快速实现自己的想法。例如我们可以用声
明式编程来描述神经网络,并利用... 阅读全帖 |
|
c*******a 发帖数: 1879 | 13 【 以下文字转载自 Programming 讨论区 】
发信人: centralla (central LA), 信区: Programming
标 题: tensorflow基本上就石狗家的闲的无所事事的储备军搞的东西
发信站: BBS 未名空间站 (Mon Jun 5 19:09:39 2017, 美东)
用处不大, 而且太繁琐,主要给初级读者玩的小工具而已。
一般正经公司,研究部门都是自己写神经网络, 训练。
C++库应该很多。 |
|
c**t 发帖数: 9197 | 14 tensorflow 就是c++ core 吧, Python 前端是为了学生吧 |
|
w*******g 发帖数: 9932 | 15 my tool compiles into Java and is faster than tensorflow |
|
y****o 发帖数: 1535 | 16 狗都用上专门为Tensorflow定制的TPU了 |
|
w*******g 发帖数: 9932 | 17 maybe. It doesn't take a lot of time and tools like tensorflow have pretty
stupid methodology |
|
发帖数: 1 | 18 過了HC但找不到team, 希望在Google工作的同學可以幫我看看有沒有team適合。
我的background是做backend service, 工作用過backdata, nosql, google
tensorflow.
地方不限,只要在US就可以。謝謝! |
|
c*******a 发帖数: 1879 | 19 【 以下文字转载自 Programming 讨论区 】
发信人: centralla (central LA), 信区: Programming
标 题: tensorflow基本上就石狗家的闲的无所事事的储备军搞的东西
发信站: BBS 未名空间站 (Mon Jun 5 19:09:39 2017, 美东)
用处不大, 而且太繁琐,主要给初级读者玩的小工具而已。
一般正经公司,研究部门都是自己写神经网络, 训练。
C++库应该很多。 |
|
C*****5 发帖数: 8812 | 20 比tensorflow好用的起吗还有pytorch,还有国人搞的mxnet,caffe 2,后面都有大公
司,不怕 |
|
|
|
w***g 发帖数: 5958 | 23 这么快就放弃了? 你那个tensorflow的例子我已經调通了。
实在错的太离谱了。这种垃圾repository竟然有81个星我也是醉了。
想听的发包子过来,半个钟头后我给你们分析。
Update:
这个竟然是一本书的配套代码,书要卖$23。突然我就觉得
job security暴涨了。这种书卖越多越好。大家不要给它
提交补丁,最好初学者都死在这书上,我们老司机就安全了。 |
|
g****t 发帖数: 31659 | 24 应该就是一个是精确的最小二乘法。另一个是梯度或者别的办法近似求解?
精确的最小二乘法不应该有什么大问题。前面就是叠加。最后一步
3*3矩阵求逆那步用一下cholesky就够了。他的数很少。
若是近似方法,这个作者给的数据集太小。估计iid什么的也没测。
所以可能会对参数敏感。
: 这么快就放弃了? 你那个tensorflow的例子我已經调通了。
: 实在错的太离谱了。这种垃圾repository竟然有81个星我也是醉了。
: 想听的发包子过来,半个钟头后我给你们分析。
: Update:
: 这个竟然是一本书的配套代码,书要卖$23。突然我就觉得
: job security暴涨了。这种书卖越多越好。大家不要给它
: 提交补丁,最好初学者都死在这书上,我们老司机就安全了。
|
|
S*******e 发帖数: 525 | 25 咱这小白看这东西比较吃力。上次多谢wdong及其他几位大师,懂了一点。想听从大师
们的建议,看看tensorflow web site的tutorial,觉得水平不够,还是看看书更好. 现
在又不懂了.这个code:
https://github.com/backstopmedia/tensorflowbook/blob/master/chapters/04_
machine_learning_basics/logistic_regression.py
的输出结果是"不定"的, 我认为是因为38-41行做了sampling:
return tf.train.shuffle_batch(decoded,
batch_size=batch_size,
capacity=batch_size * 50,
min_after_dequeue=batch_size)
我把它改为把所有的数据都读进去:
return tf.train.batch(decoded,
... 阅读全帖 |
|
w***g 发帖数: 5958 | 26 theano和tensorflow都行。theano上手快点。
不过这两个都是deep learning。更一般的ML应该从
scikit-learn入手。
spark是做大数据的,不是典型ML,今年已经过气了。
微软的那个软件我没用过,在deep learning界没有
气候。倒是Torch7有一批用趸。 |
|
发帖数: 1 | 27 大牛,前阵子我才听你说mxnet的C++ API好用.
为什么又转tensorflow了? 主要是"用的人多,坑就少
" 么? |
|
w***g 发帖数: 5958 | 28 这些框架大同小异。之前我在整合所有框架的API,
对比发现mxnet的C++ API最干净。后来我连torch
也整合了,发现lua的API比python的也要干净。
我现在自己开发主要用tensorflow。原因就是用的
人多,开发的人也多,众人拾柴火焰高。我没研究
过TF和mxnet细节上的不同,有人说mxnet的设计更
好。不过我觉得这些框架都大同小异没有本质区别。
从API看,TF要比别人丰富。应该也根人多有关系。 |
|
w***g 发帖数: 5958 | 29 还有tensorflow是最有可能实现对mobile GPU支持的一个。 |
|
|
C*****5 发帖数: 8812 | 31 大牛对Tensorflow Lite和DL在mobile上的应用有何高见? |
|
l*****z 发帖数: 3022 | 32 带头搞出tensorflow的可是狗家的头牌啊 |
|
发帖数: 1 | 33 最近尝试Tensorflow里面的样例程序image_retrain,下载了 Caltech 101、256,效果
不错。但有个疑问,如果我尝试重新训练超过1000的分类,是否能正常工作。我大概查
看了模型,太笨,没看懂,但感觉是不行的。
我自己的理解是,为了达到最佳效果,需要考虑整个模型,分类数量对整个模型的其他
部分是有影响的。随着分类数量的增加,要调整其他层,训练的参数也需要重新考虑。
版上哪位DL大拿能否解释一下。 |
|
w***g 发帖数: 5958 | 34 这就是我为什么一直用2.
tensorflow 3肯定可以的。但是实际项目牵扯到的包太多了。 |
|
g*******u 发帖数: 3948 | 35 大家有何高见?
是不是 keras会简单快速点?
tensorflow曲线慢点吧
?
多谢讨论 |
|
c********1 发帖数: 5269 | 36 Keras is a high-level neural networks API, written in Python and capable of
running on top of TensorFlow, CNTK, or Theano. |
|
c********1 发帖数: 5269 | 37 那应该Keras简单点
可先用Keras
Keras做不了,再直接用tensorflow |
|
|
w*****r 发帖数: 197 | 39 最近仔细看了看tensorflow,以一个老年程序员的眼光来看,design得不错.
lazy-evaluation pipeline,是实时数据处理的经典范式.
接口多,可扩展和可优化空间大,甚至提提供用C++定制operator的接口
相比于pytorch,有keras提供上层封装
分布式和deployment(跨平台)做得也不错
就是什么东西,google都自己来一套,这个有点讨厌. |
|
w*****r 发帖数: 197 | 40 马工要想求生存,要么创造更好用的轮子,要么发明更有效的算法
以后library,只要需要gui的,xxx.js是方向
tensorflow.js现在看上去像toy,估计一年后,就到处都是了。。。 |
|
g****t 发帖数: 31659 | 41 我的浅见
1.
一般散户本来就不该做什么library。
Library的意思是程序可以重用。是水平扩展。
水平扩展技术人员肯定赢不了传播专家。
所以写程序第一天学会reusable这个概念,
就是魔音入脑,把人教育成螺丝钉。
2.
另外一般散户也不可能真正学会如何做好一个用户多的
Library. 没有市场专家的帮助。何为" reusable"都是
瞎子摸象。reusable for WHO? 这是个市场客户分析问题。
不是技术问题。
3.
所以散户还有个生存方向。就是把大厂的算法吃干擦净,改头换面,用在非传播领域。
例如你可以用深度学习做假牙。这是我周末和一个国内做假牙的哥们聊的。他很高兴的
回去开项目了 :-)
Goog再牛也不可能javascript设计假牙吧?
: 马工要想求生存,要么创造更好用的轮子,要么发明更有效的算法
: 以后library,只要需要gui的,xxx.js是方向
: tensorflow.js现在看上去像toy,估计一年后,就到处都是了。。。
|
|
|
n********g 发帖数: 6504 | 43 作者简介:Chip Huyen是一名撰稿人和计算机科学家,常驻硅谷,是斯坦福大学计算机
科学系的理学士和理科硕士生。她在斯坦福大学开设和教授《面向深度学习研究的
TensorFlow》课程,主攻方向是自然语言处理和深度学习的交叉领域。
我有事要坦白。说真的,我觉得自己像个骗子。
每隔几天,我就会收到朋友、朋友的朋友或某家不知名公司发来的电子邮件,让我就人
工智能方面发表一番真知灼见。这些人当中有刚刚卖掉初创公司的企业家,有拒绝了年
薪50万美元工作机会的斯坦福大学MBA毕业生,有风险投资家,甚至还有大银行的高管
。而几年前,我连接近这些人的勇气都没有,更不用说梦想哪天他们主动想与我聊聊。
他们的话题无外乎围绕这几个问题:“可以牵线搭桥,帮我联系AI界的人士吗?”“可
以过来跟我们一起搞AI吗?”“对于我们的AI产品,您有何建议?”他们谈起AI时的那
股劲头就像AI是大家趋之若鹜的长生不老泉;要是你不这么做,就会孤独地老去。也不
知道他们是怎么想的,反正都觉得我知道如何抵达成功彼岸。
我清楚为什么大伙认为我是个专家。我花了好多年的时间,学会如何制作一份堪称完美
的简历。精英教育?简历上有... 阅读全帖 |
|
s***d 发帖数: 15421 | 44 我对第二代tpu training 比gpu 牛多少持保留。tpu 目前也只是tensorflow 优化,DL
模型不限于tensorflow,虽然狗狗的牌是这样打得。aws,zure,阿里 的云肯定也没法
用tpu。你可能是狗家的,对狗云自信。
对于计算量,如果不是特别特别特别的优化,gpu目前是在大计算量方面依然有优势,
具有灵活性,tpu 就算training也只是tensorflow 结构的training。 tensorflow 能
不能胜出 为时尚早,现在各家都在弄自己的AI SDK frame,等mxnet tensorflow 等等
等 淘汰完了一批 再说类tpu比较好。
训练 |
|
发帖数: 1 | 45 在计算机时代,有个著名的摩尔定律,就是说同样成本每隔18个月晶体管数量会翻倍,
反过来同样数量晶体管成本会减半,这个规律已经很好地吻合了最近50年的发展,并且
可以衍生到很多类似的领域:存储、功耗、带宽、像素。
两年前的这个月是摩尔定律发表50周年,整整半个世纪。当时IEEE Spectrum为了纪念
摩尔定律50周年,特地发表了四篇关于摩尔定律的文章。其中一篇的题目叫“Moore’s
Law is Dying (and That Could Be Good)”,说的是摩尔定律不可能继续下去了。
1965年微芯片上的元件数增加了1倍,Gordon Moore于是预言这一趋势近期内将继续。
1975年他修改为每两年翻一翻,后来又说是18个月,或者说按指数律增长,每年46%。
这就是摩尔定律。摩尔定律预言了半导体产业50年的发展。摩尔预言了一个光辉的未来
,改变了世界。
这样高速的增长在其他产业是见不到的。美国的主粮玉米从1950年以后平均产量每年增
长2%,蒸汽涡轮式发电机把热能转换为电能,其效率在20世纪年增长率为1.5%,而1881
-2014室内灯光有效性(流明每瓦)年平均增长2.... 阅读全帖 |
|
发帖数: 1 | 46 Tensorflow is a dedicated neural network machine learning environment (built
on python, and hence with all
the other python libraries for all kinds of applications and research works
*)...so it is designed to make many common neural network related tasks easy
(through one or a few library function calls)..TensorFlow is quite scalable
to large distributed computing network (and actually it is a library
originally used by google to compute your every day google search results;
and some part of Alp... 阅读全帖 |
|
w***g 发帖数: 5958 | 47 没有pretrained network。你已经装好了tensorflow就不用docker了。
用下面的命令装上picpac streaming API就可以train了。
pip install -i https://testpypi.python.org/pypi picpac
我那个train-slim.py里用的是slim预定义的一些network architecture。
keras比直接用tensorflow有啥优势吗?我感觉keras就是个二手贩子,可能
跟不上tensorflow最新的feature。不过你倒是提醒了我,我得加几个
keras和theano的example.
tensorflow |
|
r****z 发帖数: 12020 | 48 【 以下文字转载自 ScitechNews 讨论区 】
发信人: inews (inews), 信区: ScitechNews
标 题: [KJPT]谷歌AI告诉你 一根真正优秀的黄瓜是什么样的
发信站: BBS 未名空间站 (Thu Sep 1 22:41:56 2016, 美东)
编者按:Makoto Koike 原本在日本的一家车企当工程师,大约一年前,他辞去工作回到老家帮父母经营黄瓜农场。农场并不大,然而给黄瓜分类的工作却让 Makoto 吃了不少苦头。
日本各个农场对于黄瓜有不同的分类标准,并不是我们所想的分个大小那么简单。单是 Makoto 自己家的农场,同一个品种的黄瓜的分类就达了 9 种之多。一般来说,颜色鲜艳、刺多、体态匀称的才算是好瓜。
以下是令人震撼的 Makoto 家 9 类黄瓜图表,由上至下质量依次递减。
手里刚摘了一根黄瓜,你得仔细观察它的长短、粗细、颜色、纹理、是否有小刮痕、弯的还是直的、刺多不多......要跟9类标准对应,看它属于哪一等级,这并不是一个容易学的工作。
一个人要花好几个月才能熟练掌握整个分类标准体系,所以到了采摘旺季,Makoto 家... 阅读全帖 |
|
f***t 发帖数: 2247 | 49 好的,多谢!我正在看Tensorflow,好像这个Tensorflow在神经网络方面比matlab更牛
X。对吗?如果是这样,俺就先试试这个Tensorflow。能早点出结果,就是省钱了,做
实验的苦逼啊,整天耳朵里每时每刻都会听到一个单词,money,money,money,.... |
|
|