由买买提看人间百态

topics

全部话题 - 话题: tensorflow
1 2 3 4 5 6 7 8 9 10 下页 末页 (共10页)
d*****u
发帖数: 17243
1
来自主题: Military版 - Deep Learning with Tensorflow
建议初学者用keras
tensorflow现在正在快速变更期,同一个功能有N种实现方法,不利于初学
而且keras的模块在tensorflow里都能用
实际上是tensorflow之上的一个API
s**********l
发帖数: 8966
2
caffe+tensorflow
学术界caffe用的人还是挺多的,比较好的结果,都是在caffe里加layer搞成的,他的
源代码也好读。
tensorflow进步非常快,上一波google没开源,后来hadoop火起来狗家也没吃到啥,所
以这次吸取教训大力推tensorflow 1.0,资源很丰富,周围玩的人也多,值得搞一下。
另外玩deep learning的话务必上ubuntu,mac/centos/windows都有诸般不爽。
C*****5
发帖数: 8812
3
来自主题: Programming版 - 呼叫Wdong大牛 - Tensorflow Lite
请问这种throughput是在什么软硬件环境里做的?Tensorflow,caffe2还是其他?用啥
手机?
大牛精通Tensorflow,Tensorflow Lite是手到擒来,期待大牛的mobile新作。
d*****u
发帖数: 17243
4
那倒不是。现在深度学习用得最多的就是tensorflow, theano和torch
不管是企业还是研究机构都用它们
还有keras这种基于tensorflow或者theano的framework
当然你要说那些特别前沿的或者有针对性的是另外一回事
d*****u
发帖数: 17243
5
tensorflow支持多GPU
theano只支持单GPU
不过多GPU效果提升并不明显,而且tensorflow在其他方面比theano要慢
C*****5
发帖数: 8812
6
来自主题: Stock版 - 今天整了一整天tensorflow
tensorflow一直都是二奶地位
而且tensorflow又慢又占内存,丫流行对nvda只有好。
c******a
发帖数: 4400
7
来自主题: Stock版 - 今天整了一整天tensorflow
Google就凭这个才有资格挑战啊。在未来某个时间点可能取消对其他芯片支持?


: tensorflow一直都是二奶地位

: 而且tensorflow又慢又占内存,丫流行对nvda只有好。

w***g
发帖数: 5958
8
来自主题: Programming版 - 没人讨论狗家最新开源的tensorflow?
东西是牛的,因为卖的是data flow平台,所以API应该比
caffe和mxnet都更干净漂亮。但是deep learning本身
的data flow本身就非常straightfoward,并且基本上是
标准化的,所以tensorflow从学术上讲并不是一个非常
牛B的东西。至于会不会流行,要看他们接下来是否会
放出直接可以用的模型。设计上来说mxnet已经超过caffe
了,caffe的作者也在写caffe2。但是大家都还在用
caffe,因为model zoo太牛B了。G这时候才放出
tensorflow,已经没有先机了。从数据量来说,
目前已经到了单机可以训练整个imagenet的地步了,
GPU的计算能力和内存容量还在不断涨,cluster并没有
太大的前景。
Deep learning从应用上来说已经没啥门槛了。
S*******e
发帖数: 525
9
来自主题: Programming版 - Spark 和 Tensorflow 线性回归问题
谢谢大牛们的慧眼。结果极可能TensorFlow 的code错了。这儿是一个结果分析:http://tempforum.neas-seminars.com/Attachment4373.aspx 结果和Spark ML 的(改正后)一致 。现在请大牛们看看怎么修改那个TensorFlow的code。谢谢。
w***g
发帖数: 5958
10
来自主题: Programming版 - Spark 和 Tensorflow 线性回归问题
只有你发了,我估计别人没有真的去看代码。我给你一些提示,
你再改改看。
1. 注意Y和Y_predicted的形状。如果Y和Y_predicted的
形状不一样,tf.squared_difference会发生什么?
2. 为什么傻逼作者要把learning_rate設得这么异乎寻常
地低? 如果设成0.01会发生什么问题?
把learning_rate降低是正确的fix吗? 还能怎么解决
这个问题?
(再提示:Spark的loss function有啥区别?)
还有一些罗嗦的错就不说了, 不影响这个程序运行。
书的作者对tensorflow完全没有概念。这书的tensorflow
代码最好完全不要看。
我其实也调了一个钟头。虽然自己写代码没问题,
要找别人代码里的坑还是很难。
w***g
发帖数: 5958
11
没试过。我用tensorflow。torch本身就是第二阵营, pytorch还能超过torch了?
想少走弯路,上tensorflow肯定没错。用的人多,坑就少。
k*****u
发帖数: 1688
12
copy的mxnet作者的blog:
对于一个优秀的深度学习系统,或者更广来说优秀的科学计算系统,最重要的是编程接
口的设计。他们都采用将一个领域特定语言(domain specific language)嵌入到一个主
语言中。例如numpy将矩阵运算嵌入到python中。这类嵌入一般分为两种,其中一种嵌
入的较浅,其中每个语句都按原来的意思执行,且通常采用命令式编程(imperative
programming),其中numpy和Torch就是属于这种。而另一种则用一种深的嵌入方式,提
供一整套针对具体应用的迷你语言。这一种通常使用声明式语言(declarative
programing),既用户只需要声明要做什么,而具体执行则由系统完成。这类系统包括
Caffe,theano和刚公布的TensorFlow。
目前现有的系统大部分都采用上两种编程模式的一种。与它们不同的是,MXNet尝试将
两种模式无缝的结合起来。在命令式编程上MXNet提供张量运算,而声明式编程中MXNet
支持符号表达式。用户可以自由的混合它们来快速实现自己的想法。例如我们可以用声
明式编程来描述神经网络,并利用... 阅读全帖
c*******a
发帖数: 1879
13
【 以下文字转载自 Programming 讨论区 】
发信人: centralla (central LA), 信区: Programming
标 题: tensorflow基本上就石狗家的闲的无所事事的储备军搞的东西
发信站: BBS 未名空间站 (Mon Jun 5 19:09:39 2017, 美东)
用处不大, 而且太繁琐,主要给初级读者玩的小工具而已。
一般正经公司,研究部门都是自己写神经网络, 训练。
C++库应该很多。
c**t
发帖数: 9197
14
tensorflow 就是c++ core 吧, Python 前端是为了学生吧
w*******g
发帖数: 9932
15
my tool compiles into Java and is faster than tensorflow
y****o
发帖数: 1535
16
狗都用上专门为Tensorflow定制的TPU了
w*******g
发帖数: 9932
17
maybe. It doesn't take a lot of time and tools like tensorflow have pretty
stupid methodology

发帖数: 1
18
過了HC但找不到team, 希望在Google工作的同學可以幫我看看有沒有team適合。
我的background是做backend service, 工作用過backdata, nosql, google
tensorflow.
地方不限,只要在US就可以。謝謝!
c*******a
发帖数: 1879
19
【 以下文字转载自 Programming 讨论区 】
发信人: centralla (central LA), 信区: Programming
标 题: tensorflow基本上就石狗家的闲的无所事事的储备军搞的东西
发信站: BBS 未名空间站 (Mon Jun 5 19:09:39 2017, 美东)
用处不大, 而且太繁琐,主要给初级读者玩的小工具而已。
一般正经公司,研究部门都是自己写神经网络, 训练。
C++库应该很多。
C*****5
发帖数: 8812
20
来自主题: Stock版 - 今天整了一整天tensorflow
比tensorflow好用的起吗还有pytorch,还有国人搞的mxnet,caffe 2,后面都有大公
司,不怕
S*******e
发帖数: 525
21
来自主题: Programming版 - Spark 和 Tensorflow 线性回归问题
刚开始看一些Spark ML和Tensorflow的基本东西,看到下便两个程序的结果很糊涂:
为什么这么大的差异?
https://github.com/backstopmedia/tensorflowbook/blob/master/chapters/04_
machine_learning_basics/linear_regression.py
在以上程序加一行 print("w=", W.eval(), "b=", b.eval()), 得到结果是
w= [[ 3.5245235 ]
[ 1.50171268]] b= 1.14499
所以 y=3.5245235x1 + 1.50171268x2 +1.14499
我用同样的数据 (格式附后)
https://github.com/apache/spark/blob/master/examples/src/main/java/org/
apache/spark/examples/ml/JavaLinearRegressionWithElasticNetExample.java
结果是:
Coefficients: [0.3827... 阅读全帖
S*******e
发帖数: 525
22
来自主题: Programming版 - Spark 和 Tensorflow 线性回归问题
大牛笑完之后,也要提携我们这些门外汉呀 :-).
我看这书,还觉得不错,觉得一些概念讲得蛮清楚的 (比烙印写的什么Packt
Publishing的书好很多), 没想到也是半瓶水。
还是不懂这个问题啊。在http://stackoverflow.com/questions/41884411/puzzled-by-linear-regression-results-from-spark-ml-and-tensorflow 问了,那儿说SPARK的线性回归模型不是线性回归(这真奇芭),去掉
.setRegParam(0.3)
.setElasticNetParam(0.8);
又 .setMaxIter(1000), 结果1iteration, 结果就出来了,也和原先的结果差不多啊:
Coefficients: [0.4173620987945001,5.21659080879135] Intercept: 77.
98253861487616
numIterations: 1
objectiveHistory: [0.0]
w***g
发帖数: 5958
23
来自主题: Programming版 - Spark 和 Tensorflow 线性回归问题
这么快就放弃了? 你那个tensorflow的例子我已經调通了。
实在错的太离谱了。这种垃圾repository竟然有81个星我也是醉了。
想听的发包子过来,半个钟头后我给你们分析。
Update:
这个竟然是一本书的配套代码,书要卖$23。突然我就觉得
job security暴涨了。这种书卖越多越好。大家不要给它
提交补丁,最好初学者都死在这书上,我们老司机就安全了。
g****t
发帖数: 31659
24
来自主题: Programming版 - Spark 和 Tensorflow 线性回归问题
应该就是一个是精确的最小二乘法。另一个是梯度或者别的办法近似求解?
精确的最小二乘法不应该有什么大问题。前面就是叠加。最后一步
3*3矩阵求逆那步用一下cholesky就够了。他的数很少。
若是近似方法,这个作者给的数据集太小。估计iid什么的也没测。
所以可能会对参数敏感。


: 这么快就放弃了? 你那个tensorflow的例子我已經调通了。

: 实在错的太离谱了。这种垃圾repository竟然有81个星我也是醉了。

: 想听的发包子过来,半个钟头后我给你们分析。

: Update:

: 这个竟然是一本书的配套代码,书要卖$23。突然我就觉得

: job security暴涨了。这种书卖越多越好。大家不要给它

: 提交补丁,最好初学者都死在这书上,我们老司机就安全了。

S*******e
发帖数: 525
25
来自主题: Programming版 - 再来问问tensorflow的问题
咱这小白看这东西比较吃力。上次多谢wdong及其他几位大师,懂了一点。想听从大师
们的建议,看看tensorflow web site的tutorial,觉得水平不够,还是看看书更好. 现
在又不懂了.这个code:
https://github.com/backstopmedia/tensorflowbook/blob/master/chapters/04_
machine_learning_basics/logistic_regression.py
的输出结果是"不定"的, 我认为是因为38-41行做了sampling:
return tf.train.shuffle_batch(decoded,
batch_size=batch_size,
capacity=batch_size * 50,
min_after_dequeue=batch_size)
我把它改为把所有的数据都读进去:
return tf.train.batch(decoded,
... 阅读全帖
w***g
发帖数: 5958
26
theano和tensorflow都行。theano上手快点。
不过这两个都是deep learning。更一般的ML应该从
scikit-learn入手。
spark是做大数据的,不是典型ML,今年已经过气了。
微软的那个软件我没用过,在deep learning界没有
气候。倒是Torch7有一批用趸。

发帖数: 1
27
大牛,前阵子我才听你说mxnet的C++ API好用.
为什么又转tensorflow了? 主要是"用的人多,坑就少
" 么?
w***g
发帖数: 5958
28
这些框架大同小异。之前我在整合所有框架的API,
对比发现mxnet的C++ API最干净。后来我连torch
也整合了,发现lua的API比python的也要干净。
我现在自己开发主要用tensorflow。原因就是用的
人多,开发的人也多,众人拾柴火焰高。我没研究
过TF和mxnet细节上的不同,有人说mxnet的设计更
好。不过我觉得这些框架都大同小异没有本质区别。
从API看,TF要比别人丰富。应该也根人多有关系。
w***g
发帖数: 5958
29
还有tensorflow是最有可能实现对mobile GPU支持的一个。
S*******e
发帖数: 525
30
来自主题: Programming版 - Tensorflow's Mandelbrot Set Tutorial
看了 https://www.tensorflow.org/tutorials/mandelbrot
我试了试那里的代码, 它怎么不显示那个漂亮的图?只打了行 display.Image object>。 我试图看看print(ns.eval()), 好像只看到一个二维矩阵
, 每个元素都是1.
C*****5
发帖数: 8812
31
来自主题: Programming版 - 呼叫Wdong大牛 - Tensorflow Lite
大牛对Tensorflow Lite和DL在mobile上的应用有何高见?
l*****z
发帖数: 3022
32
带头搞出tensorflow的可是狗家的头牌啊

发帖数: 1
33
最近尝试Tensorflow里面的样例程序image_retrain,下载了 Caltech 101、256,效果
不错。但有个疑问,如果我尝试重新训练超过1000的分类,是否能正常工作。我大概查
看了模型,太笨,没看懂,但感觉是不行的。
我自己的理解是,为了达到最佳效果,需要考虑整个模型,分类数量对整个模型的其他
部分是有影响的。随着分类数量的增加,要调整其他层,训练的参数也需要重新考虑。
版上哪位DL大拿能否解释一下。
w***g
发帖数: 5958
34
来自主题: Programming版 - 有人在py3环境下deploy过tensorflow
这就是我为什么一直用2.
tensorflow 3肯定可以的。但是实际项目牵扯到的包太多了。
g*******u
发帖数: 3948
35
来自主题: Programming版 - keras or tensorflow
大家有何高见?
是不是 keras会简单快速点?
tensorflow曲线慢点吧
?
多谢讨论
c********1
发帖数: 5269
36
来自主题: Programming版 - keras or tensorflow
Keras is a high-level neural networks API, written in Python and capable of
running on top of TensorFlow, CNTK, or Theano.
c********1
发帖数: 5269
37
来自主题: Programming版 - keras or tensorflow
那应该Keras简单点
可先用Keras
Keras做不了,再直接用tensorflow
x****u
发帖数: 44466
w*****r
发帖数: 197
39
来自主题: Programming版 - tensorflow的design
最近仔细看了看tensorflow,以一个老年程序员的眼光来看,design得不错.
lazy-evaluation pipeline,是实时数据处理的经典范式.
接口多,可扩展和可优化空间大,甚至提提供用C++定制operator的接口
相比于pytorch,有keras提供上层封装
分布式和deployment(跨平台)做得也不错
就是什么东西,google都自己来一套,这个有点讨厌.
w*****r
发帖数: 197
40
来自主题: Programming版 - tensorflow.js
马工要想求生存,要么创造更好用的轮子,要么发明更有效的算法
以后library,只要需要gui的,xxx.js是方向
tensorflow.js现在看上去像toy,估计一年后,就到处都是了。。。
g****t
发帖数: 31659
41
来自主题: Programming版 - tensorflow.js
我的浅见
1.
一般散户本来就不该做什么library。
Library的意思是程序可以重用。是水平扩展。
水平扩展技术人员肯定赢不了传播专家。
所以写程序第一天学会reusable这个概念,
就是魔音入脑,把人教育成螺丝钉。
2.
另外一般散户也不可能真正学会如何做好一个用户多的
Library. 没有市场专家的帮助。何为" reusable"都是
瞎子摸象。reusable for WHO? 这是个市场客户分析问题。
不是技术问题。
3.
所以散户还有个生存方向。就是把大厂的算法吃干擦净,改头换面,用在非传播领域。
例如你可以用深度学习做假牙。这是我周末和一个国内做假牙的哥们聊的。他很高兴的
回去开项目了 :-)
Goog再牛也不可能javascript设计假牙吧?


: 马工要想求生存,要么创造更好用的轮子,要么发明更有效的算法

: 以后library,只要需要gui的,xxx.js是方向

: tensorflow.js现在看上去像toy,估计一年后,就到处都是了。。。

M**********n
发帖数: 59
42
来自主题: Statistics版 - Anybody has tried tensorflow?
Anybody has tried this?
https://www.tensorflow.org/
n********g
发帖数: 6504
43
作者简介:Chip Huyen是一名撰稿人和计算机科学家,常驻硅谷,是斯坦福大学计算机
科学系的理学士和理科硕士生。她在斯坦福大学开设和教授《面向深度学习研究的
TensorFlow》课程,主攻方向是自然语言处理和深度学习的交叉领域。
我有事要坦白。说真的,我觉得自己像个骗子。
每隔几天,我就会收到朋友、朋友的朋友或某家不知名公司发来的电子邮件,让我就人
工智能方面发表一番真知灼见。这些人当中有刚刚卖掉初创公司的企业家,有拒绝了年
薪50万美元工作机会的斯坦福大学MBA毕业生,有风险投资家,甚至还有大银行的高管
。而几年前,我连接近这些人的勇气都没有,更不用说梦想哪天他们主动想与我聊聊。
他们的话题无外乎围绕这几个问题:“可以牵线搭桥,帮我联系AI界的人士吗?”“可
以过来跟我们一起搞AI吗?”“对于我们的AI产品,您有何建议?”他们谈起AI时的那
股劲头就像AI是大家趋之若鹜的长生不老泉;要是你不这么做,就会孤独地老去。也不
知道他们是怎么想的,反正都觉得我知道如何抵达成功彼岸。
我清楚为什么大伙认为我是个专家。我花了好多年的时间,学会如何制作一份堪称完美
的简历。精英教育?简历上有... 阅读全帖
s***d
发帖数: 15421
44
我对第二代tpu training 比gpu 牛多少持保留。tpu 目前也只是tensorflow 优化,DL
模型不限于tensorflow,虽然狗狗的牌是这样打得。aws,zure,阿里 的云肯定也没法
用tpu。你可能是狗家的,对狗云自信。
对于计算量,如果不是特别特别特别的优化,gpu目前是在大计算量方面依然有优势,
具有灵活性,tpu 就算training也只是tensorflow 结构的training。 tensorflow 能
不能胜出 为时尚早,现在各家都在弄自己的AI SDK frame,等mxnet tensorflow 等等
等 淘汰完了一批 再说类tpu比较好。

训练

发帖数: 1
45
在计算机时代,有个著名的摩尔定律,就是说同样成本每隔18个月晶体管数量会翻倍,
反过来同样数量晶体管成本会减半,这个规律已经很好地吻合了最近50年的发展,并且
可以衍生到很多类似的领域:存储、功耗、带宽、像素。
两年前的这个月是摩尔定律发表50周年,整整半个世纪。当时IEEE Spectrum为了纪念
摩尔定律50周年,特地发表了四篇关于摩尔定律的文章。其中一篇的题目叫“Moore’s
Law is Dying (and That Could Be Good)”,说的是摩尔定律不可能继续下去了。
1965年微芯片上的元件数增加了1倍,Gordon Moore于是预言这一趋势近期内将继续。
1975年他修改为每两年翻一翻,后来又说是18个月,或者说按指数律增长,每年46%。
这就是摩尔定律。摩尔定律预言了半导体产业50年的发展。摩尔预言了一个光辉的未来
,改变了世界。
这样高速的增长在其他产业是见不到的。美国的主粮玉米从1950年以后平均产量每年增
长2%,蒸汽涡轮式发电机把热能转换为电能,其效率在20世纪年增长率为1.5%,而1881
-2014室内灯光有效性(流明每瓦)年平均增长2.... 阅读全帖

发帖数: 1
46
Tensorflow is a dedicated neural network machine learning environment (built
on python, and hence with all
the other python libraries for all kinds of applications and research works
*)...so it is designed to make many common neural network related tasks easy
(through one or a few library function calls)..TensorFlow is quite scalable
to large distributed computing network (and actually it is a library
originally used by google to compute your every day google search results;
and some part of Alp... 阅读全帖
w***g
发帖数: 5958
47
来自主题: DataSciences版 - 想上手deep learning的看过来
没有pretrained network。你已经装好了tensorflow就不用docker了。
用下面的命令装上picpac streaming API就可以train了。
pip install -i https://testpypi.python.org/pypi picpac
我那个train-slim.py里用的是slim预定义的一些network architecture。
keras比直接用tensorflow有啥优势吗?我感觉keras就是个二手贩子,可能
跟不上tensorflow最新的feature。不过你倒是提醒了我,我得加几个
keras和theano的example.

tensorflow
r****z
发帖数: 12020
48
【 以下文字转载自 ScitechNews 讨论区 】
发信人: inews (inews), 信区: ScitechNews
标 题: [KJPT]谷歌AI告诉你 一根真正优秀的黄瓜是什么样的
发信站: BBS 未名空间站 (Thu Sep 1 22:41:56 2016, 美东)
编者按:Makoto Koike 原本在日本的一家车企当工程师,大约一年前,他辞去工作回到老家帮父母经营黄瓜农场。农场并不大,然而给黄瓜分类的工作却让 Makoto 吃了不少苦头。
日本各个农场对于黄瓜有不同的分类标准,并不是我们所想的分个大小那么简单。单是 Makoto 自己家的农场,同一个品种的黄瓜的分类就达了 9 种之多。一般来说,颜色鲜艳、刺多、体态匀称的才算是好瓜。
以下是令人震撼的 Makoto 家 9 类黄瓜图表,由上至下质量依次递减。
手里刚摘了一根黄瓜,你得仔细观察它的长短、粗细、颜色、纹理、是否有小刮痕、弯的还是直的、刺多不多......要跟9类标准对应,看它属于哪一等级,这并不是一个容易学的工作。
一个人要花好几个月才能熟练掌握整个分类标准体系,所以到了采摘旺季,Makoto 家... 阅读全帖
f***t
发帖数: 2247
49
好的,多谢!我正在看Tensorflow,好像这个Tensorflow在神经网络方面比matlab更牛
X。对吗?如果是这样,俺就先试试这个Tensorflow。能早点出结果,就是省钱了,做
实验的苦逼啊,整天耳朵里每时每刻都会听到一个单词,money,money,money,....

发帖数: 1
50
sorry...That previous tensorflow link was a tutorial on classifier (i.e.
predict to
which category an element belongs)....
This one below is on regressor (i.e. predict the next value), which suits
your need more directly...
https://www.tensorflow.org/get_started/input_fn#a_neural_network_model_for_
boston_house_values (tensorflow neural network regressor)
that matlab link is also on future value prediction as well...
https://www.youtube.com/watch?v=4tP1JA6aH5o (matlab neural network
regresso... 阅读全帖
1 2 3 4 5 6 7 8 9 10 下页 末页 (共10页)