由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Programming版 - 为什么pytorch可以做到比tf还快?
相关主题
各位看好pytorch么?tf keras 这么多坑?
问个autoconf的问题tensorflow的design
GPU的本质请教关于OpenNLP 和 Stanford NLP 选择
mxnet 这个东西有人用么?HW Question: Bipartite Graphs
胡扯几句什么叫Deep Learning入门大家在linux下面用什么C++的IDE呢?
Pytorch靠谱吗?准备面试一个java-based position,有什么书推荐一下?
xgboost 训练大数据问题How difficult is it to write your own sprintf ?
pytorch技术上先进一些?A question
相关话题的讨论汇总
话题: tf话题: pytorch话题: cudnn话题: 做到话题: 为什么
进入Programming版参与讨论
1 (共1页)
w*****r
发帖数: 197
1
tf是static graph,显然对并行优化提供了更多的信息和可能性。
之前看过一个比较,在几个常见模型上,pytorch居然比tf还要稍快一点。
g*******u
发帖数: 3948
2
因为tf快被狗家弄成狗屎了
跟狗屎比快也不难
l*******m
发帖数: 1096
3
因为pytorch的理念就是直接用cudnn。狗家自己认为牛逼,总是自己写,然后发现比
cudnn慢个一倍,再写一个用cudnn的,但就有了几个API, 选对了才快。但自己写的一
般先推出,所以快的反而一般人不知道

:tf是static graph,显然对并行优化提供了更多的信息和可能性。
w***g
发帖数: 5958
4
靠,那哪个API是cudnn的? 这几天又跟tf slim做了好一番斗争。似乎终于弄对了。

【在 l*******m 的大作中提到】
: 因为pytorch的理念就是直接用cudnn。狗家自己认为牛逼,总是自己写,然后发现比
: cudnn慢个一倍,再写一个用cudnn的,但就有了几个API, 选对了才快。但自己写的一
: 般先推出,所以快的反而一般人不知道
:
: :tf是static graph,显然对并行优化提供了更多的信息和可能性。
: :

l*******m
发帖数: 1096
5
估计你也知道:
fused_batch_norm
TF_ENABLE_FFT_TILING_FORWARD=1
cudnn_rnn
nccl_sum for NVLink systems

【在 w***g 的大作中提到】
: 靠,那哪个API是cudnn的? 这几天又跟tf slim做了好一番斗争。似乎终于弄对了。
1 (共1页)
进入Programming版参与讨论
相关主题
Google员工给的api talk胡扯几句什么叫Deep Learning入门
bad news:Oracle wins, Google loses in copyright ruling on J (转载)Pytorch靠谱吗?
选择 WCF 还是 ASP.NET WebApixgboost 训练大数据问题
Clock() problempytorch技术上先进一些?
各位看好pytorch么?tf keras 这么多坑?
问个autoconf的问题tensorflow的design
GPU的本质请教关于OpenNLP 和 Stanford NLP 选择
mxnet 这个东西有人用么?HW Question: Bipartite Graphs
相关话题的讨论汇总
话题: tf话题: pytorch话题: cudnn话题: 做到话题: 为什么