s********k 发帖数: 6180 | |
f**********r 发帖数: 2137 | |
r****t 发帖数: 10904 | 3 同问,pytorch model 怎么减少内存需求?最近玩了一个一上来就要分配7G内存,太贵
了。
【在 s********k 的大作中提到】 : RT
|
x****u 发帖数: 44466 | |
x****u 发帖数: 44466 | 5 7G内存不贵啊,7G显存才贵
【在 r****t 的大作中提到】 : 同问,pytorch model 怎么减少内存需求?最近玩了一个一上来就要分配7G内存,太贵 : 了。
|
r****t 发帖数: 10904 | 6 7G内存的instance比1G的可贵不少。
【在 x****u 的大作中提到】 : 7G内存不贵啊,7G显存才贵
|
x****u 发帖数: 44466 | 7 追求性价比的话,只能浪费内存而不能浪费显存啊
【在 r****t 的大作中提到】 : 7G内存的instance比1G的可贵不少。
|
r****t 发帖数: 10904 | 8 带显存的就更贵,更玩不起了,本来创造的价值就比较软,用显存margin直线下降。
【在 x****u 的大作中提到】 : 追求性价比的话,只能浪费内存而不能浪费显存啊
|
p***o 发帖数: 1252 | 9 pytorch这些免费,利润就会从其他地方来了。
【在 r****t 的大作中提到】 : 带显存的就更贵,更玩不起了,本来创造的价值就比较软,用显存margin直线下降。
|
x****u 发帖数: 44466 | 10 可以部署到客户端去
【在 r****t 的大作中提到】 : 带显存的就更贵,更玩不起了,本来创造的价值就比较软,用显存margin直线下降。
|
s********k 发帖数: 6180 | 11 ONNX是不错,不过听FB人说pytorch今后的支持有限了,比如发现ONNX不支持
sparsetensor, FB那个libtorch,有人用过吗
【在 f**********r 的大作中提到】 : onnx
|
s********k 发帖数: 6180 | 12 你是model本来就这么大吗?那只能裁剪model,CV还是NLP的?
【在 r****t 的大作中提到】 : 同问,pytorch model 怎么减少内存需求?最近玩了一个一上来就要分配7G内存,太贵 : 了。
|