i*******D 发帖数: 993 | 1 比如普通的xeon cpu的机器。用来从800x600的图片中把特定物体边界识别出来。可以
用caffe搭个cnn出来吧。那么在这种应用下,是不是一种选择就是cpu+ram来算,即便
是双xeon的cpu+32gb的ram算起来也不如一个1050的显卡和4g显存算起来快吧?用gpu来
算再用ram的话产生的overhead就非常非常大了吧?那么在这种情况下主要的瓶颈是内
存还是是cpu?我感觉内存决定了多少层和多深?cpu或者gpu决定了运行起来多快,尤
其是训练时候?二者都是随节点数的平方增长的?我是外行哈,就是有点想买个电脑来
以后干点这些工作,有谁做过类似的给点装机指导哈~~提前谢过 |
A***l 发帖数: 461 | 2 上tensorflow吧,比caffe好用多了。
【在 i*******D 的大作中提到】 : 比如普通的xeon cpu的机器。用来从800x600的图片中把特定物体边界识别出来。可以 : 用caffe搭个cnn出来吧。那么在这种应用下,是不是一种选择就是cpu+ram来算,即便 : 是双xeon的cpu+32gb的ram算起来也不如一个1050的显卡和4g显存算起来快吧?用gpu来 : 算再用ram的话产生的overhead就非常非常大了吧?那么在这种情况下主要的瓶颈是内 : 存还是是cpu?我感觉内存决定了多少层和多深?cpu或者gpu决定了运行起来多快,尤 : 其是训练时候?二者都是随节点数的平方增长的?我是外行哈,就是有点想买个电脑来 : 以后干点这些工作,有谁做过类似的给点装机指导哈~~提前谢过
|
i*******D 发帖数: 993 | 3 比如普通的xeon cpu的机器。用来从800x600的图片中把特定物体边界识别出来。可以
用caffe搭个cnn出来吧。那么在这种应用下,是不是一种选择就是cpu+ram来算,即便
是双xeon的cpu+32gb的ram算起来也不如一个1050的显卡和4g显存算起来快吧?用gpu来
算再用ram的话产生的overhead就非常非常大了吧?那么在这种情况下主要的瓶颈是内
存还是是cpu?我感觉内存决定了多少层和多深?cpu或者gpu决定了运行起来多快,尤
其是训练时候?二者都是随节点数的平方增长的?我是外行哈,就是有点想买个电脑来
以后干点这些工作,有谁做过类似的给点装机指导哈~~提前谢过 |
A***l 发帖数: 461 | 4 上tensorflow吧,比caffe好用多了。
【在 i*******D 的大作中提到】 : 比如普通的xeon cpu的机器。用来从800x600的图片中把特定物体边界识别出来。可以 : 用caffe搭个cnn出来吧。那么在这种应用下,是不是一种选择就是cpu+ram来算,即便 : 是双xeon的cpu+32gb的ram算起来也不如一个1050的显卡和4g显存算起来快吧?用gpu来 : 算再用ram的话产生的overhead就非常非常大了吧?那么在这种情况下主要的瓶颈是内 : 存还是是cpu?我感觉内存决定了多少层和多深?cpu或者gpu决定了运行起来多快,尤 : 其是训练时候?二者都是随节点数的平方增长的?我是外行哈,就是有点想买个电脑来 : 以后干点这些工作,有谁做过类似的给点装机指导哈~~提前谢过
|
T*******0 发帖数: 14 | 5 主要瓶颈是显存。GPU在cnn的速度优势不是cpu可比的。在计算的时候,数据会存储在
gpu的显存中。当model过大无法完全存储在显存中的时候,显卡就需要把部分model存
储在内存中,然后需要不断的从内存中掉入、存储model。这时候,cpu和ram的I/O速度
远跟不上gpu的速度,gpu就需要闲置等待I/O结束后再继续计算。
做cv方向的deep learning,cpu/ram不是很重要,好显卡+大显存的用处会大得多得多。
另外,像楼上说的,你可以考虑tensorflow。比caffe强大、灵活。 |