k****f 发帖数: 3794 | 1 看了一下手册,感觉就是拼处理器个数的
按照单个指令速度,比intel的cpu差多了
cuda里面说,一个加法用4个周期,乘法要多一些,除法就更多了
那些峰值速度,哪些程序能接近呢?? | w***g 发帖数: 5958 | 2 CUDA这东西最大的问题就是memory bandwidth. GPU跟main memory之间的带宽是一个瓶
颈. 对于那些用迭代法解方程之类的问题, 如果所有的数据都能放进GPU, 那自然很好
, 但是对大规模数据集其实GPU帮助并不大. 还有就是GPU的散热问题是很严重的, 这也
是GPGPU目前还不能被应用在服务器领域的一个原因.
CUDA目前发展还很不成熟, 编个正确的程序不难, 但是要手工优化内存地址的依赖关系
还是很难的.
【在 k****f 的大作中提到】 : 看了一下手册,感觉就是拼处理器个数的 : 按照单个指令速度,比intel的cpu差多了 : cuda里面说,一个加法用4个周期,乘法要多一些,除法就更多了 : 那些峰值速度,哪些程序能接近呢??
| r*********r 发帖数: 3195 | 3 用 Tesla, 内存还是不小的. 一块C1060 就有4GB | k****f 发帖数: 3794 | 4 tesla太变态了,那么大内存的。
不过下一代GT300马上要出来的,据说有480个核心,速度应该在2G左右
算下来,有1T的速度了
【在 r*********r 的大作中提到】 : 用 Tesla, 内存还是不小的. 一块C1060 就有4GB
| r*********r 发帖数: 3195 | 5 图形卡的供电散热确实有问题, 虽然峰值很高, 但是不能持续.
如果做 server side 计算, 还是要用 tesla.
现在做 machine learning, data mining 的, cuda 很热门.
跟 cluster 比起来, 感觉编程还是要简单一点. | p****f 发帖数: 251 | 6 不用学了,DUDA一定会被Larrabee淘汰。
【在 k****f 的大作中提到】 : 看了一下手册,感觉就是拼处理器个数的 : 按照单个指令速度,比intel的cpu差多了 : cuda里面说,一个加法用4个周期,乘法要多一些,除法就更多了 : 那些峰值速度,哪些程序能接近呢??
| r******y 发帖数: 3838 | |
|