w*****r 发帖数: 197 | 1 有在这个领域的资深老兵吗?
1,加速卡方面,除了nvidia,江湖老二是谁?
2,目前在云上的跑的AI应用主要有哪些?
3,云端的加速软硬件这个赛道,目前是刚刚开始,高速增长,还是接近平台期了? |
l*******m 发帖数: 1096 | 2 从全世界计算量来讲,tpu第二
【在 w*****r 的大作中提到】 : 有在这个领域的资深老兵吗? : 1,加速卡方面,除了nvidia,江湖老二是谁? : 2,目前在云上的跑的AI应用主要有哪些? : 3,云端的加速软硬件这个赛道,目前是刚刚开始,高速增长,还是接近平台期了?
|
w*****r 发帖数: 197 | 3 我靠,把tpu给忘了。
我朝现在大炼芯片,不吹不黑,做得怎么样?
【在 l*******m 的大作中提到】 : 从全世界计算量来讲,tpu第二
|
l*******m 发帖数: 1096 | 4 深学芯片设计不难,软件就是tvm compiler大法。目前其他推理芯片还有人用。训练都
用女大的吧。别的精度可能都不是32bit的,bug多,速度还没女大的快。TPU也就是狗
自己用,但现在狗放出来的code都是基于tpu的,一些公司在上面改改也就在tpu上跑了
。狗家还免费送tpu机时给老师学生,希望提供更多的open source. 没有有用的代码,
谁从头在tpu上跑
【在 w*****r 的大作中提到】 : 我靠,把tpu给忘了。 : 我朝现在大炼芯片,不吹不黑,做得怎么样?
|
f*******t 发帖数: 7549 | 5 生态最重要。狗不卖tpu硬件,上了狗云的船就下不去了,就算价格比女大低也不容易
推广。
【在 l*******m 的大作中提到】 : 深学芯片设计不难,软件就是tvm compiler大法。目前其他推理芯片还有人用。训练都 : 用女大的吧。别的精度可能都不是32bit的,bug多,速度还没女大的快。TPU也就是狗 : 自己用,但现在狗放出来的code都是基于tpu的,一些公司在上面改改也就在tpu上跑了 : 。狗家还免费送tpu机时给老师学生,希望提供更多的open source. 没有有用的代码, : 谁从头在tpu上跑
|
w*****r 发帖数: 197 | 6 tvm下面是不是跟类似cudnn的lib对接?基于自己的芯片,起一套类似cudnn的软件,没
那么不简单吧?
【在 l*******m 的大作中提到】 : 深学芯片设计不难,软件就是tvm compiler大法。目前其他推理芯片还有人用。训练都 : 用女大的吧。别的精度可能都不是32bit的,bug多,速度还没女大的快。TPU也就是狗 : 自己用,但现在狗放出来的code都是基于tpu的,一些公司在上面改改也就在tpu上跑了 : 。狗家还免费送tpu机时给老师学生,希望提供更多的open source. 没有有用的代码, : 谁从头在tpu上跑
|
h**********c 发帖数: 4120 | 7 挖到bits糠,云用户和母公司有分成么?
yes or no |
l*******m 发帖数: 1096 | 8 要提供基本的操作,深学没几个计算操作,实现出来并不难。cudnn一是优化好,而是
算法多,卷积就有10种左右算法,给你提供优化空间。所以搞个简单的确实不难
【在 w*****r 的大作中提到】 : tvm下面是不是跟类似cudnn的lib对接?基于自己的芯片,起一套类似cudnn的软件,没 : 那么不简单吧?
|
w***g 发帖数: 5958 | 9 最近看到pytorch已经支持amd的框架了。
真是卷得停不下来。三天一小版五天一大版。代码要一个月不跑,都不一定还能跑起来。
【在 w*****r 的大作中提到】 : 有在这个领域的资深老兵吗? : 1,加速卡方面,除了nvidia,江湖老二是谁? : 2,目前在云上的跑的AI应用主要有哪些? : 3,云端的加速软硬件这个赛道,目前是刚刚开始,高速增长,还是接近平台期了?
|
w*****r 发帖数: 197 | 10 AI compiler 貌似最近很火。我已经准备放弃深学应用,下沉搞utility了。
来。
【在 w***g 的大作中提到】 : 最近看到pytorch已经支持amd的框架了。 : 真是卷得停不下来。三天一小版五天一大版。代码要一个月不跑,都不一定还能跑起来。
|
l*******m 发帖数: 1096 | 11 大牛们钻研业务令人佩服。炒炒股就没心思往深里搞。话说女大,以前是炒AI,现在是
挖币和元空间了 |