f******2 发帖数: 2455 | |
h*i 发帖数: 3446 | 2 My comment :stupid,not even wrong |
C*****l 发帖数: 1 | 3 语言是一种高层次智能,最终还是要有世界模型,我始终觉得人工智能需要从低端走起
,比如视觉,听觉,动作控制,自动驾驶可能是人工智能最大的实验场。 |
l*******m 发帖数: 1096 | 4 如果不同意,可以拍马来战, 谁有stoa的结果谁牛B,哈哈
:http://ruder.io/nlp-imagenet/
: |
g****t 发帖数: 31659 | 5 我怀疑stoa结果不会发表的吧。眼看着,手機以外的NLP设备要往十億的量走了。(智
能音箱等)
: 如果不同意,可以拍马来战, 谁有stoa的结果谁牛B,哈哈
: :http://ruder.io/nlp-imagenet/
: :
【在 l*******m 的大作中提到】 : 如果不同意,可以拍马来战, 谁有stoa的结果谁牛B,哈哈 : : :http://ruder.io/nlp-imagenet/ : :
|
l*******m 发帖数: 1096 | 6 有那么多的public datasets. 流行的模型都是创造当时的STOA。
【在 g****t 的大作中提到】 : 我怀疑stoa结果不会发表的吧。眼看着,手機以外的NLP设备要往十億的量走了。(智 : 能音箱等) : : : 如果不同意,可以拍马来战, 谁有stoa的结果谁牛B,哈哈 : : :http://ruder.io/nlp-imagenet/ : : : :
|
h*******8 发帖数: 1 | 7 我始终有种错误的感觉。总感觉到现在的各种学习方法。就是靠计算力和数据的暴力破
解。也没比以前有啥高级。 就是大力出奇迹。和智能没啥关系。我是不是错了? |
l*******m 发帖数: 1096 | |
C*****l 发帖数: 1 | 9 网络结构的搜索空间是Gigantic的,甚至人脑的结构都不敢说是最优的。
【在 l*******m 的大作中提到】 : bert没出来几个月,又被秒了 : https://twitter.com/quocleix/status/1141511813709717504
|
l*******m 发帖数: 1096 | 10 是的,至少人脑是能量受限的。还有NLP是从全体人类的知识学而不是单个人的,一般
人读不了基本书。机器可以一天就能把所有的wiki看完
【在 C*****l 的大作中提到】 : 网络结构的搜索空间是Gigantic的,甚至人脑的结构都不敢说是最优的。
|
s********k 发帖数: 6180 | 11 TPU训练两天,估计GPU得要一个月以上
【在 l*******m 的大作中提到】 : bert没出来几个月,又被秒了 : https://twitter.com/quocleix/status/1141511813709717504
|
r****t 发帖数: 10904 | 12 这些Bert之类的model用一类任务来bench,这个bench如果不靠谱,学到了什么就难说
了。
【在 l*******m 的大作中提到】 : 是的,至少人脑是能量受限的。还有NLP是从全体人类的知识学而不是单个人的,一般 : 人读不了基本书。机器可以一天就能把所有的wiki看完
|