D*******r 发帖数: 2323 | 1 人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。
结果deepmind就说,下一个版本的阿法狗将删除所有人类棋谱的数据,只告诉阿法狗规
则和目标,由阿法狗从零开始自我学习。
看来阿法狗觉得人类的棋谱是被污染了的样本,把纯洁的小狗教坏了。
推测这只从零开始完全自学的狗,才将会下出石破天惊的新布局来。 |
b*******8 发帖数: 37364 | 2 可能下出王吉新遇仙图,证明的确是外星人带来的围棋 |
x**w 发帖数: 7947 | 3 这倒没什么。这其实测的不仅是阿狗的上限,也是围棋的上限。至少这次看,围棋的上
限还是很高的。光靠人脑摸不到边。阿狗能不能摸到实在不清楚。 |
e*g 发帖数: 4981 | 4 超级赛亚人了
【在 D*******r 的大作中提到】 : 人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。 : 结果deepmind就说,下一个版本的阿法狗将删除所有人类棋谱的数据,只告诉阿法狗规 : 则和目标,由阿法狗从零开始自我学习。 : 看来阿法狗觉得人类的棋谱是被污染了的样本,把纯洁的小狗教坏了。 : 推测这只从零开始完全自学的狗,才将会下出石破天惊的新布局来。
|
h*h 发帖数: 27852 | 5 楼主不太懂机器学习吧
阿狗完全靠自学达到现在水平估计也就3个月 |
r******i 发帖数: 1445 | 6 看看结果再说吧。
按照狗狗的那片nature文章,通过自我学习产生的policy神经网络在用于搜索时的表现
不如通过学习人类对局产生的。 |
g***n 发帖数: 14250 | 7 如果学到邪路上去了,整天杀大龙。。。hehe
那也很好看 |
s*****t 发帖数: 1661 | 8 不太懂机器学习。 但是对于复杂函数,蒙特卡罗算法虽然最后都收敛,但是到达手链
状态之前需要的烧入步数,相差非常大的。。。
股沟这么搞,应该是想测试他们算法对于初始值的依赖程度的高低吧。。。说没有依赖
,那数学上是不成立的。。。 |
D*******r 发帖数: 2323 | 9 那也是在有了人类十几万棋谱,三千万局部棋型的基础上学习的。如果这些人类的棋谱
中存在大量的错误和局限性,阿法狗就同样会受这些错误和局限性的影响。
完全不给人工智能任何外部经验,完全看它自我总结会形成什么样的智力,是和人类总
结的经验相近形成和人类相近的智力,还是完全不同于人类总结的经验,但是达到更高
的智力维度。
如果是后者,那真是感觉天网要降临了,因为以后的机器,你只要给它加上各种传感器
,以及高速它一个目标,它就开始日以继夜地不受控地成长了。
【在 h*h 的大作中提到】 : 楼主不太懂机器学习吧 : 阿狗完全靠自学达到现在水平估计也就3个月
|
O**l 发帖数: 12923 | 10 这样不错 只是开始converge慢
但是没有bias 最后上限会高很多 |
|
|
D*******r 发帖数: 2323 | 11 算法这部分是死的,主要是看计算机完全依靠自我的神经网络学习,会得出什么不同于
人类经验的地方。
可以说第一版的人工智能是要把棋下得像人下的,但是强到人赢不了。第二版的人工智
能要把棋下的可能人完全看不懂,完全颠覆人的既有观念,但是人依旧赢不了,不但人
赢不了,第一版的狗也赢不了。
如果第一版和第二版的狗计算力相同,而第一版的狗赢不了第二版的狗,那么说明,高
于人类智力的物种出现了。
【在 s*****t 的大作中提到】 : 不太懂机器学习。 但是对于复杂函数,蒙特卡罗算法虽然最后都收敛,但是到达手链 : 状态之前需要的烧入步数,相差非常大的。。。 : 股沟这么搞,应该是想测试他们算法对于初始值的依赖程度的高低吧。。。说没有依赖 : ,那数学上是不成立的。。。
|
D*******r 发帖数: 2323 | 12 有依据吗?在哪儿看到阿狗完全靠自学达到现在水平的?
【在 h*h 的大作中提到】 : 楼主不太懂机器学习吧 : 阿狗完全靠自学达到现在水平估计也就3个月
|
n*****t 发帖数: 22014 | 13 靠蛮力赢棋,只不过多了个刷题的机器狗,跟智能毫无关系
【在 D*******r 的大作中提到】 : 算法这部分是死的,主要是看计算机完全依靠自我的神经网络学习,会得出什么不同于 : 人类经验的地方。 : 可以说第一版的人工智能是要把棋下得像人下的,但是强到人赢不了。第二版的人工智 : 能要把棋下的可能人完全看不懂,完全颠覆人的既有观念,但是人依旧赢不了,不但人 : 赢不了,第一版的狗也赢不了。 : 如果第一版和第二版的狗计算力相同,而第一版的狗赢不了第二版的狗,那么说明,高 : 于人类智力的物种出现了。
|
D*******r 发帖数: 2323 | 14 别扯了,没有神经网络靠蒙特卡罗搜索的围棋软件出来已经有十多年了,最好的今年一
月被连笑打到让六子。
围棋盘上下一手的可选点有上百个,上百个点下面又有上百个分支,哪些需要计算哪些
根本不用考虑,你告诉我蛮力计算怎么解决?
【在 n*****t 的大作中提到】 : 靠蛮力赢棋,只不过多了个刷题的机器狗,跟智能毫无关系
|
n*****t 发帖数: 22014 | 15 跟以往棋谱的比对,确定最有可能的几个落点,然后计算之后的 20 手
【在 D*******r 的大作中提到】 : 别扯了,没有神经网络靠蒙特卡罗搜索的围棋软件出来已经有十多年了,最好的今年一 : 月被连笑打到让六子。 : 围棋盘上下一手的可选点有上百个,上百个点下面又有上百个分支,哪些需要计算哪些 : 根本不用考虑,你告诉我蛮力计算怎么解决?
|
s*****V 发帖数: 21731 | 16 我倒是觉得阿发狗自学,要么就做不出现在的水平,要么做出来很厉害的应该会是跟现
在类似但是有所不同的东西。如果完全不同,难道说人类之前所有的经验都是走在错误
的道路上?这种可能性很小。 |
D*******r 发帖数: 2323 | 17 现在人工智能要做的就是,你以往的棋谱不见得靠谱,干嘛要和你以往的棋谱比,谁知
道你以往的棋谱里有没有漏算错算,所以人工智能自己对局自己更加结果总结规律,这
不是智能是什么?
【在 n*****t 的大作中提到】 : 跟以往棋谱的比对,确定最有可能的几个落点,然后计算之后的 20 手
|
i***h 发帖数: 12655 | |
g***n 发帖数: 14250 | 19 五路比星位更值钱?hehe 不可能的
不然你去比狗下高一路,肯定一样很惨 |
C**E 发帖数: 2573 | 20 DeepMind这次成功的商业和社会影响力运作,很赞.
但,现在飘飘然了.类似于tesla的马斯克,在起步成功后,就开始吹牛和搞一些不切实际
的想法/运作.
没有初值, 这个成长的计算量级应该靠拢穷举的量级了, 现在的计算机根本达不到,与
学习算法/神经网络/MCTS等无关. DeepMind这个设想,只有未来光子晶体的量子计算机
才可能.
人类,相比电子计算机,胜在"灵感", 有机的生物芯片或许有可能达到"灵感"层次,但这
个又成了纸上扯淡了. 回顾科技和文化历史, 人类更多的是,"师法自然",从大自然--这
个上帝的杰作中--去获取"灵感"和知识方法等.我老记得Brookhaven国家实验室一进大
园子的石碑上的一段话,就是强调关于从自然中的"discovery"的重要性和意义.
我老的两分钱.
呵呵
【在 D*******r 的大作中提到】 : 那也是在有了人类十几万棋谱,三千万局部棋型的基础上学习的。如果这些人类的棋谱 : 中存在大量的错误和局限性,阿法狗就同样会受这些错误和局限性的影响。 : 完全不给人工智能任何外部经验,完全看它自我总结会形成什么样的智力,是和人类总 : 结的经验相近形成和人类相近的智力,还是完全不同于人类总结的经验,但是达到更高 : 的智力维度。 : 如果是后者,那真是感觉天网要降临了,因为以后的机器,你只要给它加上各种传感器 : ,以及高速它一个目标,它就开始日以继夜地不受控地成长了。
|
|
|
h***e 发帖数: 2823 | 21 不受人类已有思路的污染。
这厮是要弄出来一个天庭土生土长的上帝出来啊。
希望练的足够了,再放出来接触人间。 |
t******l 发帖数: 10908 | 22 这个不一定有说的那么玄,绝大部分函数/系统迭代,初始条件的影响很大,有时能导
致结果是收敛还是发散的差别。
而其中不少关键初始条件/初始系数啥的,是设计者调试者经过尝试给出的,俗称
magic number。虽然很多系统设计者调试者可能根本不会下棋,但那些 magic number
是设计者调试者对其后面的数学模型的认知。
从这个角度说,除非 deepmind 能够不仅不用人类棋谱,而且把系统里所有的初始条件
和 magic number 都设在数学上的零点或极点,干干净净的开始狗咬狗进化。这样才够
狠。
当然,也有不排除生出震惊世界的棋局就是了。
:人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。
: |
D*******r 发帖数: 2323 | 23 他只是说做过实验嘛,也没说结果一定会怎样,没准只是为了给头狗做个参照系。
【在 C**E 的大作中提到】 : DeepMind这次成功的商业和社会影响力运作,很赞. : 但,现在飘飘然了.类似于tesla的马斯克,在起步成功后,就开始吹牛和搞一些不切实际 : 的想法/运作. : 没有初值, 这个成长的计算量级应该靠拢穷举的量级了, 现在的计算机根本达不到,与 : 学习算法/神经网络/MCTS等无关. DeepMind这个设想,只有未来光子晶体的量子计算机 : 才可能. : 人类,相比电子计算机,胜在"灵感", 有机的生物芯片或许有可能达到"灵感"层次,但这 : 个又成了纸上扯淡了. 回顾科技和文化历史, 人类更多的是,"师法自然",从大自然--这 : 个上帝的杰作中--去获取"灵感"和知识方法等.我老记得Brookhaven国家实验室一进大 : 园子的石碑上的一段话,就是强调关于从自然中的"discovery"的重要性和意义.
|
k*l 发帖数: 2574 | 24 开始穷举,后来能总结规律节省时间吗?。确实有是否收敛的问题。连最新狗都不够稳
定的话,这个小白狗会不会夭折或者收敛极慢? |
z****g 发帖数: 2497 | 25 狗狗这个有点托大,如果零始狗打不过阿尔法狗,或者说和阿法狗不分伯仲,那就算是
被打脸了吧。。
AI自己练上亿万盘,还是只和人类几十万盘(有这么多吗?)的积累打个平手。
【在 D*******r 的大作中提到】 : 人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。 : 结果deepmind就说,下一个版本的阿法狗将删除所有人类棋谱的数据,只告诉阿法狗规 : 则和目标,由阿法狗从零开始自我学习。 : 看来阿法狗觉得人类的棋谱是被污染了的样本,把纯洁的小狗教坏了。 : 推测这只从零开始完全自学的狗,才将会下出石破天惊的新布局来。
|
O**l 发帖数: 12923 | 26 http://www.mitbbs.com/article_t/Go/31241351.html
我一个月前就说过
人的棋谱bias太大 到一定程度很难提高
其实就是一个迭代 converge更慢 但是最终上限会更高
说穷举的全是文科生 |
t******l 发帖数: 10908 | 27 或者打个比方说,就好比计算机模拟把地球回到最初重来一遍,看看智慧生命是否能自
我生成。
但这个问题是,没 delete 掉地球本身。而地球本身的设置,是生命生成的最大因子之
一。
其实光 delete 掉地球远远不够,还得 delete 掉光速和普朗克常数。这俩常数不对头
的话,连夸克都没有。。。当然,也有可能搞出个 Star Trek 里面的 Q 族智慧生命,
可以不依赖时空而存在。
:这个不一定有说的那么玄,绝大部分函数/系统迭代,初始条件的影响很大,有时能导
:致结果是收敛还是发散的差别。 |
t******l 发帖数: 10908 | 28 如果是仅仅不用人类棋谱,而系统的所有初始条件和 magic number 没有给清到零点和
极点的话,最多只能说明下围棋数学家和马工就够了,整个围棋界和那些专业棋手其实
就是娱乐圈。
当然,围棋这个简单问题,所有初始条件清零可能也有跑牛鼻狗的概率。
:http://www.mitbbs.com/article_t/Go/31241351.html
: |
O**l 发帖数: 12923 | 29 搞笑 不用任何heuristic
纯MCT 局部19*19至少就有业余1D的水平 9*9无敌
MCT self play, train CNN
CNN + MCT self play train CNN'
CNN'+ MCT self play train CNN''
....
MCT rollout纯随机没有任何bias
说穷举的都是文科生
【在 t******l 的大作中提到】 : 如果是仅仅不用人类棋谱,而系统的所有初始条件和 magic number 没有给清到零点和 : 极点的话,最多只能说明下围棋数学家和马工就够了,整个围棋界和那些专业棋手其实 : 就是娱乐圈。 : 当然,围棋这个简单问题,所有初始条件清零可能也有跑牛鼻狗的概率。 : : :http://www.mitbbs.com/article_t/Go/31241351.html : :
|
h*********r 发帖数: 10182 | 30 google的目的不是围棋。围棋的问题已经解决了。
而是这个深度学习的算法。他想试试不受人类的走法影响,只用机器纯自我学习会达到
什么高度。
在一些简单的游戏里,这个机器的自学可以完全找到最优解。现在想试试复杂的围棋。 |
|
|
t******l 发帖数: 10908 | 31 不熟悉围棋电算,但如果纯 MCT 里没有任何 magic number,随机数不需要 condition
,那围棋确实是体育运动。
不过更重要的事,deep neuro network 是不是要设初始条件和 magic number,还是照
paper 一抄直接上 MCT 结果就直接可以 train 了?
:搞笑 不用任何heuristic
: |
O**l 发帖数: 12923 | 32 MCT != monte carlo
condition
【在 t******l 的大作中提到】 : 不熟悉围棋电算,但如果纯 MCT 里没有任何 magic number,随机数不需要 condition : ,那围棋确实是体育运动。 : 不过更重要的事,deep neuro network 是不是要设初始条件和 magic number,还是照 : paper 一抄直接上 MCT 结果就直接可以 train 了? : : :搞笑 不用任何heuristic : :
|
t******l 发帖数: 10908 | 33 另外我没说穷举法。其实穷举法倒是不需要任何初始条件以及 magic number。
:搞笑 不用任何heuristic
: |
C**E 发帖数: 2573 | 34 我老个人认为你对初值地理解更深入, ozil对初值系统的理解很浅薄, 但他总是以为自
己全懂了.
就好比对金融的理解一样,ozil对tesla和solar city的技术问题也是满口名词,一深入
就眯瞪了.
金博士点评Ozil.
http://www.mitbbs.com/clubarticle_t/stockbash/31457953.html
呵呵
condition
【在 t******l 的大作中提到】 : 不熟悉围棋电算,但如果纯 MCT 里没有任何 magic number,随机数不需要 condition : ,那围棋确实是体育运动。 : 不过更重要的事,deep neuro network 是不是要设初始条件和 magic number,还是照 : paper 一抄直接上 MCT 结果就直接可以 train 了? : : :搞笑 不用任何heuristic : :
|
D******n 发帖数: 2965 | 35 倒不是看不起deepmind, 但他们这个目标比现在狗狗要更困难的多,至少理论上没有能
证明这个machine learning的过程一定是会converge的,弄不好会是个循环打圈圈。站
在人类的肩膀上来学习,虽说不能保证最终能收敛到神的水平,但可以保证打败人类。
现在狗狗能打败人,但不能说明能收敛到绝对正确的地步。
【在 D*******r 的大作中提到】 : 人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。 : 结果deepmind就说,下一个版本的阿法狗将删除所有人类棋谱的数据,只告诉阿法狗规 : 则和目标,由阿法狗从零开始自我学习。 : 看来阿法狗觉得人类的棋谱是被污染了的样本,把纯洁的小狗教坏了。 : 推测这只从零开始完全自学的狗,才将会下出石破天惊的新布局来。
|
D******n 发帖数: 2965 | 36 说到底还是因为无法证明最优策略的唯一性和收敛性。自我学习完全有可能是坐井观天
。更人类学好歹是和人类在一个井里数星星。
【在 r******i 的大作中提到】 : 看看结果再说吧。 : 按照狗狗的那片nature文章,通过自我学习产生的policy神经网络在用于搜索时的表现 : 不如通过学习人类对局产生的。
|
t*****9 发帖数: 10416 | 37 第二版出来,谷歌只需要拿第一版的狗 测试,p民 根本不知道大祸当前 ~~
【在 D*******r 的大作中提到】 : 算法这部分是死的,主要是看计算机完全依靠自我的神经网络学习,会得出什么不同于 : 人类经验的地方。 : 可以说第一版的人工智能是要把棋下得像人下的,但是强到人赢不了。第二版的人工智 : 能要把棋下的可能人完全看不懂,完全颠覆人的既有观念,但是人依旧赢不了,不但人 : 赢不了,第一版的狗也赢不了。 : 如果第一版和第二版的狗计算力相同,而第一版的狗赢不了第二版的狗,那么说明,高 : 于人类智力的物种出现了。
|
D*******r 发帖数: 2323 | 38 这个事情得这么理解,deepmind的目的是揭开人的智能之谜,而不是为了研发一款电脑
围棋软件。
假设有两个孩子,只告诉他们围棋的规则与游戏目标,然后让他们任意在盘上开始玩,
孩子们大概要多长时间会自己总结出一些规律和棋理来?然后这两个孩子可以把他们总
结出的规律和棋理告诉给另外完全不会围棋的孩子。换句话说,突然今天世界上所有的
围棋棋谱都烧毁了,所有会围棋的人都死绝了,只留下一本围棋规则手册,后人有人根
据这本手册开始从零开始玩围棋,人类要经过多少代的总结和练习,能重新达到今天的
围棋水平?
deepmind让贝塔狗从零开始学围棋,大概就是想模拟两个没有外界老师的孩子学围棋,
看它学习的增长速率和从零开始学围棋的人相比如何,总结出的经验和规律是否有差距?
【在 D******n 的大作中提到】 : 倒不是看不起deepmind, 但他们这个目标比现在狗狗要更困难的多,至少理论上没有能 : 证明这个machine learning的过程一定是会converge的,弄不好会是个循环打圈圈。站 : 在人类的肩膀上来学习,虽说不能保证最终能收敛到神的水平,但可以保证打败人类。 : 现在狗狗能打败人,但不能说明能收敛到绝对正确的地步。
|
D******n 发帖数: 2965 | 39 在你说的情况下,人类经过很多代的学习,可能会到达一个完全不同的认识。在有限理
性下,会不会收敛都不知道,更别说即使收敛,如果有多重均衡怎么办的问题。
我觉得你有点太迷信机器的学习能力了,机器只是计算能力强,存储能力强而已,但也
有自己的局限,要不然就不会有NP这一说了。真正能力强的,是老天。这次比赛,无非
是说了一旦机器学习了人类既有围棋知识,就能战胜人类,如此而已。不要因此而神化
机器。
距?
【在 D*******r 的大作中提到】 : 这个事情得这么理解,deepmind的目的是揭开人的智能之谜,而不是为了研发一款电脑 : 围棋软件。 : 假设有两个孩子,只告诉他们围棋的规则与游戏目标,然后让他们任意在盘上开始玩, : 孩子们大概要多长时间会自己总结出一些规律和棋理来?然后这两个孩子可以把他们总 : 结出的规律和棋理告诉给另外完全不会围棋的孩子。换句话说,突然今天世界上所有的 : 围棋棋谱都烧毁了,所有会围棋的人都死绝了,只留下一本围棋规则手册,后人有人根 : 据这本手册开始从零开始玩围棋,人类要经过多少代的总结和练习,能重新达到今天的 : 围棋水平? : deepmind让贝塔狗从零开始学围棋,大概就是想模拟两个没有外界老师的孩子学围棋, : 看它学习的增长速率和从零开始学围棋的人相比如何,总结出的经验和规律是否有差距?
|
O**l 发帖数: 12923 | 40 和人学很容易local optima
MCT 本身就有真没 足够simualtion次数下纯MCT强于加heuristic的MCT
CNN的autoencoder的能力还是很强 没有bias的情况下
找到一个比人好的local optima是很可能的事
【在 D******n 的大作中提到】 : 在你说的情况下,人类经过很多代的学习,可能会到达一个完全不同的认识。在有限理 : 性下,会不会收敛都不知道,更别说即使收敛,如果有多重均衡怎么办的问题。 : 我觉得你有点太迷信机器的学习能力了,机器只是计算能力强,存储能力强而已,但也 : 有自己的局限,要不然就不会有NP这一说了。真正能力强的,是老天。这次比赛,无非 : 是说了一旦机器学习了人类既有围棋知识,就能战胜人类,如此而已。不要因此而神化 : 机器。 : : 距?
|
|
|
E*******1 发帖数: 3464 | 41 我看你才不懂什么是machine learning,ML前提就是有数据支撑,当然要有prior的模
型支持,通过数据找拟合最好的模型和它的参数,说白了一切AI的根本就是个fitting
,你没有数据fit什么?当然,当整个模型参数基本确定之后,数据就不是非常重要了
,通过outsample的样本可以不断长进
【在 h*h 的大作中提到】 : 楼主不太懂机器学习吧 : 阿狗完全靠自学达到现在水平估计也就3个月
|
O**l 发帖数: 12923 | 42 MCT 自己对自己下 生产数据
fitting
【在 E*******1 的大作中提到】 : 我看你才不懂什么是machine learning,ML前提就是有数据支撑,当然要有prior的模 : 型支持,通过数据找拟合最好的模型和它的参数,说白了一切AI的根本就是个fitting : ,你没有数据fit什么?当然,当整个模型参数基本确定之后,数据就不是非常重要了 : ,通过outsample的样本可以不断长进
|
a****o 发帖数: 6612 | 43 很有道理。不知道为什么版上有几位整不明白。
围棋本来就是人发明的。发明人(假定不是外星人的话)难道不是从零开始的。
只要告诉规则,完全可以用monte carlo的方法对出几百万对局来。然后training,然
后用training之后的alphago对上几百万局;然后再training;一层一层之后,看是否能
converge。
我个人觉得对局的质量会提高,整体会converge的。
距?
【在 D*******r 的大作中提到】 : 这个事情得这么理解,deepmind的目的是揭开人的智能之谜,而不是为了研发一款电脑 : 围棋软件。 : 假设有两个孩子,只告诉他们围棋的规则与游戏目标,然后让他们任意在盘上开始玩, : 孩子们大概要多长时间会自己总结出一些规律和棋理来?然后这两个孩子可以把他们总 : 结出的规律和棋理告诉给另外完全不会围棋的孩子。换句话说,突然今天世界上所有的 : 围棋棋谱都烧毁了,所有会围棋的人都死绝了,只留下一本围棋规则手册,后人有人根 : 据这本手册开始从零开始玩围棋,人类要经过多少代的总结和练习,能重新达到今天的 : 围棋水平? : deepmind让贝塔狗从零开始学围棋,大概就是想模拟两个没有外界老师的孩子学围棋, : 看它学习的增长速率和从零开始学围棋的人相比如何,总结出的经验和规律是否有差距?
|
t******l 发帖数: 10908 | 44 隔行如隔山,吓得我刚才 wiki 了一下,好像还是用到随机数发生器吧。
http://en.wikipedia.org/wiki/Monte_Carlo_tree_search
不过另一个角度说,MCT 也隐含了人类对围棋型 game 的理解。
严格的说 MCT 和 MCT 的结果都不应该用,纯粹从围棋规则开始训练,
只能从 穷举 以及 unbiased 随机选择开始。因为这个才是人类
尝试调试的起点。
【在 O**l 的大作中提到】 : MCT 自己对自己下 生产数据 : : fitting
|
D******n 发帖数: 2965 | 45 胡扯也就算了,还扯这么细,哎
【在 a****o 的大作中提到】 : 很有道理。不知道为什么版上有几位整不明白。 : 围棋本来就是人发明的。发明人(假定不是外星人的话)难道不是从零开始的。 : 只要告诉规则,完全可以用monte carlo的方法对出几百万对局来。然后training,然 : 后用training之后的alphago对上几百万局;然后再training;一层一层之后,看是否能 : converge。 : 我个人觉得对局的质量会提高,整体会converge的。 : : 距?
|
t******l 发帖数: 10908 | 46 monte carlo tree 不是 naive 地随机地在树里面乱跑。。。否则叫
monte carlo method。。。当然都是黑话。
不过如果计算力够强,那从 monte carlo method 可能也能弄到几万对局的
起点。
【在 a****o 的大作中提到】 : 很有道理。不知道为什么版上有几位整不明白。 : 围棋本来就是人发明的。发明人(假定不是外星人的话)难道不是从零开始的。 : 只要告诉规则,完全可以用monte carlo的方法对出几百万对局来。然后training,然 : 后用training之后的alphago对上几百万局;然后再training;一层一层之后,看是否能 : converge。 : 我个人觉得对局的质量会提高,整体会converge的。 : : 距?
|
O**l 发帖数: 12923 | 47 MCT的核心是UCB
UCB在结果0-1之间 converge的速度是montecarlo的百万倍
你可以搜mogo 2007年的那篇paper
什么都不做纯用mct 局部都能有kgs 1d的水平
【在 t******l 的大作中提到】 : 隔行如隔山,吓得我刚才 wiki 了一下,好像还是用到随机数发生器吧。 : http://en.wikipedia.org/wiki/Monte_Carlo_tree_search : 不过另一个角度说,MCT 也隐含了人类对围棋型 game 的理解。 : 严格的说 MCT 和 MCT 的结果都不应该用,纯粹从围棋规则开始训练, : 只能从 穷举 以及 unbiased 随机选择开始。因为这个才是人类 : 尝试调试的起点。
|
n******r 发帖数: 4455 | 48 楼主有点过度解读,这是哈萨比的原话,不用棋谱是为了测试算法在无初始条件下的表
现,认为这样做会化很长时间,也不会让程序更强
问:在起步之初,AlphaGo被教给了许多棋型模式。考虑到用户的输入信息多种多样,
这种技术将如何应用至智能手机?
哈萨比斯:是的,数据量很大,你可以利用数据去学习。但就AlphaGo的算法而言
,我们认为可以不再规定受控的学习起点,完全放手让其自学,从零起步。我们将在未
来几个月进行这样的尝试。这会花更长的时间,可能是几个月,因为不按棋谱随机下棋
意味着更多的尝试和试错。但我们认为,这种纯粹依靠自学的模式是可行的。
问:出现这样的可能性是否是由于算法已发展到目前的程度?
哈萨比斯:不是的。我们之前也可以这样做。这样做不会让程序更强大,这只是为
了尝试纯粹的自学,摆脱人为控制的部分。我们认为,这一算法可以在不受控的情况下
运转。我们去年让人工智能去玩Atari的游戏,人工智能从像素点的研究起步,这其中
没有掺杂任何人类知识。人工智能从屏幕上的随机像素开始。 |
D******n 发帖数: 2965 | 49 如果在普遍情况下(譬如围棋的环境下),让程序根据规则自我找到最优能实现的话,
就不是google买下deepmind, 而是deepmind买下google的问题了。
【在 n******r 的大作中提到】 : 楼主有点过度解读,这是哈萨比的原话,不用棋谱是为了测试算法在无初始条件下的表 : 现,认为这样做会化很长时间,也不会让程序更强 : 问:在起步之初,AlphaGo被教给了许多棋型模式。考虑到用户的输入信息多种多样, : 这种技术将如何应用至智能手机? : 哈萨比斯:是的,数据量很大,你可以利用数据去学习。但就AlphaGo的算法而言 : ,我们认为可以不再规定受控的学习起点,完全放手让其自学,从零起步。我们将在未 : 来几个月进行这样的尝试。这会花更长的时间,可能是几个月,因为不按棋谱随机下棋 : 意味着更多的尝试和试错。但我们认为,这种纯粹依靠自学的模式是可行的。 : 问:出现这样的可能性是否是由于算法已发展到目前的程度? : 哈萨比斯:不是的。我们之前也可以这样做。这样做不会让程序更强大,这只是为
|
s*****V 发帖数: 21731 | 50 如果人类的方法是local optima,按照你的说法,用MCT发现致胜pattern然后用CNN
record,完全也可以TRAP到某个其他的LOCAL optima里面去
【在 O**l 的大作中提到】 : 和人学很容易local optima : MCT 本身就有真没 足够simualtion次数下纯MCT强于加heuristic的MCT : CNN的autoencoder的能力还是很强 没有bias的情况下 : 找到一个比人好的local optima是很可能的事
|
|
|
t******l 发帖数: 10908 | 51 看来下下月打算把 UCB 当小说看看了。
不过 UCB 是人类发明的成果不是,显然不是阿尔法狗的创造。
说到底,最多只能证明 delete 围棋界也不影响 AI 的发展,没法证明
delete 掉数学界计算科学界,也能自发生成 AI 啊啊啊。。。// run
【在 O**l 的大作中提到】 : MCT的核心是UCB : UCB在结果0-1之间 converge的速度是montecarlo的百万倍 : 你可以搜mogo 2007年的那篇paper : 什么都不做纯用mct 局部都能有kgs 1d的水平
|
O**l 发帖数: 12923 | 52 不穷尽肯定都是local optima
但是纯MCT只受规则影响 没有任何heuristic
应该数据bias更小 理论上训练效果应该更好
这也是为什么deepmind想这样做的原因
【在 s*****V 的大作中提到】 : 如果人类的方法是local optima,按照你的说法,用MCT发现致胜pattern然后用CNN : record,完全也可以TRAP到某个其他的LOCAL optima里面去
|
O**l 发帖数: 12923 | 53 你这个层次太高了吧
我只是说这个方法可能可行
不用拔高到这么高吧
【在 t******l 的大作中提到】 : 看来下下月打算把 UCB 当小说看看了。 : 不过 UCB 是人类发明的成果不是,显然不是阿尔法狗的创造。 : 说到底,最多只能证明 delete 围棋界也不影响 AI 的发展,没法证明 : delete 掉数学界计算科学界,也能自发生成 AI 啊啊啊。。。// run
|
t******l 发帖数: 10908 | 54 但我不在乎围棋可行不可行,反正就是个游戏,就好比证明黎曼假说。
更重要的还是人工智能的实用哲学意思不是?
【在 O**l 的大作中提到】 : 你这个层次太高了吧 : 我只是说这个方法可能可行 : 不用拔高到这么高吧
|
O**l 发帖数: 12923 | 55 阿法狗用的方法讲白了就是一种优化的穷举
和AI根本不搭边
【在 t******l 的大作中提到】 : 但我不在乎围棋可行不可行,反正就是个游戏,就好比证明黎曼假说。 : 更重要的还是人工智能的实用哲学意思不是?
|
n******t 发帖数: 4406 | 56 这是纯扯淡。
等于先拿个软柿子捏,然后扯自己其实硬柿子也行。什么玩意。。
【在 D*******r 的大作中提到】 : 人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。 : 结果deepmind就说,下一个版本的阿法狗将删除所有人类棋谱的数据,只告诉阿法狗规 : 则和目标,由阿法狗从零开始自我学习。 : 看来阿法狗觉得人类的棋谱是被污染了的样本,把纯洁的小狗教坏了。 : 推测这只从零开始完全自学的狗,才将会下出石破天惊的新布局来。
|
t******l 发帖数: 10908 | 57 有可能,MCT 本身也可能 trap 在某型 local optima 里面,就好比猴子
看不到如来之手。。。
【在 s*****V 的大作中提到】 : 如果人类的方法是local optima,按照你的说法,用MCT发现致胜pattern然后用CNN : record,完全也可以TRAP到某个其他的LOCAL optima里面去
|
t******l 发帖数: 10908 | 58 真正的 AI 目前好像还是玄学吧。
实用上我觉得还不如这种优化的穷举,至少看能指望 it 能拍西瓜。
【在 O**l 的大作中提到】 : 阿法狗用的方法讲白了就是一种优化的穷举 : 和AI根本不搭边
|
n******r 发帖数: 4455 | 59 你说的这个几十年前就讨论过了,有人是觉得只有strong AI才是真AI
但是搞AI的还是得吃饭啊,不能说weak AI的成果就和AI不搭边了
【在 O**l 的大作中提到】 : 阿法狗用的方法讲白了就是一种优化的穷举 : 和AI根本不搭边
|
h*h 发帖数: 27852 | 60 国象可以72小时从0自学到国际大师
fitting
【在 E*******1 的大作中提到】 : 我看你才不懂什么是machine learning,ML前提就是有数据支撑,当然要有prior的模 : 型支持,通过数据找拟合最好的模型和它的参数,说白了一切AI的根本就是个fitting : ,你没有数据fit什么?当然,当整个模型参数基本确定之后,数据就不是非常重要了 : ,通过outsample的样本可以不断长进
|
|
|
t******l 发帖数: 10908 | 61 属实
【在 n******r 的大作中提到】 : 你说的这个几十年前就讨论过了,有人是觉得只有strong AI才是真AI : 但是搞AI的还是得吃饭啊,不能说weak AI的成果就和AI不搭边了
|
s***u 发帖数: 80 | 62 这个真说不好,以前是计算力不到,
计算力到了,44是不是比45、55好谁知道呢,
alphago看上去非常重视中腹
【在 g***n 的大作中提到】 : 五路比星位更值钱?hehe 不可能的 : 不然你去比狗下高一路,肯定一样很惨
|
n****g 发帖数: 14743 | 63 很好。
【在 D*******r 的大作中提到】 : 人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。 : 结果deepmind就说,下一个版本的阿法狗将删除所有人类棋谱的数据,只告诉阿法狗规 : 则和目标,由阿法狗从零开始自我学习。 : 看来阿法狗觉得人类的棋谱是被污染了的样本,把纯洁的小狗教坏了。 : 推测这只从零开始完全自学的狗,才将会下出石破天惊的新布局来。
|
a*****g 发帖数: 19398 | 64 不错,我去下载一个,看看如何学习的,拿来教小朋友
【在 D*******r 的大作中提到】 : 人类声称阿法狗是站在人类棋谱的肩膀上学习才达到今天的棋力的。 : 结果deepmind就说,下一个版本的阿法狗将删除所有人类棋谱的数据,只告诉阿法狗规 : 则和目标,由阿法狗从零开始自我学习。 : 看来阿法狗觉得人类的棋谱是被污染了的样本,把纯洁的小狗教坏了。 : 推测这只从零开始完全自学的狗,才将会下出石破天惊的新布局来。
|
E*******1 发帖数: 3464 | 65 首先肯定要数据,其次国际象棋的模型在过去20年之后已经成熟,比如你一个线性拟合
本来参数都有了,两下子调出来对于AI不是很正常嘛?这和我说的一点矛盾没有
【在 h*h 的大作中提到】 : 国象可以72小时从0自学到国际大师 : : fitting
|
gw 发帖数: 2175 | 66 算好了第一步应该是天元
【在 s***u 的大作中提到】 : 这个真说不好,以前是计算力不到, : 计算力到了,44是不是比45、55好谁知道呢, : alphago看上去非常重视中腹
|