由买买提看人间百态

topics

全部话题 - 话题: 神经网络
首页 上页 1 2 3 4 5 6 7 8 9 10 下页 末页 (共10页)
n********g
发帖数: 6504
1
数据与算法之美 Today
全世界只有3.14 % 的人关注了
数据与算法之美
人工智能是一个很大的谎言。
或者往轻了说,它是一个混淆概念。往重了说,是用来欺骗大众的流行语,并且流行度
非常高。
其实真正的内涵是“机器学习”。所以,真正强大的,每个人都应该为此感到兴奋并不
是所谓的人工智能。
另一方面,人工智能确实为一些好玩的段子提供了特别棒的素材。所以,戴上你的质疑
之帽,是时候来一场人工智能版的“揭秘之旅”了!
施瓦辛格的两个标志性角色:幼儿园警察和终结者。
在阅读本文之前,需要明确三点:
1、与AI不同,机器学习完全合理。虽然获得了令人兴奋的进步。然而,这些进步几乎
完全来自于有监督的机器学习,其只能解决有很多标记数据或实例数据的计算机学习问
题。这种形式将机器学习局限在了非常有限的范围。
2、AI什么都不是。AI只不过是一个品牌,一个强大但空洞的承诺。“智慧”的概念完
全是主观的,本质上来自于人类自身。
那些支持人工智能有无限可能的人,包括比尔盖茨和埃隆马斯克,都有同样的假设:人
工智能的发展是一条单行道。他们表示,技术的进步推动着我们沿着这条单行道发展,
直到计算机达到人类... 阅读全帖
v**e
发帖数: 8422
2
陈云霁: 从龙芯1号 到寒武纪的跨越
更新时间:2017-9-7 11:55:25
[智能时代迟早要到来。每个时代都有其核心的物质载体,比如工业时代的
蒸汽机、信息时代的通用CPU,智能时代也将会出现这个核心载体。公司未来想实现的
是让人工智能芯片计算效率提高一万倍,功耗降低一万倍]
大约6亿年前在地质学上被称作“寒武纪”的时代,大量无脊椎动物在短时间
内出现“生命大爆发”。如今,“寒武纪”这个名字再次被人们提及,它源自中科院计
算所研发的人工智能芯片处理器的命名,意喻人工智能即将迎来大爆发的时代。
“寒武纪”8月获得了阿里巴巴领投的1亿美元融资,成为估值超过10亿美元
的智能芯片领域独角兽公司。创始人陈云霁、陈天石兄弟俩也因此“一鸣惊人”,跃入
公众视野。
目前寒武纪终端处理器IP产品已衍生出1A、1H等多个型号,在未来数年,全
世界有数亿终端设备可望通过集成寒武纪处理器,来获得强大的本地智能处理能力。
陈云霁的目标是,让人工智能芯片计算效率提高一万倍,功耗降低一万倍。
要实现这一目标,除了借助资本壮大快速发展自己,还需要陈云霁与陈天石俩兄弟继续
长期以来的“... 阅读全帖
S*****e
发帖数: 6676
3
来自主题: Joke版 - Google人工智能 攻破了围棋,然后呢? 雷锋网 study875 39分钟41秒前 Google日前宣布其程序AlphaGo击败了欧洲围棋职业选手,这意味着人工智能技术又或得了极大的突破。计算机目前已经在许多智力游戏比赛上战胜了人类顶级选手,包括国际象棋、五子棋、黑白棋、拼字游戏等等。而对于有着2500年历史的东方游戏围棋——比国际象棋要复杂得多——人类始终能够保持在和计算机对决中的胜利。不过,Google人工智能专家表示, 这个壁垒或许很快将要被打破。随着AlphaGo在没有任何让子的情况下以5:0完胜法国围棋职业二段棋手樊麾,AlphaGo将在三月份对战韩国九段棋手李世乭。 今天早上,《自然》杂志发表了一篇Google DeepMind团队——程序AlphaGo的创造者撰写的关于深度学习系统的论文。根据论文描述,在AlphaGo中,DeepMind研究员在程序中录入了大量职业棋手的棋谱——加起来多达3000万步——他们用增强学习的方法训练AI,让它自己下棋,研习棋谱。不过这只是第一步。理论上,这样的训练只能让这个人工智能系统无法突破人类的计算。为了获得更好的成绩,研究员随后让系统进行自我博弈,计算出比基础棋谱更多新的打点。也就是说,战胜人类就要靠这些新的东西。 “这其中最重要的是,AlphaGo不仅记录着大量的棋谱,还有一系列规则来指导‘思考’,”DeepMind CEO Demis Hassabis说道,“事实上,该程序能够通过机器学习的方式掌握比赛技巧。” DeepMind的技术核心结合了“强化学习”及其他人工智能手段,这种技术能够用于解决现实机器人执行物理任务和对环境作出回应的技术问题。就是说,要让机器人变得更“自然”。 视觉判断 2014年初, Coulom的围棋程序“疯石(Crazystone)”在一次比赛中战胜九段棋手依田纪基。但是当时是在人类棋手让出4子的情况下赢得比赛,而这次AlphaGo并没有被让子,可以说比赛很公平。 人工智能战胜人类围棋到底有多难?即使是最强大的计算机系统也无法在合理的时间内分析出下一步最优的走法。1997年IBM超级计算机“深蓝”则利用了蒙特卡洛搜索树的方式做到了这一点。“深蓝”能够预测出对手下一步会怎么走,而且计算力远高于人类。但是,围棋要复杂得多。国际象棋每一步平均只有35种可能性的走法,但是围棋呢——在19*19的棋盘内,共有361个点,就机器学习的角度而言,围棋的计算最大有3361种局面,大致的体量是10170,而已经观测到的宇宙中,原子的数量才1080。国际象棋最大只有2155种局面,称为香农数,大致是1047。 使用蒙特卡洛树搜索技术,Crazystone等系统能够进行更长远的计算。而结合其他技术的话,它们能够对可能性走法进行刷选,然后选择出最优的策略。在大多数情况下,它们能够战胜人类选手,但不是最厉害的那一个。顶级大师中,走法很多时候依靠直觉——做棋除了需要计算,还有棋感——棋手能够根据棋形分析攻防线路。“好的棋形看起来顺手多了,”Hassabis本身也是一名围棋手,“这其中不只有计算角力,还有审美。这也是围棋几千年来都让人着迷的原因。” 因此,从2014年至2015年间,包括Facebook、爱丁堡大学、DeepMind等人工智能研究团队都将围棋人工智能系统的突破方向瞄准为——使得程序能够模仿人类的直觉式思维。 自我强化 深度学习要依靠神经网络技术,它是可以模拟人脑中神经元网络的软硬件网络。神经网络不会依靠蛮力或预先输入的规则,而是会分析大量数据,“学习”特定的任务。给神经网络提供足够的喵星人照片,它就能学习识别喵星人;提供足够的语音,它也会学习理解人类的语言;提供足够的围棋走法,它也会学会围棋。 在DeepMind,爱丁堡和Facebook,研究人员希望神经网络能像人类选手一样,通过观看棋盘学习围棋。Facebook在最新的研究中表明,这种方法确实可行。结合深度学习与蒙特卡洛树搜索方法,Facebook打败了一些人类选手,虽然并非是Crazystone和其他顶尖选手。 但DeepMind走得更远。在经过3000万步人类走法的训练后,它的神经网络能以57%的准确度(此前记录是44%)预测人类的下一步。然后Hassabis和团队通过强化学习技术,让这一神经网络与它自己的另一个稍有区别的版本对战。两者互搏中,系统会评估哪一步效果最好,即占领更多棋盘区域。最终,神经网络在判断哪一步更好时会越来越优秀。 DeepMind的研究者David Silver表示,“在与其它神经网络和它自己对战数百万局后,AlphaGo学会了自己发现新策略,并逐渐提高了水平。” 正是这种方法帮AlphaGo超越了其它围棋AI系统,包括Crazystone。但事情还没完,研究人员随后将结果再反馈给第二个神经网络。了解前任的走法了,第二个神经网络会使用许多相同的技术来判断每一步的后果。这一过程与深蓝等旧系统在国际象棋上的做法类似,只是它会在下棋过程中学习,分析更多数据,而非暴力破解所有可能的步骤。这样,AlphaGo不仅能战胜AI,还能战胜顶尖人类选手了。 计算机网络 http://static.cnbetacdn.com/article/2016/0128/7bfcf7e43c9064b.jpg 李世乭 与其它神经网络一样,DeepMind的系统运行在配备了GPU的机器上。GPU最初用于渲染游戏图像,但后来有人发现,它们很适合深度学习。Hassabis表示,DeepMind系统在装备了一定数量GPU芯片的单一电脑上也可以用,但与樊麾对战中,他们用上了更大的计算机网络,其包括170个GPU和1200个标准CPU。大的计算机网络训练了同样的系统并进行了实际对战,还借鉴了训练的结果。 尽管Hassabiss会不断改善系统,但待AlphaGo与韩国选手李世乭对战时,他们会使用相同的配置。比赛中系统也需要网络连接,而且他们会“自己铺设光纤”。 挑战世界冠军比挑战樊麾难得多,但Coulom还是认为DeepMind会赢。他过去数十年一直在开发能打败最好选手的系统,现在他认为这一目标已经实现了,他买GPU会赢。 接下来…… AlphaGo的重要性不言而喻。同样的技术还能用于机器人和科学研究,以及类似于Siri的数字助理和金融系统。深度学习创业Skymind的创始人Chris Nicholson就认为,技术“能用于任何对抗性问题,任何类似于游戏且需要策略的事情,包括战争、商业和交易”。 对有些人来说,这是一件值得忧虑的事,特别是DeepMind的系统还能自己学会下围棋。它不仅能从人类提供的数学中学习,还能生成自己的数据,在与自己下棋中学习。特斯拉创始人埃隆·马斯克等大佬多次声明,这类AI系统会最终超越人类智能,脱离掌控。 幸而DeepMind的系统还在Hassabis等人的控制之下。虽然他们用系统破解了复杂的游戏,但这仍只是个游戏。AlphaGo离人类智能还很远,更不论超级智能了。下棋是一种高度结构化的情景,系统也没有人类级别的理解力。但它代表了一种方向,即如果AI能理解围棋,它也会理解更多事。如果宇宙就是一局超大型的围棋呢? via Wired
这个不能叫做攻破了围棋,LOL。。。二十年前Deep Blue那个时候赢得可是卡斯帕罗夫
,不过你知道是怎么赢得么,还有后来又咋地拉?啥时候要是笔记本上装个软件能把世
界冠军赢了说不定真算赢了。。。
h******e
发帖数: 9616
4
来自主题: Joke版 - Google人工智能 攻破了围棋,然后呢? 雷锋网 study875 39分钟41秒前 Google日前宣布其程序AlphaGo击败了欧洲围棋职业选手,这意味着人工智能技术又或得了极大的突破。计算机目前已经在许多智力游戏比赛上战胜了人类顶级选手,包括国际象棋、五子棋、黑白棋、拼字游戏等等。而对于有着2500年历史的东方游戏围棋——比国际象棋要复杂得多——人类始终能够保持在和计算机对决中的胜利。不过,Google人工智能专家表示, 这个壁垒或许很快将要被打破。随着AlphaGo在没有任何让子的情况下以5:0完胜法国围棋职业二段棋手樊麾,AlphaGo将在三月份对战韩国九段棋手李世乭。 今天早上,《自然》杂志发表了一篇Google DeepMind团队——程序AlphaGo的创造者撰写的关于深度学习系统的论文。根据论文描述,在AlphaGo中,DeepMind研究员在程序中录入了大量职业棋手的棋谱——加起来多达3000万步——他们用增强学习的方法训练AI,让它自己下棋,研习棋谱。不过这只是第一步。理论上,这样的训练只能让这个人工智能系统无法突破人类的计算。为了获得更好的成绩,研究员随后让系统进行自我博弈,计算出比基础棋谱更多新的打点。也就是说,战胜人类就要靠这些新的东西。 “这其中最重要的是,AlphaGo不仅记录着大量的棋谱,还有一系列规则来指导‘思考’,”DeepMind CEO Demis Hassabis说道,“事实上,该程序能够通过机器学习的方式掌握比赛技巧。” DeepMind的技术核心结合了“强化学习”及其他人工智能手段,这种技术能够用于解决现实机器人执行物理任务和对环境作出回应的技术问题。就是说,要让机器人变得更“自然”。 视觉判断 2014年初, Coulom的围棋程序“疯石(Crazystone)”在一次比赛中战胜九段棋手依田纪基。但是当时是在人类棋手让出4子的情况下赢得比赛,而这次AlphaGo并没有被让子,可以说比赛很公平。 人工智能战胜人类围棋到底有多难?即使是最强大的计算机系统也无法在合理的时间内分析出下一步最优的走法。1997年IBM超级计算机“深蓝”则利用了蒙特卡洛搜索树的方式做到了这一点。“深蓝”能够预测出对手下一步会怎么走,而且计算力远高于人类。但是,围棋要复杂得多。国际象棋每一步平均只有35种可能性的走法,但是围棋呢——在19*19的棋盘内,共有361个点,就机器学习的角度而言,围棋的计算最大有3361种局面,大致的体量是10170,而已经观测到的宇宙中,原子的数量才1080。国际象棋最大只有2155种局面,称为香农数,大致是1047。 使用蒙特卡洛树搜索技术,Crazystone等系统能够进行更长远的计算。而结合其他技术的话,它们能够对可能性走法进行刷选,然后选择出最优的策略。在大多数情况下,它们能够战胜人类选手,但不是最厉害的那一个。顶级大师中,走法很多时候依靠直觉——做棋除了需要计算,还有棋感——棋手能够根据棋形分析攻防线路。“好的棋形看起来顺手多了,”Hassabis本身也是一名围棋手,“这其中不只有计算角力,还有审美。这也是围棋几千年来都让人着迷的原因。” 因此,从2014年至2015年间,包括Facebook、爱丁堡大学、DeepMind等人工智能研究团队都将围棋人工智能系统的突破方向瞄准为——使得程序能够模仿人类的直觉式思维。 自我强化 深度学习要依靠神经网络技术,它是可以模拟人脑中神经元网络的软硬件网络。神经网络不会依靠蛮力或预先输入的规则,而是会分析大量数据,“学习”特定的任务。给神经网络提供足够的喵星人照片,它就能学习识别喵星人;提供足够的语音,它也会学习理解人类的语言;提供足够的围棋走法,它也会学会围棋。 在DeepMind,爱丁堡和Facebook,研究人员希望神经网络能像人类选手一样,通过观看棋盘学习围棋。Facebook在最新的研究中表明,这种方法确实可行。结合深度学习与蒙特卡洛树搜索方法,Facebook打败了一些人类选手,虽然并非是Crazystone和其他顶尖选手。 但DeepMind走得更远。在经过3000万步人类走法的训练后,它的神经网络能以57%的准确度(此前记录是44%)预测人类的下一步。然后Hassabis和团队通过强化学习技术,让这一神经网络与它自己的另一个稍有区别的版本对战。两者互搏中,系统会评估哪一步效果最好,即占领更多棋盘区域。最终,神经网络在判断哪一步更好时会越来越优秀。 DeepMind的研究者David Silver表示,“在与其它神经网络和它自己对战数百万局后,AlphaGo学会了自己发现新策略,并逐渐提高了水平。” 正是这种方法帮AlphaGo超越了其它围棋AI系统,包括Crazystone。但事情还没完,研究人员随后将结果再反馈给第二个神经网络。了解前任的走法了,第二个神经网络会使用许多相同的技术来判断每一步的后果。这一过程与深蓝等旧系统在国际象棋上的做法类似,只是它会在下棋过程中学习,分析更多数据,而非暴力破解所有可能的步骤。这样,AlphaGo不仅能战胜AI,还能战胜顶尖人类选手了。 计算机网络 http://static.cnbetacdn.com/article/2016/0128/7bfcf7e43c9064b.jpg 李世乭 与其它神经网络一样,DeepMind的系统运行在配备了GPU的机器上。GPU最初用于渲染游戏图像,但后来有人发现,它们很适合深度学习。Hassabis表示,DeepMind系统在装备了一定数量GPU芯片的单一电脑上也可以用,但与樊麾对战中,他们用上了更大的计算机网络,其包括170个GPU和1200个标准CPU。大的计算机网络训练了同样的系统并进行了实际对战,还借鉴了训练的结果。 尽管Hassabiss会不断改善系统,但待AlphaGo与韩国选手李世乭对战时,他们会使用相同的配置。比赛中系统也需要网络连接,而且他们会“自己铺设光纤”。 挑战世界冠军比挑战樊麾难得多,但Coulom还是认为DeepMind会赢。他过去数十年一直在开发能打败最好选手的系统,现在他认为这一目标已经实现了,他买GPU会赢。 接下来…… AlphaGo的重要性不言而喻。同样的技术还能用于机器人和科学研究,以及类似于Siri的数字助理和金融系统。深度学习创业Skymind的创始人Chris Nicholson就认为,技术“能用于任何对抗性问题,任何类似于游戏且需要策略的事情,包括战争、商业和交易”。 对有些人来说,这是一件值得忧虑的事,特别是DeepMind的系统还能自己学会下围棋。它不仅能从人类提供的数学中学习,还能生成自己的数据,在与自己下棋中学习。特斯拉创始人埃隆·马斯克等大佬多次声明,这类AI系统会最终超越人类智能,脱离掌控。 幸而DeepMind的系统还在Hassabis等人的控制之下。虽然他们用系统破解了复杂的游戏,但这仍只是个游戏。AlphaGo离人类智能还很远,更不论超级智能了。下棋是一种高度结构化的情景,系统也没有人类级别的理解力。但它代表了一种方向,即如果AI能理解围棋,它也会理解更多事。如果宇宙就是一局超大型的围棋呢? via Wired
这么长的标题是咋整的?人工智能?
c****x
发帖数: 6601
5
来自主题: Programming版 - 王垠:AlphaGo与人工智能zz (转载)
AlphaGo与人工智能
在之前的一篇文章中我指出,自动驾驶所需要的“视觉识别能力”和“常识判断能力”
,对于机器来说是非常困难的问题。至今没有任何机器,可以在视觉方面达到驴的水平
,更不要说和人比。可是最近Google的AlphaGo战胜了围棋世界冠军,闹得沸沸扬扬。
本来是玩个游戏,偏要吹成是“历史性的人机大战”,说得好像是机器挑战了人类的智
能,伤了人类的自尊似的。这整个项目打着一个相当高大上的招牌,叫做“Deep Mind
”。当然,其中的技术也有一些吓人的名字,什么“神经网络”啊,“深度学习”啊……
听到这些,总有一知半解的人,根据科幻电影的情节开始展望,这样厉害的技术,应该
可以用来做其它更加“智能”的事情,然后就开始对“人类的未来”作出一些杞人忧天
的猜想,说人类的工作很快都要被机器取代了,甚至Skynet)就要实现了,云云。
我只想在这里给这些人提个醒:别做科幻梦了,回到现实吧。
不同AI问题的难度比较
一个常见的外行想法,是以为AlphaGo真的具有“人类智能”,所以Google利用同样的
技术,可以实现自动车。这些人大大的高估了所谓“AI”的能力不说,他们也不明白,... 阅读全帖
d*********o
发帖数: 6388
6
http://news.sina.com.cn/o/2017-10-19/doc-ifymzqpq2231378.shtml
3小时,零在乱下。
10小时,发现简单定式。
16小时,发现小雪崩定式。
19小时,发现死活、厚势与实地的逻辑。
24小时,发现小目一间高挂定式。
36小时,也就是超越李世石版的时候,发现星位一间夹点角定式。
55小时,发现非人类定式。
72小时,出关。
伦敦当地时间10月18日18:00(北京时间19日01:00),AlphaGo再次登上世界顶级科
学杂志——《自然》。
一年多前,AlphaGo便是2016年1月28日当期的封面文章,Deepmind公司发表重磅论
文,介绍了这个击败欧洲围棋冠军樊麾的人工智能程序。
今年5月,以3:0的比分赢下中国棋手柯洁后,AlphaGo宣布退役,但DeepMind公司
并没有停下研究的脚步。伦敦当地时间10月18日,DeepMind团队公布了最强版AlphaGo
,代号AlphaGo Zero。它的独门秘籍,是“自学成才”。而且,是从一张白纸开始,零
基础学习,在短短3天内,成为顶级高手。
团队称,AlphaGo Zero... 阅读全帖
H****S
发帖数: 1359
7
我试着回答一下这个问题。最古老的AI学习算法是上世纪50,60年代提出的perceptron
算法,说白了就是完全前向输出(feedforward)神经网络,输入和输出之间的连接权
值也会更据输出结果和目标值之间的同于不同发生改变,但是是一种机械的改变,不是
基于回馈(backpropagation)的改变。这么一个算法虽然简单,但是刚刚诞生的时候
却着实引起了轰动,perceptron的作者声称这个算法已经可以解决所有的AI学习问题,
AI的真正实现似乎已经唾手可及。好景不长,随后有人专门写了一本书数学证明了
perceptron无法解决的一系列AI问题,其中一个简单例子暨perceptron无法辨别
wrapped sequences,比如1234和4123其实指向的是同一个pattern。这个问题对于人类
来说如此简单,但是perceptron却是完败,再加上之前的对神经网络的hype又太高,导
致了后者一时间臭名昭著。Hinton说他选择研究神经网络做方向的时候,同行几乎见面
就和他说神经网络是没有前途的。之后神经网络重新崛起肇始于Hinton划时代的
Backprogagat... 阅读全帖
f*******t
发帖数: 7549
8
来自主题: Programming版 - 可微分编程
DL与FP的结合,会不会成为未来的编程方式呢?
Yann LeCun:深度学习已死,可微分编程万岁!
原创 2018-01-06 文强 新智元
【新智元导读】LeCun又发表惊人言论,继昨天参与深度学习论战、喷机器人Sophia后
,今天他在Facebook主页发文,称“深度学习已死,可微分编程万岁!”深度学习真的
死了?而可微分编程又是什么呢?
LeCun又语出惊人了,这次直指深度学习——
好,深度学习作为一个流行词,现在时效已过。
深度学习已死,可微分编程万岁!
事情要回溯到前天。
1月4日,AAAI前主席Thomas Dietterich连发10条Twitter,驳斥纽约大学心理学家Gary
Marcus对深度学习的批评。其中,Dietterich提到,
“深度学习本质上是一种新的编程方式——可微分编程——而且这个领域正试图用这种
方式来制定可重用的结构。目前我们已经有:卷积,池化,LSTM,GAN,VAE,memory单
元,routing单元,等等。”
这个说法让英伟达的AI架构VP Clement Farabet深表赞同,Farabet还评价说,这是对
现今深度学习的最好总... 阅读全帖
c****x
发帖数: 6601
9
【文/观察者网专栏作者 陈经】
早在2016年3月AlphaGo挑战围棋成功之后,就传出Deepmind下一步计划是在星际争霸上
打败人类。
人工智能开发者研究算法很喜欢用计算机游戏。一是研究目标清楚,游戏目标定义得很
完善,科研有时最重要的是提出问题。二是最近流行的深度学习需要极多的训练样本,
人类的线上高水平比赛很多能够提供足够的样本。三是问题足够难,进展如何通过人机
对战、线上测试一清二楚,而不是研究者自说自话。
围棋是“完全信息博弈”(局面摆明,理论上有确定结论)游戏里最复杂的一个,又很
有艺术性。在围棋上战胜人类,就实现了Deepmind负责人哈萨比斯的说法,机器自我对
弈不断自我学习的方法可以解决一切基于推理的棋类游戏。
这个自学习的框架,能否在“非完全信息博弈”上打败人类,令人非常有兴趣,同时又
极有学术价值。星际争霸是一个很合适的测试对象。星际争霸最常见的是两个玩家对战
,各自从一个基地开始发展,没有兵力在附近就看不见对方的动作,对方在干什么自己
不知道,因此是“非完全信息博弈”。
1998年暴雪公司推出的星际争霸,经过数次升级到“母巢之战”版本,终于成为一款平
衡性极... 阅读全帖

发帖数: 1
10
https://xw.qq.com/cmsid/20190129A0I69B00
90年代末机器学习兴起,2012年,神经网络概念复辟,而在AlphaGo碾压人类选手后,
强化学习卷土重来。近26年来,AI领域基本没有新的概念出现,只有不同的技术一次次
从冷宫中解放出来。
麻省理工科技评论在1月25日发布的一篇文章中,分析了截至2019年11月18日,论文数
据库中arXiv的16625份关于AI的论文。
从分析结果看,“AI”概念的风靡,有三个典型时期:90年代末21世纪初机器学习兴起
,2010年代初神经网络概念复辟,近几年强化学习概念卷土重来。
值得注意的是,arXiv的AI论文模块始于1993年,而“人工智能”的概念可以追溯到
1950年,因此这一数据库只能反馈近26年以来的AI研究。而且,arXiv每年收录的论文
,也仅代表当时人工智能领域的一部分研究。不过,它仍然是观测AI行业研究趋势的最
佳窗口。
我们接下来就来看一下,16625份论文提供了哪些信息。
起点:解救程序员
基于知识的系统,由人类将知识赋予计算机,而计算机承担知识的存储和管理功能,帮
助人类解决问题。转变为机... 阅读全帖
c****x
发帖数: 6601
11
【文/观察者网专栏作者 陈经】
陈经
风云学会副会长,《中国的官办经济》
http://www.guancha.cn/chenjing/2017_08_24_424174_s.shtml
早在2016年3月AlphaGo挑战围棋成功之后,就传出Deepmind下一步计划是在星际争霸上
打败人类。
人工智能开发者研究算法很喜欢用计算机游戏。一是研究目标清楚,游戏目标定义得很
完善,科研有时最重要的是提出问题。二是最近流行的深度学习需要极多的训练样本,
人类的线上高水平比赛很多能够提供足够的样本。三是问题足够难,进展如何通过人机
对战、线上测试一清二楚,而不是研究者自说自话。
围棋是“完全信息博弈”(局面摆明,理论上有确定结论)游戏里最复杂的一个,又很
有艺术性。在围棋上战胜人类,就实现了Deepmind负责人哈萨比斯的说法,机器自我对
弈不断自我学习的方法可以解决一切基于推理的棋类游戏。
这个自学习的框架,能否在“非完全信息博弈”上打败人类,令人非常有兴趣,同时又
极有学术价值。星际争霸是一个很合适的测试对象。星际争霸最常见的是两个玩家对战
,各自从一个基地开始发展,没有兵力在附近就看不... 阅读全帖
g****t
发帖数: 31659
12
来自主题: Programming版 - [bssd]AI血泪史
前几天有人在EE问为毛深度学习这么像自适应滤波。
哎....
1.
早先神经网络一个人叫罗什么。和明斯基是高中同学。
罗什么是最早一种神经网络的鼓吹人和计算机程序实现人。
名噪一时。据说得罪了不少人。明斯基早先是他这边的。
后来明斯基写了本名著攻击神经网络。这明星学者罗什么
早早的就死了。不知是否自杀。
2.
然而,当时有个不是那么出名的分类器,叫做
widrow-hoff学习算法什么的。widrow在这摊子烂事
出来之后,就不提神经网络了。本身widrow就是EE的。
也不和这帮人一个资金来源。
3.
为了实现硬件方便,
Widrow 把Sigmoid改成y=x纯线性的滤波器,只保存
学习办法,也就是approximate gradient.还有网络结构,
就是线性权值互联。这就是世界上应用最广泛的least mean square 滤波器的来源。
今日我们很难想象,数字滤波器的一大源头其实是神经网络。但在当时是很自然的。因
为那时候还没有大规模的
大规模的线性数字滤波器件。
后来社会需要大规模集成电路上的各种自适应滤波--也就是学习。不然自适应个蛋啊。
4.
当时懂大规模信号连接和... 阅读全帖
w*p
发帖数: 16484
13
来自主题: Military版 - 看看王垠怎么说阿尔法狗
http://www.yinwang.org/blog-cn/2016/03/09/alpha-go
AlphaGo与人工智能
在之前的一篇文章中我指出,自动驾驶所需要的“视觉识别能力”和“常识判断能力”
,对于机器来说是非常困难的问题。至今没有任何机器可以在视觉方面达到驴的水平,
更不要说和人比。可是最近Google的AlphaGo战胜了围棋世界冠军,挺闹腾的,以至于
对AI的误解又加深了。
本来玩个游戏而已,恁要吹成是“历史性的人机大战”,说得好像是机器挑战了人类的
智能,伤了人类的自尊似的。这整个项目打着一个相当高大上的招牌,叫做“Deep
Mind”。当然,其中的技术也有一些吓人的名字,什么“神经网络”啊,“深度学习”
啊……
听到这些,总有一知半解的人,根据科幻电影的情节开始展望,这样厉害的技术,应该
可以用来做更加“智能”的事情,然后就开始对“人类的未来”作出一些猜想,比如自
动车就要实现,人的工作很快都要被机器取代,甚至Skynet)就要控制人类,云云。
我只想在这里给这些人提个醒:还是别做科幻梦了,回到现实吧。
棋类是相对容易的AI问题
一个常见的外行想法,是以为Alp... 阅读全帖
n******g
发帖数: 17225
14
【 以下文字转载自 Headline 讨论区 】
发信人: onews (OverseasNews), 信区: Headline
标 题: 中兴被罚 \"中国芯\"离了美国到底行不行?
发信站: BBS 未名空间站 (Thu Apr 19 21:05:19 2018, 美东)
国产芯片。
中兴被罚,无数个问题抛了出来。
去年的罚单,为何在今年冷不丁的给了一击?中国“芯”离了美国,到底行不行?中国“芯”在其他领域能不能有所作为?
第一个问题的答案显而易见,中美贸易摩擦,双方都在为各自寻找可利用的工具;
第二个问题的答案见仁见智,尽管与美国有一定差距,但不可否认,中国创新正积跬步、迈大步;
第三个问题的答案借用中国科学院计算技术研究所控制计算实验室主任、机器人芯片项目负责人韩银和的一句话来回答,对于中国来说,跟半导体芯片领域同样重要的是神经网络处理芯片,中国应该在这一领域建立起自己的优势。
学界布局
2018年初,清华大学研究团队便开发出的代号为“思考者(Thinker)”的芯片引起外媒关注,该芯片能支持神经网络处理,最明显的两个优点是低功耗和高灵活性。
“思考者”可支持神经网络,该芯片... 阅读全帖
c****x
发帖数: 6601
15
鄙视的人恰恰是现在的自己。
http://www.youtube.com/watch?v=PCe-ZNTmhHk&t=9m10s
---------------------------------------------------
《AlphaGo与人工智能》
http://www.yinwang.org/blog-cn/2016/03/09/alpha-go
在之前的一篇文章中我指出,自动驾驶所需要的“视觉识别能力”和“常识判断能力”
,对于机器来说是非常困难的问题。至今没有任何机器可以在视觉方面达到驴的水平,
更不要说和人比。可是最近Google的AlphaGo战胜了围棋世界冠军,挺闹腾的,以至于
对AI的误解又加深了。
本来玩个游戏而已,恁要吹成是“历史性的人机大战”,说得好像是机器挑战了人类的
智能,伤了人类的自尊似的。这整个项目打着一个相当高大上的招牌,叫做“Deep
Mind”。当然,其中的技术也有一些吓人的名字,什么“神经网络”啊,“深度学习”
啊……
听到这些,总有一知半解的人,根据科幻电影的情节开始展望,这样厉害的技术,应该
可以用来做更加“智能”的事情,然后就开始... 阅读全帖

发帖数: 1
16
去年,一位小说家进行了一次横穿美国的公路旅行。这次旅行是为了效仿Jack Kerouac
——在旅途中寻找一些重要的东西,并写下了自己的经历。
Jack Kerouac在1948-1950年横穿美国,最后到达墨西哥城,并创作了《在路上》。
然而,这位作家与寻常作家非常不同——它只是一个麦克风,一个GPS,一个摄像头和
一台笔记本电脑。
许多认为人工智能和机器学习不会让人类失业的人很乐观的表示,人类的创造力是难以
模仿的。一个非常经典的观点是:就像机器将我们从重复性的手工任务中解放出来一样
,机器学习将使我们从重复性的智力任务中解放出来。
这就能让我们在工作的同时,有更多自由的时间去追求自己的爱好,与亲人共度美好时
光。
但回过头来想想,创造力,是人类基本的能力吗?还是说,机器学习也可以做到?
如果它们能做到比我们更了解自己,那么AI写出来的小说将会是你读过最好的小说吗?
AI创作的小说可能不会是一本“沙滩读物”
当然,这是未来主义者的观点。就像Ross Goodwin的凯迪拉克在那次公路旅行中临时装
配的装置所证明的那样,现实离我们还有一段距离。
Ross Goodwin在谈及他机器创... 阅读全帖
o*****p
发帖数: 2977
17
2016年1月27日晚,一条“Google人工智能击败欧洲围棋冠军”的新闻犹如一枚重磅炸
弹,激起了计算机智能领域和围棋领域人群的热烈讨论。
喆理围棋第一时间邀请了新闻当事人法国围棋国家队主教练樊麾二段、中国计算机围棋
智能第一人刘知青教授,以及国内的顶尖棋手、世界冠军时越九段针对这一新闻事件进
行了谈话。
以下是谈话内容整理:
中国计算机围棋智能第一人 刘知青教授
李喆:
刘教授,首先请您用通俗语言为我们介绍一下AlphaGo使用的方法。
刘知青:
大家好,围棋是人工智能传统游戏中最具有挑战性的项目,他的困难主要是巨大的搜索
空间和对于围棋盘面和落子选择的评估。
Google的计算机围棋程序,引入了一种新方法,来进行盘面评估和落子选择。盘面评估
使用了一种神经网络,叫做价值网络进行评估;落子选择使用了另外一种神经网络,叫
做策略网络进行选择。这两种神经网络都是通过机器学习的方法来获得的。其中一种机
器学习方法是有监督的学习,通过职业棋手的棋谱进行学习;另外一种学习方法是自学
习的方法,他通过自己的对弈,根据胜负的结果进行学习。
不加任何搜索,Google的这个神经网络已经能够达到现有... 阅读全帖

发帖数: 1
18
你试一下用时间点来作为参数(假设时间点的interval是均等的, 或者至少时间点之间
有某种可以测量的关系, 这样我们可以将它们映射到自然数或者实数空间上)...
我们再假设一下你的六个监控点都是相互完全独立的 (如果不独立而有某种关联的话,
以后可以在独立的基础上逐渐优化 ).
这样我们需要有6个独立的神经网络, 每个神经网络对应一个监控点...
这样我们实际上是假定了有6个单变量(即以时间点作为变量)的方程, 每个单变量方程
对应了一个监控点:
f1(t) = 监控点1在时间点t的数据
f2(t) = 监控点2在时间点t的数据
...
f6(t) = 监控点6在时间点t的数据
因为假设了每个监控点互相间独立,我们对每个监控点独立的训练一个神经网络. 我
在这里用第一个监控点举个例子, 剩下的第二, 三,
四, 五, 六个监控点的神经网络的训练方法相同...
* 训练第一个点的神经网络
我们已知的数据有
f1(1) = 1.12
f1(2) = 1.61
f1(3) = 1.32
f1(4) = 1.69
f1(5) = 1.12
f1(6) = 1.55
f1(7) = 1... 阅读全帖
e*g
发帖数: 4981
19
4月10日,“人机大战”的消息再次传出,关于人类和AI的对抗再次牵动世界的神经。
“我会抱必胜心态、必死信念。我一定要击败阿尔法狗!”对于5月23日至27日与围棋
人工智能程序AlphaGo(阿尔法狗)的对弈,目前世界排名第一的中国职业九段柯洁放
出豪言。
然而,AlphaGo(阿尔法狗)之父却说,“我们发明阿尔法狗,并不是为了赢取围棋比
赛。”
据澎湃新闻4月13日报道,近日,AlphaGo之父杰米斯·哈萨比斯(Demis Hassabis)在
母校英国剑桥大学做了一场题为“超越人类认知的极限”的演讲,解答了世人对于人工
智能,对于阿尔法狗的诸多疑问——过去3000年里人类低估了棋局哪个区域的重要性?
阿尔法狗去年赢了韩国职业九段李世石靠哪几个绝招?今年年初拿下数位国际大师的神
秘棋手Master究竟是不是阿尔法狗?为什么围棋是人工智能难解之谜?
杰米斯·哈萨比斯,Deep Mind创始人, AlphaGo之父
杰米斯·哈萨比斯,Deep Mind创始人,AlphaGo(阿尔法狗)之父, 4岁开始下象棋,
8岁时在棋盘上的成功促使他开始思考两个至今令他困扰的问题:第一,人脑是如何学
... 阅读全帖
o*****p
发帖数: 2977
20
来自主题: Military版 - 人工智能带来的革命仍在继续
http://tech.sina.com.cn/d/i/2018-04-12/doc-ifyzeyqa8728663.shtml
人工智能带来的革命仍在继续:从沃森(Waston)机器人不到10分钟诊断出白血病,到
AlphaGo击败世界排名第一的围棋选手;从战场到太空,随处都可见其身影。其实,AI
也早已渗透进科研领域,成为科学家进行学术研究的新手段。
现在,科学家们已经构建出了化学界的“Alphago”:科学家们在《Nature》上发
文证明,AI能够以前所未有的速率进行逆向合成反应。
在化学研究中,由简单的原料开始合成一个复杂化合物是非常困难的。而逆向合成
则是设计化合物生产的标准方法,即化学家们通过逆向思维,从想要制造的化合物分子
开始,然后分析可以通过哪些容易得到的试剂和反应序列来合成它,这种方法被广泛用
于制造药物和其他产品。
逆合成分析法于20世纪60年代由哈佛大学教授E。 J。 Corey提出。Corey教授因发
现这一技术,获得了1990年的诺贝尔化学奖。
过去,科学家们一直使用计算机辅助有机合成的方式,来完成逆合成分析过程。尽
管这种方法可以提高合成效率,然而传统的... 阅读全帖
p***r
发帖数: 4702
21
来自主题: JobHunting版 - 简单说说这几年机器学习的形势
管中窥豹,这两年是继98 ~ 02 年之后机器学习最大的一次革命。上次革命标志是统计
方法的全面崛起,在四年内将专家系统彻底扫进历史垃圾堆。
而神经网络的全面崛起,从几年前的怀疑,到今年的全面投降,传统统计方法纷纷被打
得不能自理,基本所有会议一半以上的新结果都是神经网络。
基本上所有方法都是曲折进步的,这几年神经网络井喷,主要原因是工具的完善,使得
门槛降低,大量研究人员涌入,使得前沿从原始迅速完善。因为原来方法非常简陋,一
旦优秀工具出现,前沿会迅速推进,迭代极快。但是很快也会碰到边界,就像统计方法
几年的hype过去后,就陷入困境。
但是就像弯曲房价,虽然会碰到淡季,泡沫破之后房价还是比泡沫出现前高,神经网络
取代传统统计方法已经是板上钉钉的事。如果你做的是监督学习,并且还在搞非神经网
络的方法,我建议你好好想想自己的未来。
神经网络的最大好处就是简单,对中国人来说,学过高数线代就够了,最多十几二十天
就能理解。工具方便,实验简单粗暴效果惊人。如今这个领域牛人多是华人,如微软邓
力极其带的一群华人。越南人,如Quoc,和一票欧洲人包括毛子。
我是建议马工业余搞搞神经网络,别被高大... 阅读全帖
E******w
发帖数: 2616
22
关于AlphaGo使用的算法的论文网上可以看到,虽然没有具体的细节,但是可以了解个
大概。这里我尝试解释一下为什么现在AI的棋力比过去有质的飞跃。它的弱点到底有可
能在哪里。
机器最大的优势是暴力搜索,利用高运算量多机联网的方式,在极短的时间内可以搜索
数量巨大的可能变化。这个能力人无法与之抗衡。机器的核心弱点是不明白为什么,不
明白道理,不会推理,形势判断显然也远不如人。对于围棋这样复杂度很高的游戏,机
器搜索能力再强,能搜的变化也只是所有变化的一小部分,如果花大量时间去搜索没有
意义的变化,搜索能力就不会对棋力有多大的影响。
过去AI集中解决的问题,就是对可能的变化的重要性进行排序。假设人在短时间内只能
搜索100种变化,而AI在同样的时间可以搜索几千万种变化,只要AI能够对各种变化排
序,保证人搜的那100种变化都被排在了几千万之内,那样AI就同样可以搜索人搜索过
的变化,逻辑推理能力的弱点就可以得到弥补。只要这个目的达到了,这100种变化是
不是用推理得出来的,这并不重要。(同样的道理,如果AI有能力搜索所有的变化,根
本就不需要任何推理能力也可以战胜人,归根结底是机器和人各有... 阅读全帖
m**m
发帖数: 5500
23
来自主题: Go版 - 技术贴(懂围棋的请进)
陈经:谷歌围棋算法存在缺陷 达不到人类最高水平
2016年1月28日,谷歌围棋程序AlphaGo以5:0战胜职业棋手的消息,震动了围棋圈。
这两天有很多的讨论,主要是新闻性的。我也在第一时间进行了常识性的介绍。
本文进一步从围棋和人工智能技术的角度,深入分析AlphaGo棋艺特点,评估其算
法框架的潜能,预测与人类最高水平棋手的胜负。下文中出现的策略网络、价值网络、
蒙特卡洛法请参考前文,理解具体围棋局面也需要一定的棋力,但是与算法推理相关的
内容理解起来并不难。
AlphaGo是如何下棋的
所有人,包括职业棋手,看了AlphaGo战胜樊麾二段的五盘棋,都说这程序下得像
人了,和以前的程序完全不同。柯洁九段(公认目前最强棋手,一年获得三个世界冠军
,对李世石6:2,古力7:0)的看法是:
“完全看不出来。这五盘棋我也仔细地看了一眼,但我没看名字,不知道谁执黑谁
执白,完全看不出谁是AI。感觉就像是一个真正的人类下的棋一样。该弃的地方也会弃
,该退出的地方也会退出,非常均衡的一个棋风,真是看不出来出自程序之手。因为之
前的ZEN那样的程序,经常会莫名其妙的抽风,突然跑到一个无关紧要的地方... 阅读全帖
m**m
发帖数: 5500
24
来自主题: Go版 - 技术贴(懂围棋的请进)
陈经:谷歌围棋算法存在缺陷 达不到人类最高水平
2016年1月28日,谷歌围棋程序AlphaGo以5:0战胜职业棋手的消息,震动了围棋圈。
这两天有很多的讨论,主要是新闻性的。我也在第一时间进行了常识性的介绍。
本文进一步从围棋和人工智能技术的角度,深入分析AlphaGo棋艺特点,评估其算
法框架的潜能,预测与人类最高水平棋手的胜负。下文中出现的策略网络、价值网络、
蒙特卡洛法请参考前文,理解具体围棋局面也需要一定的棋力,但是与算法推理相关的
内容理解起来并不难。
AlphaGo是如何下棋的
所有人,包括职业棋手,看了AlphaGo战胜樊麾二段的五盘棋,都说这程序下得像
人了,和以前的程序完全不同。柯洁九段(公认目前最强棋手,一年获得三个世界冠军
,对李世石6:2,古力7:0)的看法是:
“完全看不出来。这五盘棋我也仔细地看了一眼,但我没看名字,不知道谁执黑谁
执白,完全看不出谁是AI。感觉就像是一个真正的人类下的棋一样。该弃的地方也会弃
,该退出的地方也会退出,非常均衡的一个棋风,真是看不出来出自程序之手。因为之
前的ZEN那样的程序,经常会莫名其妙的抽风,突然跑到一个无关紧要的地方... 阅读全帖
f*******e
发帖数: 5594
25
来自主题: Wisdom版 - 有我与无我(三)
从前文我们知道,“我”是大脑中神经细胞连接模式的总和。这里还要明确一下,这个
连接模式不但是物质上的,同时也是信息上的。因为这种连接模式本身就是信息。大脑
中的信息存储并不需要另外一个单独的地方去存储,信息在神经网络中传输的过程中,
就已经存储在这个网络的连接方式上了。打个比方,比如有五个神经细胞组成的细胞群
,这五个神经细胞原来是以五边形的连接方式存在的,当有一个特定的外界电信号刺激
传过这个细胞群后,五个细胞的连接方式变成了五角星形。这种从五边形到五角星形转
变的过程就是信息的存储,即记忆。如果以后再有同样的一个外界信号传到这个细胞群
后,那个五角星的突触连接状态就得到加强,由短期记忆转化为长期记忆。这就是神经
网络(大脑)的学习过程。在这个学习过程当中,改变的是连接的方式,而不是在神经
细胞里存储了什么信息。这种连接方式的快速改变,也称为大脑的可塑性。
目前的人工神经网络正是这样一种应用类似于大脑神经细胞连接方式进行信息处理的数
学模型。神经网络是一种运算模型,由大量的节点(相当于神经元,即神经细胞)之间
相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activat... 阅读全帖
f*******e
发帖数: 5594
26
来自主题: Wisdom版 - 有我与无我(三)
从前文我们知道,“我”是大脑中神经细胞连接模式的总和。这里还要明确一下,这个
连接模式不但是物质上的,同时也是信息上的。因为这种连接模式本身就是信息。大脑
中的信息存储并不需要另外一个单独的地方去存储,信息在神经网络中传输的过程中,
就已经存储在这个网络的连接方式上了。打个比方,比如有五个神经细胞组成的细胞群
,这五个神经细胞原来是以五边形的连接方式存在的,当有一个特定的外界电信号刺激
传过这个细胞群后,五个细胞的连接方式变成了五角星形。这种从五边形到五角星形转
变的过程就是信息的存储,即记忆。如果以后再有同样的一个外界信号传到这个细胞群
后,那个五角星的突触连接状态就得到加强,由短期记忆转化为长期记忆。这就是神经
网络(大脑)的学习过程。在这个学习过程当中,改变的是连接的方式,而不是在神经
细胞里存储了什么信息。这种连接方式的快速改变,也称为大脑的可塑性。
目前的人工神经网络正是这样一种应用类似于大脑神经细胞连接方式进行信息处理的数
学模型。神经网络是一种运算模型,由大量的节点(相当于神经元,即神经细胞)之间
相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activat... 阅读全帖
p*******n
发帖数: 2697
27
【 以下文字转载自 JobHunting 讨论区 】
发信人: pcdor (锅巴), 信区: JobHunting
标 题: 简单说说这几年机器学习的形势
发信站: BBS 未名空间站 (Thu Jun 16 01:19:35 2016, 美东)
管中窥豹,这两年是继98 ~ 02 年之后机器学习最大的一次革命。上次革命标志是统计
方法的全面崛起,在四年内将专家系统彻底扫进历史垃圾堆。
而神经网络的全面崛起,从几年前的怀疑,到今年的全面投降,传统统计方法纷纷被打
得不能自理,基本所有会议一半以上的新结果都是神经网络。
基本上所有方法都是曲折进步的,这几年神经网络井喷,主要原因是工具的完善,使得
门槛降低,大量研究人员涌入,使得前沿从原始迅速完善。因为原来方法非常简陋,一
旦优秀工具出现,前沿会迅速推进,迭代极快。但是很快也会碰到边界,就像统计方法
几年的hype过去后,就陷入困境。
但是就像弯曲房价,虽然会碰到淡季,泡沫破之后房价还是比泡沫出现前高,神经网络
取代传统统计方法已经是板上钉钉的事。如果你做的是监督学习,并且还在搞非神经网
络的方法,我建议你好好想想自己的未来。
神经网... 阅读全帖
w***g
发帖数: 5958
28
来自主题: Programming版 - AI的终极优化目标
讨论了半天AI的可行性,接下来就是怎么操作了。
所谓名不正则言不顺,又所谓顺天者昌逆天者亡。
我们做这个AI,必须师出有名,也就是有一个
优化目标,而且这个优化目标必须符合宇宙运行
的原理。在这个目标的指导下我们具体操作起来
才能事倍功半。这里先给个摘要。
我多年思考的结论就是,最适合作为一个generic
strong AI的优化目标就是:max(I), I=信息。
这个目标基于下面三个原理:
1. 宇宙的趋势是熵增,谁让熵增快谁就更高级。
例1. 狼vs羊。羊吃草,熵增慢,狼吃羊,熵增快,
狼比羊更高级。
例2. 中国vs美国。随便查了个耗电量。
https://en.wikipedia.org/wiki/List_of_countries_by_electricity_consumption
从总体耗电量看,中国比美国更高级。
从per capita看,美国比中国更高级。
所以我们设计一个AI,熵增未必是直接目标,但是
一个好的目标在优化过程中必然导致很快很大的熵增。
2. Passive AI 等价于信息压缩
或者说是降低信息存储的成本。这个可以参考我之前的文章。
http:/... 阅读全帖
f**d
发帖数: 768
29
来自主题: Neuroscience版 - [转载] 21世纪中国计算神经科学展望
原文作者:耶鲁大学教授 汪小京
无论是简单的知觉、行动,还是复杂的情感、思维、学习、决策,都来自于我们的
大脑。大脑是最复杂的生物器官,也是最神秘的“计算机”。即使今天最快的超级
计算机(中国的Nebulae今年排名世界第二),在重要的智能方面也不及人脑。了
解大脑的生物学原理,包括从遗传基础到神经网络机制,是21世纪最主要的科学挑
战之一。这个领域的发展将解开脑的奥秘,而且将会对社会发展的多方面有深远影
响。“脑科学与认知科学”在《国家中长期科学和技术发展规划纲要》中被列为八
大科学前沿之一。
脑科学的科学研究越来越需要计算神经科学。计算神经科学是一门跨领域的交叉学
科,把实验神经科学和理论科学研究联系在一起,运用物理、数学以及工程学的概
念和分析工具来科学研究大脑的功能。随着各项新技术,如高密度多电极记录、用
大量钙敏感染料的双光子成像技术、脑基因组学、脑连接组学的快速发展,未来数
年里实验数据将以空前的速度增加。
因此,展望未来,为了能解读这些实验数据,并据此提出和检验各种科学假说,新
的计算工具和方法是必不可少的。另一方面,大脑是一个异常复杂的动力学系统,
具有多种反馈机制和多... 阅读全帖
f***y
发帖数: 4447
30
http://tech.sina.com.cn/d/2015-02-16/doc-ichmifpx8180314.shtml
“DianNao”和“DaDianNao”,是一种人工神经网络芯片一代和二代的名字。听外国人
生硬地发着这几 个音,许多人都会偷偷发笑。这两种芯片的设计者是一对亲兄弟,参
加国际会议时,兄弟俩经常要给外国同行正音,特别是“脑”的三声发音,折磨许多人
卷着舌头 重复好多遍。可是在他们看来,这更独具魅力,因为之前没有中文发音的芯
片。
让科研成果变成一件好玩的事,是陈云霁和陈天石——计算机界的一对“电脑兄弟
”的真心希望。
1983年出生的陈云霁,曾任龙芯3号总设计师,获得首届国家自然科学基金优秀青
年科学基金,现在计算机体系结构国家重点实验室任研究员。 弟弟陈天石曾获中国计
算机学会优秀博士论文奖,现在为计算所副研究员。兄弟两个先后毕业于中国科学技术
大学少年班。今年1月31日,中国计算机学会 (CCF)举行了颁奖大会,陈云霁以第一
顺位荣获2014年度CCF青年科学家奖。
2014年是兄弟俩丰收的一年。2014年3月在美国召开的国际顶级学术会议ASPLOS上
... 阅读全帖
Z********n
发帖数: 300
31
因技能对口和薪酬优厚,物理学家的硅谷之路越走越宽。
奥斯卡·博伊金(Oscar Boykin)认为,现在可不是当物理学家的好时候。
他曾就读于乔治亚理工学院物理系,2002年拿到加州大学洛杉矶分校物理学博士学位。
四年前,物理学家们借助瑞士的大型强子对撞机,发现了科学家在上世纪60年代就预言
存在的一种亚原子粒子(希格斯玻色子)。
希格斯玻色子没有推翻宇宙理论模型,没有改变任何东西,因此并没有为物理学家设置
新的难关。
“只有当物理学不太理想的时候,物理学家才有用武之地,现在可供我们改进的余地并
不多,”他说,“这让人感觉很没劲。”而且,薪资也不理想。
于是,博伊金离开了物理学界,他去到硅谷,成为一名软件工程师。在他看来,做软件
工程师正当时。
博伊金就职于帮助商家在线收款的初创企业Stripe,该公司估值高达90亿美元。
他参与构建并运营从公司服务中收集数据的软件系统,他还致力于预测这些服务未来的
状况,包括诈骗交易会在何时、何地、以何种形式发生。
由于此类预测需要极强的数学和抽象思维能力,身为物理学家的博伊金便成了理想人选。
与其他物理学家不同,博伊金所处的环境还为他提供无尽的挑战... 阅读全帖

发帖数: 1
32
来自主题: Military版 - 中国AI初创公司被美国巨头收购
赛灵思收购AI芯片独角兽深鉴科技,传出价3亿美元
分享到:
19
124
2018-07-18 21:50:05 字号:A- A A+ 来源:观察者网综合
关键字: 芯片深鉴科技FPGA赛灵思收购人工智能AI
【观察者网 综合报道】一家成立仅两年的国内AI芯片初创独角兽公司深鉴科技(
DeePhi Tech)18日被美国芯片巨头赛灵思(Xilinx)收购。虽然具体交易金额尚未可
知,但业界人士评估,收购金额可能在3亿美金左右。
深鉴科技官网及CEO姚颂随后确认了这一消息。收购后的深鉴科技将继续在其北京办公
室运营。
[点击查看大图]
[点击查看大图]
赛灵思软件业务执行副总裁萨里尔·拉吉(Salil Raje)表示:“我们很欢迎深鉴科技
的加入,期待着他们的加入能进一步增强赛灵思全球领先的工程技术研发力量,加速赛
灵思打造灵活应变智能世界的公司愿景。人才和创新是实现赛灵思公司发展的核心。未
来,赛灵思将继续加大对深鉴科技的投入,不断推进公司从云到端应用领域部署机器学
习加速的共同目标。”
[点击查看大图]
电子工程专辑网站(eetimes.com)援引分析师的话称,分析师表示,此举可为... 阅读全帖
c*****y
发帖数: 1028
33
出身清华姚班,斯坦福博士毕业,她的毕业论文成了「爆款」
机器之心 Today
机器之心报道
机器之心编辑部
很少有人的博士论文能够成为「爆款文章」,但陈丹琦做到了。这位近日从斯坦福毕业
的计算机科学博士引发了人们的广泛关注。据斯坦福大学图书馆介绍,她长达 156 页
的毕业论文《Neural Reading Comprehension and Beyond》上传仅四天就获得了上千
次的阅读量,成为了斯坦福大学近十年来最热门的毕业论文之一。
斯坦福大学还因此对陈丹琦进行了一次简单采访。
陈丹琦激动人心的研究迅速在社交网络和其他专注机器学习的新闻网站上传播。她的指
导老师——斯坦福 AI 实验室负责人、人工智能领域著名学者、斯坦福大学语言学和计
算机科学教授克里斯托弗·曼宁(Christopher Manning)在采访中表示:「陈丹琦是
使用神经网络方法解决自然语言理解问题方面的先驱。她简单、干净、高成功率的模型
吸引了众人的目光……她的这篇毕业论文主要研究神经网络阅读理解和问答,这些新兴
技术正在带来更好的信息访问方式——它可以让计算机系统可以真正回答你的实际问题
,而不是简单地返回... 阅读全帖
q*******n
发帖数: 360
34
来自主题: Military版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
s*****r
发帖数: 43070
35
来自主题: JobHunting版 - 王垠:AlphaGo与人工智能zz (转载)
【 以下文字转载自 Go 讨论区 】
发信人: AlphaCode (Alpha), 信区: Go
标 题: 王垠:AlphaGo与人工智能zz
发信站: BBS 未名空间站 (Mon Mar 14 01:47:52 2016, 美东)
AlphaGo与人工智能
在之前的一篇文章中我指出,自动驾驶所需要的“视觉识别能力”和“常识判断能力”
,对于计算机来说是非常困难的问题。至今没有任何计算机,可以在视觉方面达到驴子
之类动物的水平,更不要说和人比。可是最近Google的AlphaGo战胜了围棋世界冠军,
闹得沸沸扬扬。
本来是玩个游戏而已,偏要吹成是“历史性的人机大战”,说得好像是机器挑战了人类
的智能,伤了人类的自尊似的。这整个项目起了一个相当高大上,唬人的名字,叫“
Deep Mind”。当然,其中的技术也被起了一些吓人的名字,什么“神经网络”啊,“
深度学习”啊…… 于是乎,就有人根据科幻电影的情节开始展望,这样厉害的技术,
应该可以用来做其它更加“智能”的事情,然后就开始对“人类的未来”作出一些杞人
忧天的猜想,说人类的工作很快都要被机器取代了,甚至Skynet)就要实现了,... 阅读全帖
N******s
发帖数: 10555
36
☆─────────────────────────────────────☆
Forbes (福布斯) 于 (Thu Aug 18 11:52:19 2016, 美东) 提到:
应该是9月或10月。
11月初就大选了。
☆─────────────────────────────────────☆
muyangnan (muyangnan) 于 (Thu Aug 18 12:14:22 2016, 美东) 提到:
加了难道不会一泻千里?一泻千里,老婊子不就彻底GG了?
☆─────────────────────────────────────☆
Forbes (福布斯) 于 (Fri Aug 19 17:05:47 2016, 美东) 提到:
股版最近不少人赚钱,这一幕几个月前就预料到了。
但赚到钱还是会吃亏。为何?不开玩笑,半年后再说。
☆─────────────────────────────────────☆
mRomney (壤木泥) 于 (Fri Aug 19 17:11:15 2016, 美东) 提到:
如果布局通胀: 金子 美... 阅读全帖
A*******e
发帖数: 2419
37
来自主题: Go版 - 王垠:AlphaGo与人工智能zz
AlphaGo与人工智能
在之前的一篇文章中我指出,自动驾驶所需要的“视觉识别能力”和“常识判断能力”
,对于计算机来说是非常困难的问题。至今没有任何计算机,可以在视觉方面达到驴子
之类动物的水平,更不要说和人比。可是最近Google的AlphaGo战胜了围棋世界冠军,
闹得沸沸扬扬。
本来是玩个游戏而已,偏要吹成是“历史性的人机大战”,说得好像是机器挑战了人类
的智能,伤了人类的自尊似的。这整个项目起了一个相当高大上,唬人的名字,叫“
Deep Mind”。当然,其中的技术也被起了一些吓人的名字,什么“神经网络”啊,“
深度学习”啊…… 于是乎,就有人根据科幻电影的情节开始展望,这样厉害的技术,
应该可以用来做其它更加“智能”的事情,然后就开始对“人类的未来”作出一些杞人
忧天的猜想,说人类的工作很快都要被机器取代了,甚至Skynet)就要实现了,云云。
不同AI问题的难度比较
当然也有人扯到自动车的事情,说现在AI有了长足的进步,离实现自动驾驶应该不远了
吧?有这种理解的人,其实不明白人工智能的难点在哪里。他们可能根本没上过基本的
AI课程,没实现过A*之类的“树搜索”,神经网络一... 阅读全帖
q*******n
发帖数: 360
38
来自主题: Joke版 - 求教:matlab
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
---------------------------------------------------------
方式A: 一次性地完成这1500组数据,即启动matlab一次,不用关闭,就可以一组接着
一组地一次性地完成这1500组数据的lstm运算
for n = 1:1500
load ('tdata.txt')
dataTrai... 阅读全帖
q*******n
发帖数: 360
39
来自主题: CS版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
l**********n
发帖数: 8443
40
来自主题: Programming版 - 王垠:AlphaGo与人工智能zz (转载)
【 以下文字转载自 Go 讨论区 】
发信人: AlphaCode (Alpha), 信区: Go
标 题: 王垠:AlphaGo与人工智能zz
发信站: BBS 未名空间站 (Mon Mar 14 01:47:52 2016, 美东)
AlphaGo与人工智能
在之前的一篇文章中我指出,自动驾驶所需要的“视觉识别能力”和“常识判断能力”
,对于计算机来说是非常困难的问题。至今没有任何计算机,可以在视觉方面达到驴子
之类动物的水平,更不要说和人比。可是最近Google的AlphaGo战胜了围棋世界冠军,
闹得沸沸扬扬。
本来是玩个游戏而已,偏要吹成是“历史性的人机大战”,说得好像是机器挑战了人类
的智能,伤了人类的自尊似的。这整个项目起了一个相当高大上,唬人的名字,叫“
Deep Mind”。当然,其中的技术也被起了一些吓人的名字,什么“神经网络”啊,“
深度学习”啊…… 于是乎,就有人根据科幻电影的情节开始展望,这样厉害的技术,
应该可以用来做其它更加“智能”的事情,然后就开始对“人类的未来”作出一些杞人
忧天的猜想,说人类的工作很快都要被机器取代了,甚至Skynet)就要实现了,... 阅读全帖
q*******n
发帖数: 360
41
来自主题: Programming版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
q*******n
发帖数: 360
42
来自主题: ChemEng版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
q*******n
发帖数: 360
43
来自主题: Computation版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
q*******n
发帖数: 360
44
来自主题: Mathematics版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
q*******n
发帖数: 360
45
来自主题: Physics版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
q*******n
发帖数: 360
46
来自主题: Statistics版 - 求教:matlab (转载)
【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖
m***r
发帖数: 359
47
来自主题: DataSciences版 - 机器学习日报 2015年3月楼
机器学习日报 2015-03-16
@好东西传送门 出品, 过刊见
http://ml.memect.com
订阅:给 [email protected]
/* */ 发封空信, 标题: 订阅机器学习日报
更好看的HTML版
http://ml.memect.com/archive/2015-03-16/short.html
1) 【神经网络语言模型】 by @火光摇曳Flickering
关键词:深度学习, 算法, 自然语言处理, Geoffrey Hinton, 神经网络
[我们是这样理解语言的-3]神经网络语言模型 | 火光摇曳 本文根据神经网络的发展历
程,详细讲解神经网络语言模型在各个阶段的形式,其中的模型包含NNLM[Bengio,2003
]、Hierarchical NNLM[Bengio, 2005], Log-Bilinear[Hinton, 2007],SENNA等重要变
形。 [1]
[1] http://t.jiathis.com/7tzZg
2) 【利用文本和可读性特征分类垃圾邮件】 by @iB37
关键词:会议活动, 算法, 资源, 自然语言... 阅读全帖
m***r
发帖数: 359
48
来自主题: DataSciences版 - 机器学习日报 2015年3月楼
机器学习日报 2015-03-17
@好东西传送门 出品, 过刊见
http://ml.memect.com
订阅:给 [email protected]
/* */ 发封空信, 标题: 订阅机器学习日报
更好看的HTML版
http://ml.memect.com/archive/2015-03-17/short.html
1) 【深度学习系统cxxnet V2】 by @陈天奇怪
关键词:深度学习, 算法, 代码, 神经网络
发布深度学习系统cxxnet V2,和小伙伴 @李沐M @antinucleon @winsty 完成,文章解
析了简洁高效神经网络的技术细节。代码 [1] [2]
[1] https://github.com/dmlc/cxxnet
[2] http://weibo.com/p/1001603821399843149639
2) 【加密数据高效分类问题】 by @爱可可-爱生活
关键词:算法, 分类
[论文]《Machine learning classification over encrypted data》R Bost, RA Popa
,... 阅读全帖
m***r
发帖数: 359
49
来自主题: DataSciences版 - 机器学习日报 2015年3月楼
机器学习日报 2015-03-16
@好东西传送门 出品, 过刊见
http://ml.memect.com
订阅:给 [email protected]
/* */ 发封空信, 标题: 订阅机器学习日报
更好看的HTML版
http://ml.memect.com/archive/2015-03-16/short.html
1) 【神经网络语言模型】 by @火光摇曳Flickering
关键词:深度学习, 算法, 自然语言处理, Geoffrey Hinton, 神经网络
[我们是这样理解语言的-3]神经网络语言模型 | 火光摇曳 本文根据神经网络的发展历
程,详细讲解神经网络语言模型在各个阶段的形式,其中的模型包含NNLM[Bengio,2003
]、Hierarchical NNLM[Bengio, 2005], Log-Bilinear[Hinton, 2007],SENNA等重要变
形。 [1]
[1] http://t.jiathis.com/7tzZg
2) 【利用文本和可读性特征分类垃圾邮件】 by @iB37
关键词:会议活动, 算法, 资源, 自然语言... 阅读全帖
首页 上页 1 2 3 4 5 6 7 8 9 10 下页 末页 (共10页)