|
q*******n 发帖数: 360 | 2 【 以下文字转载自 Joke 讨论区 】
发信人: qgmzztmdn (qgmzztmdn), 信区: Joke
标 题: 求教:matlab
发信站: BBS 未名空间站 (Sun Dec 1 19:05:02 2019, 美东)
matlab小白一个,求教请各位大虾帮忙看一下,出了什么问题,应该怎么处理?谢谢!
1,使用matlab2019a,现在系里的版本就是这个。
2,为什么采用以下这两种方式(方式A和方式B)运行同样的一个神经网络LSTM(包括输
入数据还有设置等等都是一模一样的!),但是得到的答案却不一样。
注:1,对于第一组数据(n=1)方式A和方式B是一样的,但是从第二组数据以后(n=2以
后,包括n=2)的所有结果,方式A和方式B全都不一样了:(
2,自己测试的结论是:matlab启动后的第一次神经网络计算都没有问题,但是让
matlab不重启,接着计算这个神经网络,就出问题了,即使已经清空了各种变量 (麻烦
大虾看看,是不是还有啥鬼咚咚还没有清空啊:(
--------------------------------------------------... 阅读全帖 |
|
发帖数: 1 | 3 在计算机时代,有个著名的摩尔定律,就是说同样成本每隔18个月晶体管数量会翻倍,
反过来同样数量晶体管成本会减半,这个规律已经很好地吻合了最近50年的发展,并且
可以衍生到很多类似的领域:存储、功耗、带宽、像素。
两年前的这个月是摩尔定律发表50周年,整整半个世纪。当时IEEE Spectrum为了纪念
摩尔定律50周年,特地发表了四篇关于摩尔定律的文章。其中一篇的题目叫“Moore’s
Law is Dying (and That Could Be Good)”,说的是摩尔定律不可能继续下去了。
1965年微芯片上的元件数增加了1倍,Gordon Moore于是预言这一趋势近期内将继续。
1975年他修改为每两年翻一翻,后来又说是18个月,或者说按指数律增长,每年46%。
这就是摩尔定律。摩尔定律预言了半导体产业50年的发展。摩尔预言了一个光辉的未来
,改变了世界。
这样高速的增长在其他产业是见不到的。美国的主粮玉米从1950年以后平均产量每年增
长2%,蒸汽涡轮式发电机把热能转换为电能,其效率在20世纪年增长率为1.5%,而1881
-2014室内灯光有效性(流明每瓦)年平均增长2.... 阅读全帖 |
|
s*****V 发帖数: 21731 | 4 离IBM的“深蓝”机器人击败国际象棋世界冠军已经有20年了。一旦人们了解了如何将
象棋规则用数学表示,电脑玩象棋的技术就一直突飞猛进——现在即使是最优秀的棋手
,面对运行在一台手机上的象棋游戏AI也未必是对手。
但是,尽管计算机在飞快地变快,象棋引擎运作的方式却一直没有大的变化。象棋算法
仍然是暴力算法——通过搜索所有可能的未来情况来找出当前的最佳走法。
当然,面对这种算法人类没有任何胜算。深蓝当时能够每秒钟计算超过2亿步,但是他
的对手,人类象棋世界冠军,也许每秒能算不会超过5步。即使表面上计算能力有如此
之大的差距,人脑和计算机的象棋水平却基本持平。显然,人脑有一些机器不具备的技
巧。
这种技巧就是通过经验缩小搜索范围的能力。通过预测最有价值的走法,人脑极大地简
化了计算任务。用计算机的语言说,搜索树被砍掉大半,只留下少数几个枝桠。
长久以来,计算机一直不擅长这个。但是今天,这种情况被伦敦皇家学院的Matthew
Lai改变了。Lai写出了一个名字叫长颈鹿的程序,通过一种完全不同于传统象棋算法的
方式来自行学习象棋。
国际上早有通用的象棋水平测试标准,这些方法同样常用来测试游戏AI... 阅读全帖 |
|
r******i 发帖数: 1445 | 5 本人曾经有一些编写棋类程序的经验,也看了nature的那篇文章。
首先从那篇文章来看,狗狗的算法是确定的。虽然他用了"神经网络“这么个看起来很
高大上的名词,在神经网络完成训练后,每次运行的结果是可预测、一定的。狗狗也不
存在什么情感。它就像一个计算器,或者电子回路,总会给出一个确定答案。
狗狗比其他软件的提高主要是用大数据训练出了高超的神经网络。狗狗声称只靠神经网
络,不进行深度计算,已经可以达到业余五段+的水平。
狗狗用了两种搜索方法。一种是经常被提及的”蒙特卡洛树形搜索“(Monte Carlo
Tree Search, MCTS),一种没有被提到名字,但应该是min-max搜索法。前一种方法用
于围棋是在十年前开始的,使得软件的水平普遍从初学者水平提高到了业余段位。后一
种方法可以用于所有双人回合制零和游戏。这两种方法都有一些根本的、难以解决的弱
点。
蒙特卡洛树形搜索本质上就是摆棋谱看形势。比如在柯洁或者雷蒙讲解的时候,他们会
经常摆出一些变化来分析形势。通过这种分析和讲解,有时候讲棋的人能够成功预测双
方的实际落子。狗狗的蒙特卡洛搜索就是靠一个弱一点(业余段位)、但是很快(... 阅读全帖 |
|
r****z 发帖数: 12020 | 6 【 以下文字转载自 ScitechNews 讨论区 】
发信人: inews (inews), 信区: ScitechNews
标 题: [KJPT]谷歌AI告诉你 一根真正优秀的黄瓜是什么样的
发信站: BBS 未名空间站 (Thu Sep 1 22:41:56 2016, 美东)
编者按:Makoto Koike 原本在日本的一家车企当工程师,大约一年前,他辞去工作回到老家帮父母经营黄瓜农场。农场并不大,然而给黄瓜分类的工作却让 Makoto 吃了不少苦头。
日本各个农场对于黄瓜有不同的分类标准,并不是我们所想的分个大小那么简单。单是 Makoto 自己家的农场,同一个品种的黄瓜的分类就达了 9 种之多。一般来说,颜色鲜艳、刺多、体态匀称的才算是好瓜。
以下是令人震撼的 Makoto 家 9 类黄瓜图表,由上至下质量依次递减。
手里刚摘了一根黄瓜,你得仔细观察它的长短、粗细、颜色、纹理、是否有小刮痕、弯的还是直的、刺多不多......要跟9类标准对应,看它属于哪一等级,这并不是一个容易学的工作。
一个人要花好几个月才能熟练掌握整个分类标准体系,所以到了采摘旺季,Makoto 家... 阅读全帖 |
|
c****t 发帖数: 19049 | 7 序 章
褐蚁已经忘记这里曾是它的家园。这段时光对于暮色中的大地和刚刚出现的行星来说短
得可以忽略不计,但对于它来说却是漫长的。
在那个已被忘却的日子里,它的世界颠覆了。泥土飞走,出现了一条又深又宽的峡谷,
然后泥土又轰隆隆地飞回来,峡谷消失了,在原来峡谷的尽头出现了一座黑色的孤峰。
其实,
在这片广阔的疆域上,这种事常常发生,泥土飞走又飞回,峡谷出现又消失,然后是孤
峰降
临,好像是给每次灾变打上一个醒目的标记。褐蚁和几百个同族带着幸存的蚁后向着太
阳落
下的方向走了一段路,建立了新的帝国。
这次褐蚁来到故地,只是觅食途中偶然路过而已。它来到孤峰脚下,用触须摸了摸这顶
天立地的存在,发现孤峰的表面坚硬光滑,但能爬上去,于是它向上爬去。没有什么目
的,
只是那小小的简陋神经网络中的一次随机扰动所致。这扰动随处可见,在地面的每一株
小草
和草叶上的每一粒露珠中,在天空的每一片云和云后的每一颗星辰上……扰动都是无目的
的,但巨量的无目的扰动汇集在一起,目的就出现了。
褐蚁感到了地面的震动,从震动由弱变强的趋势来判断,它知道地面上的另一个巨大的
存在正在向这里运动,它没有理会,继续向孤峰上攀爬... 阅读全帖 |
|
w***g 发帖数: 5958 | 8 要以平常心看待神经网络的突破。
这个突破其实已经长时间overdue了。
我坚信人脑等价于图灵机,我也倾向于认为目前
的集群计算能力已经能达到甚至超过人脑。
我也坚信未来是AI的。
(我觉得说意识依赖于人脑的某种量子机制是
扯淡。)不过我不觉得神经网络的突破能直接
导致generic AI。这个应该还需要若干个
理论突破。目前神经网络只是相当于视觉
中枢和听觉中枢,基本上没有思维和逻辑。
最终技术突破,我觉得还是要靠默默无闻的
人物,而不是现在牛x吹得震天响那批人。
下面这位我觉得就很了不起:
https://cis.temple.edu/~pwang/
具体怎么实现practical的AGI我非常感兴趣。
我现在在构想一个能接入oracle的neural network。
这里的oracle不是数据库那个,而是对
knowledge base的一个抽象。或者可以看成是
大规模的long term memory,我之前做
KGraph,发现社交网络模型对优化网络连接非常
有效。所以我基本上那个就把这个oracle想象
成以相似性/相关性为边,以概念为节点的一个
图。神经网络那部分除了咨... 阅读全帖 |
|
|
m***r 发帖数: 359 | 10 机器学习日报 2015-02-25
@好东西传送门 出品, 过刊见
http://ml.memect.com
订阅:给 [email protected]
/* */ 发封空信, 标题: 订阅机器学习日报
更好看的HTML版
http://ml.memect.com/archive/2015-02-25/short.html
1) 【用神经网络实现快速准确的依存关系解析器】 by @爱可可-爱生活
关键词:会议活动, 算法, 资源, 自然语言处理, Christopher Manning, EMNLP, PDF,
会议, 教育网站, 神经网络
[论文]《A fast and accurate dependency parser using neural networks》(2014)
D Chen, CD Manning [1] 来自Stanford,用神经网络实现快速准确的依存关系解析器
[1] http://cs.stanford.edu/~danqi/papers/emnlp2014.pdf
长微博图:http://ww4.sinaimg.cn/large/5396e... 阅读全帖 |
|
|
|
m***r 发帖数: 359 | 13 http://ml.memect.com/weekly/2015-03-15/
## 2015-03-15 星期日,完整版 28 条
NICAR15主题报告Hands-on with machine learning @爱可可-爱生活
《七周七并发模型》 @睡眼惺忪的小叶先森
两个R语言教程 @2gua
经典老文Fast unfolding of communities in large networks @爱可可-爱生活
用PageRank计算世界杯参赛球队排行榜 @爱可可-爱生活
## 2015-03-14 星期六,完整版 28 条
LINE模型大规模网络降维公布论文以及源代码 @chuckpku
概率图模型基础总结 @数盟社区
Sum-Product Networks @爱可可-爱生活
IJCV 综述:图模型中的离散能量最小化 @赵家平USC
Stanford基于神经网络的自然语言依存关系解析器 @爱可可-爱生活
## 2015-03-13 星期五,完整版 32 条
多智能自然语言处理 @刘知远THU
计算机辅助翻译推荐作者 @青鸟leo翻译之声
FaceNet人脸识别 @爱可可... 阅读全帖 |
|
i***s 发帖数: 39120 | 14 植入这些细胞后,科学家用显微镜进行观察。在照片中,人体细胞显示绿色。
研究人员发现,老鼠被植入人体细胞后,在一系列测试中变现更为出色。
相比老鼠来说,人体星形胶质细胞个体调整数千个突触活性的几率更大。
北京时间3月12日消息,据国外媒体报道,一项新研究发现,把人脑细胞植入老鼠体内可使这些动物更快学习新事物。科学家表示,他们把人体中枢神经系统中的胶质细胞植入动物体内,发现这些人体细胞影响动物大脑的通讯能力。他们说,这一发现可能对了解人脑进化具有重要意义。
这些研究人员认为,星形胶质细胞的进化可能是众多造成人类发展中更高认知功能和使人类不同于其他物种的关键事件的其中之一。这项新研究的负责人、罗彻斯特大学医学中心神经专家史蒂文-高曼表示:“我们认为,我们的研究最早证明了人体胶质细胞具有独特功能优势。”
这些发现于人体中枢神经系统的细胞直到最近才被认为是“管家”细胞。该发现还可能表明胶质细胞在疾病的形成中扮演重要角色。高曼说:“这一重要发现还向我们提供一个有助于研究大量在形成过程中胶质细胞扮演角色的疾病的全新模型。”相比其他物种,人脑中的星形胶质细胞更多、更大和更具多样性。
在人体内,星形胶质... 阅读全帖 |
|
f***y 发帖数: 4447 | 15 http://news.sciencenet.cn/htmlnews/2016/3/340144.shtm
本报讯(记者倪思洁)两会期间,记者从中科院计算技术研究所了解到,该所研究员陈
云霁、陈天石的课题组提出的深度学习处理器指令集“电脑语”被计算机体系结构领域
顶级国际会议“计算机体系结构国际研讨会”(ISCA2016)接收,其评分排名所有近
300篇投稿的第一名。2014年,陈云霁、陈天石课题组在国际上提出了首个深度学习处
理器架构“寒武纪”,而“电脑语”则是“寒武纪”的指令集,成为国际首个深度学习
指令集。
9日,基于深度学习的围棋程序AlphaGo打败职业棋手李世石,让深度学习智能处理技术
广为人知。
陈天石告诉《中国科学报》记者,深度学习是一类借鉴生物的多层神经网络处理模式所
发展起来的智能处理技术。这类技术已被微软、谷歌、脸书、阿里、讯飞、百度等公司
广泛应用于计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并取
得了极好的效果。因此,深度学习被公认为目前最重要的智能处理技术。
但是,深度学习的基本操作是神经元和突触的处理,而传统的处理器指令集(包括x86
和... 阅读全帖 |
|
c****3 发帖数: 10787 | 16 神经元也不是计算机用的逻辑电路和布尔代数,其实有很多现象说明两者不同。
逻辑电路是0和1,表示存在和不存在,布尔代数和电脑也是基于此。
神经元除了这两个状态表示外界刺激存在和不存在,还有其它状态,而且有时候神经元
对刺激不反应,说明更复杂,状态更多。
神经网络干嘛用的,也可能就是传导神经脉冲信号的,没有运算。现在连记忆存在大脑
哪里都找不到,怎么可能知道神经网络,除了传导,还有其它什么功能。
现在非说神经网络有运算功能,其实也没有多少生物学的证据。而且就算有运算功能,
因为神经元和逻辑电路的区别,也不可能拿集成电路的那一套,套进大脑里。 |
|
发帖数: 1 | 17 就是模拟人脑的神经网络
人脑是基于储存了大量图像信息才会有能力鉴别。这个是神经学家在几十年前做过动物
神经元实验的,里面有一节就是人脑快速查阅存储过的加以对比,这个速度非常快,只
有0.1秒就可以反射回来了。
:DL的神经网络不是模拟了人脑神经网络 。只是 inspired by 人脑
: |
|
c****x 发帖数: 6601 | 18 http://www.sohu.com/a/190796338_260616
斯坦福大学的迈克尔·科辛斯基(Michal Kosinski)和王轶伦发现,
王轶伦(左)、科辛斯基(右)
通过从3万多张人脸图像中提取出来的特征,计算机识别出同性恋男性的准确率最高可
达到91%,同性恋女性则为83%。
论文认为,与产前激素理论一致,同性恋男性的长相更“女性化”,下巴更窄,鼻子更
长,额头更大,同性恋女性则相反。
这篇题为《深度神经网络基于人脸图像判断性取向比人类更准确》的论文于9月7日发表
在《人格与社会心理学杂志》(Journal of Personality and Social Psychology)上后
,引发了媒体和社交网络的热议。
英国《卫报》担心,这项技术会导致青少年“自测”,夫妻“互测”,而在对同性恋处
以死刑的国家,这项技术更可能沦为杀人工具。
异性恋(左)、同性恋(中)男女的复合面部图像,最右为异性恋(绿色)、同性恋(红色)男
女的平均面部标记
论文的摘要写道:“我们发现人脸中包含的有关性取向的信息远比人脑能够感知到的多
。我们用深度神经网络从35326张面部图像中提取... 阅读全帖 |
|
s*****V 发帖数: 21731 | 19 神经网络是狠人类思维方式很想象的东西,最近的这一波突破都是靠深度神经网络得来
的,别的那些领域不温不火的几十年了也没有看出有什么太大的前途。唯有神经网络,
拥有几乎无限的模拟能力,非常有前途实现真正的人工智能。 |
|
发帖数: 1 | 20
给你看看美国的年轻人在干什么。注意这还是3年前的文章。
========================================================
中国在“互联网+”,美国却已进入“新硬件时代”!
2015-05-16 政商阅读
作者:谷来丰 上海交大海教育学院副院长
本文来源:交大海外
2015年4月,我院副院长谷来丰随全球CEO三期游学美国,期间在硅谷参访给他带来了不
小的震撼,本文是他有感于一边是举国上下大搞“互联网+”,另一边,美国则悄悄地
进入了我们为所未闻、见所未见的“新硬件时代”,他认为我们的企业乃至整个社会,
应该在所谓的“互联网+”狂热中冷静一下,放眼2-3年后的未来,那里有一个“新硬件
时代”在悄悄来临。这个时代更适合制造业实业家的口味。中国的新制造业正处在黎明
前的黑暗之中,但是在天际间,已经有一丝曙光,谁先播种,谁先收割。
以下是正文:
在中国举国上下大搞“互联网夹”,全国、全社会进一步深度数字软化的时候,美国悄
悄地进入了“新硬件时代”。
新硬件时代,是以美国强大的软件技术、互联网和大数据技术... 阅读全帖 |
|
C****o 发帖数: 1549 | 21 据说神经网络其实不是人工智能的最优解模型
: 人脑的计算能力可能就是这么来的
: 而且 作为千少,我可以告诉你,CS里的神经网络的模型相对于生物的神经网络
,是极
: 其简化以后的。好比生物网络里,两个神经元细胞之间有10中不同的交互方式/
法则;
: 而现在的CS神经算法里只考虑了一种,比如Linear threshold
|
|
a*******g 发帖数: 3500 | 22 想想神经网络 在硬件允许多层神经网络前 多么可笑
在硬件大发展后 神经网络表现出的巨大潜力
: 超算代表了一种落后的思维,认为世界上的问题,都是能靠计算解决的
: 其实根本不是,能靠计算解决的问题,现在的算力大部分都够了
: 其他问题,也不是靠算力能解决的,除了灌水想不出干嘛,最后就闲置了
|
|
v**e 发帖数: 8422 | 23 俄媒:中国超算领先地位稳固 其他国家难超越
核心提示:专家们认为,超算控制复杂机器人的能力将成为新一年设计开发的重点。
2016年中国在超算领域稳固了领先地位。
“神威·太湖之光”。
参考消息网1月2日报道 俄媒称,2016年中国在超算领域稳固了领先地位——制造出世
界上运算速度最快的超级计算机“神威·太湖之光”。日本向中国发起挑战,美国也有
可能参与这场争霸赛。
据俄罗斯卫星网12月29日报道,俄罗斯竞争情报专家在接受卫星网采访时预测,超级计
算机研发就像核武竞赛,将在2017年再上新台阶。
专家们认为,超算控制复杂机器人的能力将成为新一年设计开发的重点。2016年中国在
超算领域稳固了领先地位——制造出世界上运算速度最快的超级计算机“神威·太湖之
光”,其每秒浮点运算速度为9.3亿亿次,拥有1000多万个核。“神威·太湖之光”
2016年6月投入使用,其效率超越之前六度称雄的“天河二号”。
“神威·太湖之光”未使用外国生产的组件,而“天河二号”装备了美国英特尔公司的
处理器。
日本向中国发起挑战——计划投入1730亿美元建设每秒浮点运算速度达13亿亿次的超算
。而中国接受了挑战——... 阅读全帖 |
|
f*****n 发帖数: 224 | 24 转贴的人少转答案了。。。
附答案:
1,以下谁是二进制思想的最早提出者?
a,伏羲;b,姬昌;c,莱布尼茨;d,柏拉图。
【答案】c
中国人会选a,西方人会选c。据说伏羲画八卦,这也只是据说,实际不可考,比较确切
的是18世纪莱布尼茨发现二进制。
2,以下哪个概念和公孙龙的《指物论》中的“指”字含义相近?
a,变量;b,数组;c,对象;d,指针。
【答案】d
《指物论》是“能指”和“所指”的关系,“指”相当于“指针”,“物”相当于“对
象”。指针本身只能记录一个例如字符串的地址,通过指针可以找到这个字符串本身。
而变量a, 你可以让a = 1 ,也可以让a = 2,数组就是 [1,2,3]这种的,只是表示一个
同类的序列。
3,蔺相如,司马相如;魏无忌,长孙无忌。下列哪一组对应关系与此类似?
a,PHP,Python;b,JSP,servlet;c,java,java script ;d,C,C++。
【答案】c
四个人都不是一个时代,就是名字像,其实没关系。java跟java script 名字像但完全
没有关系。c和c++有关系。
4,秦始皇吞并六国采用了以下哪种算法思想?
a,递... 阅读全帖 |
|
t******l 发帖数: 10908 | 25 其实我现在觉得,对于 hyperlexia,其实也还是马可夫模型。。。差别只是在于
hyperlexia 可能更多的是 echolalia 或者 context-appropriate delayed
echolalia。。。或者说,浅神经网络 vs 深神经网络的环境下的马可夫模型的
差别。。。因为 echolalia 需要的“理解”较少(“理解”可能是深神经网络的事
儿),我猜测对 echolalia 而言,level A 到 level H 的差别并不大,导致
hyperlexia 父母觉得直接流畅读论语(“读”在这里解释为 delayed echolalia),
也不是个事儿。 |
|
l********7 发帖数: 2974 | 26 我理解你对DNN的热情,呵呵。嗯,时间序列的预测都是这类temporal embedding的做
法,具体怎么构建高维矢量,五花八门。
虽然我没做过股票的数据,不知道具体做股价序列预测有多靠谱;但是,我的要点不是
反对DNN可以用来做black-box建模,而是想说,对于高维随机矢量的时间序列建模,
(严格来说)没任何客观证据,表明DNN就是远远超越其他建模技术的银枪银弹。DNN唯
一抓住了大家眼球的,是似乎模拟了人脑神经网络的一种“神奇”技术,而事实远不是
这样。本质上,一个训练好的DNN,就是一个(deterministic)的函数映射,所以更客
观的名称是“人工神经网络”(ANN,Artificial NN),或者更客观点,function
approximator;而如何训练出这样一个最优化的函数映射,来一般性地表达时间序列动
力演化的“所有”模式,就是这类序列学习问题的关键难点(generalization)。凭良
心说,把人脑神经网络简化到这样,能在多大意义上真正“模拟”了人脑的智能呢?也
许可以说,在某些问题上,ANN模仿了人脑的某一个非常狭窄的方面的智能。
如果你用AN... 阅读全帖 |
|
j****a 发帖数: 1406 | 27 Ng在斯坦福搞的神经网络,参数达一百一十二亿。人脑的神经连接有一百万万亿个.
人工神经网络要是能接近大脑,每个人工神经元必须能达到一万个大脑神经元的功能
GPU是模拟神经网络的完美硬件. 将来无人驾驶都是屁,像westworld那样女朋友是不是
机器人 你都搞不清楚,那又有什么区别呢?
其实差了万万倍,考虑GPU性能本身增长万倍的话,nvda要涨1万倍. over |
|
a*****g 发帖数: 19398 | 28 2016年1月28日,谷歌AI——Alphago战胜人类围棋冠军的消息让科技圈振奋,让围棋圈
惶恐。Alphago的研发团队是谷歌新近收购的英国人工智能公司Deepmind,关于
Deepmind,国内人工智能圈人士都有所耳闻,但熟悉者恐怕不多。这究竟是一家什么样
的公司?
Nature 杂志的记者进入Deep Mind位于英国伦敦的公司内部进行了采访,视频来自
Nature、后期由黑匣整理:
2011年,杰米斯?哈萨比斯在埃隆?马斯克等人的投资下,成立了一家人工智能初创公司
DeepMind,现在,这家公司已经变成了世界上最有价值的公司之一。2014年6月,哈萨
比斯和DeepMind的另两位联合创始人肖恩?列格、穆斯塔法?苏莱曼达成一致意见,同意
将DeepMind以4亿美元的价格卖给谷歌。昨天,谷歌DeepMind推出的人工智能算法打败
了人类围棋选手,震惊世界。
谷歌为何收购?Deepmind牛逼在哪里?来看看哈萨比斯在接受Backchannel采访时的答
案。
Backchannel:谷歌是一个人工智能公司吗?他们有什么吸引你们的地方呢?
哈萨比斯:是的,人工智能是谷... 阅读全帖 |
|
a*****g 发帖数: 19398 | 29 2016年1月28日,谷歌AI——Alphago战胜人类围棋冠军的消息让科技圈振奋,让围棋圈
惶恐。Alphago的研发团队是谷歌新近收购的英国人工智能公司Deepmind,关于
Deepmind,国内人工智能圈人士都有所耳闻,但熟悉者恐怕不多。这究竟是一家什么样
的公司?
Nature 杂志的记者进入Deep Mind位于英国伦敦的公司内部进行了采访,视频来自
Nature、后期由黑匣整理:
2011年,杰米斯?哈萨比斯在埃隆?马斯克等人的投资下,成立了一家人工智能初创公司
DeepMind,现在,这家公司已经变成了世界上最有价值的公司之一。2014年6月,哈萨
比斯和DeepMind的另两位联合创始人肖恩?列格、穆斯塔法?苏莱曼达成一致意见,同意
将DeepMind以4亿美元的价格卖给谷歌。昨天,谷歌DeepMind推出的人工智能算法打败
了人类围棋选手,震惊世界。
谷歌为何收购?Deepmind牛逼在哪里?来看看哈萨比斯在接受Backchannel采访时的答
案。
Backchannel:谷歌是一个人工智能公司吗?他们有什么吸引你们的地方呢?
哈萨比斯:是的,人工智能是谷... 阅读全帖 |
|
|
a*****g 发帖数: 19398 | 31 2016年1月28日,谷歌AI——Alphago战胜人类围棋冠军的消息让科技圈振奋,让围棋圈
惶恐。Alphago的研发团队是谷歌新近收购的英国人工智能公司Deepmind,关于
Deepmind,国内人工智能圈人士都有所耳闻,但熟悉者恐怕不多。这究竟是一家什么样
的公司?
Nature 杂志的记者进入Deep Mind位于英国伦敦的公司内部进行了采访,视频来自
Nature、后期由黑匣整理:
2011年,杰米斯?哈萨比斯在埃隆?马斯克等人的投资下,成立了一家人工智能初创公司
DeepMind,现在,这家公司已经变成了世界上最有价值的公司之一。2014年6月,哈萨
比斯和DeepMind的另两位联合创始人肖恩?列格、穆斯塔法?苏莱曼达成一致意见,同意
将DeepMind以4亿美元的价格卖给谷歌。昨天,谷歌DeepMind推出的人工智能算法打败
了人类围棋选手,震惊世界。
谷歌为何收购?Deepmind牛逼在哪里?来看看哈萨比斯在接受Backchannel采访时的答
案。
Backchannel:谷歌是一个人工智能公司吗?他们有什么吸引你们的地方呢?
哈萨比斯:是的,人工智能是谷... 阅读全帖 |
|
m******V 发帖数: 1291 | 32 看大家最近讨论狗家的AI,本人弈城五段,自控专业,资深马工给大家分析一下吧。
首先所谓的人工智能就是个joke,现在的电脑架构,再给它一百年时间,也不会发展出
了真正的人类智能来。这一点有点头脑的理科生都明白。
所谓的神经网络算法其实离人类真正的学习能力差了十万八千里。神经网络是自控算法
的一种,还有很多其他的算法,学过自控的人都知道,种种这些算法都是为了寻找非线
性模糊系统的接近最优点,所谓的学习就是大量的喂现场数据,让这些算法自我调整它
的参数,来达到最优控制效果。这种学习根本不是人类的学习功能的,顶多就是个参数
调整。就是有新的数据来,让算法认识到系统有新的变化,调整一下参数来handle一下
。神经网络所谓的记忆学习功能其实是纯数学性质的,跟人类的学习功能有本质的区别
。别说喂alphago三百万盘,就是三亿盘棋谱,它的棋力也不会像人类学习一样突飞猛
进,因为它根本就没有人类的学习能力。再说了就是真给它输入了三百万盘棋谱,没人
帮它指出哪是好棋坏棋,等于好坏数据混在一起喂,调出来的还不一定是什么东西呢。
所以要么有人给它喂谱,指出了哪里好哪里坏,要不就全喂高手棋谱,相信99%的... 阅读全帖 |
|
m******V 发帖数: 1291 | 33 看大家最近讨论狗家的AI,本人弈城五段,自控专业,资深马工给大家分析一下吧。
首先所谓的人工智能就是个joke,现在的电脑架构,再给它一百年时间,也不会发展出
了真正的人类智能来。这一点有点头脑的理科生都明白。
所谓的神经网络算法其实离人类真正的学习能力差了十万八千里。神经网络是自控算法
的一种,还有很多其他的算法,学过自控的人都知道,种种这些算法都是为了寻找非线
性模糊系统的接近最优点,所谓的学习就是大量的喂现场数据,让这些算法自我调整它
的参数,来达到最优控制效果。这种学习根本不是人类的学习功能的,顶多就是个参数
调整。就是有新的数据来,让算法认识到系统有新的变化,调整一下参数来handle一下
。神经网络所谓的记忆学习功能其实是纯数学性质的,跟人类的学习功能有本质的区别
。别说喂alphago三百万盘,就是三亿盘棋谱,它的棋力也不会像人类学习一样突飞猛
进,因为它根本就没有人类的学习能力。再说了就是真给它输入了三百万盘棋谱,没人
帮它指出哪是好棋坏棋,等于好坏数据混在一起喂,调出来的还不一定是什么东西呢。
所以要么有人给它喂谱,指出了哪里好哪里坏,要不就全喂高手棋谱,相信99%的... 阅读全帖 |
|
h*********n 发帖数: 11319 | 34 不一样
阿发狗相当于用神经网络来优化搜索。练习的时候相当于训练这个神经网络,昨天是实
际用上这个神经网络
举个网友的解释
发信人: softmagic (魔术师), 信区: Weiqi
标 题: 用一种真正便于棋手理解的方式解释alphago的算法
发信站: 水木社区 (Thu Mar 10 07:58:11 2016), 转信
其实讲深度学习没有什么太大意义,那些都是离线做好的,
alphago下棋的时候并不需要深度学习。
但是事先做好的深度学习训练的模型保证了下面讲的参与“研讨”的选手的质量水平。
AlphaGo 的MCTS算法相当于几万个业余3-5段的选手,经过合理的组织,在
1分钟内研讨了几百万盘当前局面下的后续对局发展。最终得出一个最有希望
获胜的招法。
这种合理组织并且表现在:
1.每个局面下,越有“合理招法”希望的落子,会被更多的“研讨对局”,通常比如当前
局面下,最有希望的落子位置会比,希望第二大的落子位置研讨次数多出一个数量级。
这个就是UCT算法,理论上来说,UCT一定会收敛到最优解。
但是需要的时间不切合实际。
2.比较容易被忽略的是,在研讨过程中,他们的各个局... 阅读全帖 |
|
t******l 发帖数: 10908 | 35 对杀是不是定式和逻辑的作用很强? 无逻辑型神经网络对逻辑型对杀不是长处?
那下来马工就应该搞有逻辑型神经网络负责对杀, 无逻辑型神经网络负责大局.
这样狗的右脑负责大局, 左脑负责对杀, 大局13段狗右脑 + 对杀13段狗左脑,
综合26段妥妥的. 跟人类玩先让 100 子再玩. |
|
D*******r 发帖数: 2323 | 36 你读读去年nature上的论文就知道了,deepmind做了只单开某条或两条神经网络,以及
单靠rollout,已经各神经网络和rollout的组合,互相之间的胜率比较,就可以看任一
个神经网络或者policy对棋力的影响了。 |
|
x**8 发帖数: 1939 | 37 以前的看法是对软件技术发展了解不够,或者说无知,
就说我吧,以前还搞过神经网络,搞过的意思是说工作内容就是神经网络,以此谋生的
意思,
但是我一开始也不觉得能赢李世石,
后来看了本版一个ID的帖,说了几个新词儿,我还真没听过,因为好多年不搞神经网络
了,就去看了一下,然后就改变看法了,觉得李世石会输,并且是大输,恩,然后果然
就大输了, |
|
e***d 发帖数: 8248 | 38 嗯,现在好多大型计算实验室,比较喜欢用 nVidia 的 Kepler 架构的 GPU 来算。
Minsky 等人早期的神经网络,是搭的模拟电路,可以作一些简单识别。
再后来是上小型机,微型机,之后神经网络研究沉寂了好久。
Minsky 复出,提出结构主义的神经网络,大伙顿时顿开茅塞,毕竟是大师。
现在基本就是拼计算能力,算法上都查不太多。
以后计算能力能跟人脑比拼之后,就是功能区模拟了,而不是象现在由于计算能力的限制
仅限于单一功能模拟。
对各种意识的电信号级别的解构(解调)和重构(调制)也很重要,都挺好玩的。 |
|
发帖数: 1 | 39
首先,仍然要说清,智力并不是意识,两者甚至并不直接相关。你那个问题应该是,
原始人和婴儿,是否有意识。
这是显然的。有很多人,到了成年,还可以记得自己在摇篮里的情形。这个是说,
他们记得,那个时候,是知道自己存在的,这个和他们有没有智力,可不可以心算
除法,能不能比计算器算得快,或者下围棋,完全无关。而智障的人,仍能够知道
自己存在,而他可能没有普通人简单的逻辑思维和智力,和计算器,计算机比心算
更没可能了。
你说婴儿神经网络都在,没有训练。没有训练那就是说没有智力。如果没有智
力,智力产生意识的说法如何能成立。
我们有自己的经历,知道自己的存在,这个不用证明-这就是自我意识了。我们看
到其他的人,可以和我们交流,又有同样的外形,我们以此推广,知道其他人也
有自我意识。再看动物,我们也可以和它们有交流,当然不是人类的语言,他们
也有同构类似的形体,可以推广知道他们也应该有自我意识。
但是机器不同,那是我们人类从头到尾设计制造的。在不知道人类意识和智力行为
关系的情况下,计算器计算机实现的是用另外的机制,模拟逻辑演算。因为机器
擅长快速重复,以量超越人类逻辑和演算能力,已经有几十年了。... 阅读全帖 |
|
发帖数: 1 | 40 不好意思, 刚看到你的pm...
那个youtube的视频里面的例子(即https://www.youtube.com/watch?v=4tP1JA6aH5o)是
这样的:
matlab里面的input 和 target这两个变量(i.e. 两个矩阵, input是4x26, target是
1x26, )是属于training data...training data的目的是为了生成用于预测的神经网络
的具体参数.
你可以这样想: input矩阵有26个column,每个column有4个点, 每个column对应着
target矩阵里面的一个值...这样input的26个column对应着target里面的26个值...
我们可以想象需要生成这样的一个四变量的方程 fn(arg_1, arg_2, arg_3, arg_4):
现在我们知道的映射(即用于training的input和target变量)是:
fn(input_1x1, input_2x1, input_3x1, input_4x1) = target_1x1
fn(input_1x2, input_2x2, in... 阅读全帖 |
|
f******s 发帖数: 3849 | 41 第二话 鸡飞狗跳
在沙尔克中部战线指挥部里,卡洛斯老头也和那些被软禁的特使有同样疑问。
“战甲真的能够活起来吗?”
各国高层此刻都在疑惑,并不知道本国特使出于什么原因被扣押,连消息都不能传
递,但奥摩尔和卡佩奇却是例外。卡洛斯和马克斯在第一时间就知道天之城发生了什么
事。
此刻两个人都在沙尔克。自从反攻开始他们就来到这里,摆出一副即将大举进攻弗
兰萨的架势。
消息传来,卡洛斯老头一下子愣住,和他一起发愣的还有大叔马克斯。两个人得到
消息时正在商议开春后是否发动一场试探性的进攻,这下子什么都不用考虑,和试探性
进攻比起来,利奇闹出来的这件事显然重要得多。
大叔立刻匆匆忙忙赶往卡佩奇。对于利奇的设想,最有发言权的可能是艾斯波尔和
莎尔夫人这两位神工。他不担心泄密,如果连那两位都信不过,这个世界上就没有可信
任的人。
卡洛斯老头挺知趣,没有找自己国家的战甲制造师询问。他知道马克斯得到确切消
息肯定会告诉他。
一直到下午三点,马克斯总算回来。
卡洛斯早已下令其它人不得靠近。他和马克斯进了客厅之后,急不可待地问道:“
艾斯波尔他们是怎么说的?这个设想真的可行吗?”
“应该有可能。”大叔说道。老... 阅读全帖 |
|
f****u 发帖数: 443 | 42 略论唯识学的世界观八
分类: 略论唯识学的世界观全文
2.3.1.2.伪时空结构
我们说时空概念可以理解成解释和整理事件之间关系的一种概念工具,并不存在真实的
时空。但这种工具为什么能有效呢?因为事件之间的关系满足时空约束条件,所以能用
时空概念来概括这些事件和关系。那事件之间的关系为什么会满足时空约束条件呢?所
谓满足时空约束条件是指事件之间的定量关系满足一定条件,如果定量关系是在某种更
基本的关系基础上产生的,那么问题就进一步还原为这种更基本的关系怎样造成使事件
之间的定量关系,使之仅仅时空约束条件。这样提问则问题清晰多了,一种自然的解释
是,相对事件构成了某种结构,使得事件之间量化关系接近时空约束条件。这种结构可
称为伪时空结构。伪时空结构可以是一个由众多微细事件交织成的网,构成其它事件展
开的背景。就象电影荧幕是一块由纤维织成的网,这个纤维网构成了各种影象的背景。
最简单的空间是一维空间,它可以看成是一组顺序排列的点。当这些点足够密的时候,
就接近于人们所理解的连续一维空间。那么什么是顺序排列呢?如果用点和点之间的关
系描述一维的点阵序列,其特征是每个点只能和前后两个点直接相邻... 阅读全帖 |
|
f*****w 发帖数: 2602 | 43 就吹吧 是牛人没错 但是也算不上最顶尖的
google brain主要是engineering上的成功,让神经网络的运算到了大集群的规模
andrew只是提供了些算法上的咨询。 小规模的神经网络的好实现容易得多了去了,这
种报道说得好像google brain就是他一个人的贡献 没有andrew不行似的
光说算法的话 神经网络学术上最近几年最大贡献又不是他 google要从学术界找算
法咨询其他的牛人也有的是。 |
|
a*****g 发帖数: 19398 | 44 2016年1月28日,谷歌AI——Alphago战胜人类围棋冠军的消息让科技圈振奋,让围棋圈
惶恐。Alphago的研发团队是谷歌新近收购的英国人工智能公司Deepmind,关于
Deepmind,国内人工智能圈人士都有所耳闻,但熟悉者恐怕不多。这究竟是一家什么样
的公司?
Nature 杂志的记者进入Deep Mind位于英国伦敦的公司内部进行了采访,视频来自
Nature、后期由黑匣整理:
2011年,杰米斯?哈萨比斯在埃隆?马斯克等人的投资下,成立了一家人工智能初创公司
DeepMind,现在,这家公司已经变成了世界上最有价值的公司之一。2014年6月,哈萨
比斯和DeepMind的另两位联合创始人肖恩?列格、穆斯塔法?苏莱曼达成一致意见,同意
将DeepMind以4亿美元的价格卖给谷歌。昨天,谷歌DeepMind推出的人工智能算法打败
了人类围棋选手,震惊世界。
谷歌为何收购?Deepmind牛逼在哪里?来看看哈萨比斯在接受Backchannel采访时的答
案。
Backchannel:谷歌是一个人工智能公司吗?他们有什么吸引你们的地方呢?
哈萨比斯:是的,人工智能是谷... 阅读全帖 |
|
a*****g 发帖数: 19398 | 45 2016年1月28日,谷歌AI——Alphago战胜人类围棋冠军的消息让科技圈振奋,让围棋圈
惶恐。Alphago的研发团队是谷歌新近收购的英国人工智能公司Deepmind,关于
Deepmind,国内人工智能圈人士都有所耳闻,但熟悉者恐怕不多。这究竟是一家什么样
的公司?
Nature 杂志的记者进入Deep Mind位于英国伦敦的公司内部进行了采访,视频来自
Nature、后期由黑匣整理:
2011年,杰米斯?哈萨比斯在埃隆?马斯克等人的投资下,成立了一家人工智能初创公司
DeepMind,现在,这家公司已经变成了世界上最有价值的公司之一。2014年6月,哈萨
比斯和DeepMind的另两位联合创始人肖恩?列格、穆斯塔法?苏莱曼达成一致意见,同意
将DeepMind以4亿美元的价格卖给谷歌。昨天,谷歌DeepMind推出的人工智能算法打败
了人类围棋选手,震惊世界。
谷歌为何收购?Deepmind牛逼在哪里?来看看哈萨比斯在接受Backchannel采访时的答
案。
Backchannel:谷歌是一个人工智能公司吗?他们有什么吸引你们的地方呢?
哈萨比斯:是的,人工智能是谷... 阅读全帖 |
|
T*******x 发帖数: 8565 | 46 我被王垠说服了。
唯一不太信服的是神经网络,我觉得神经网络还是很厉害的吧,不会像王垠说的那么不
堪吧。不过我也不懂什么是神经网络。
Mind
…… |
|
l***j 发帖数: 59 | 47 神经网络这东西也不算什么新东西,而且跟传统的机器学习模型有着千丝万缕的联系,
你甚至可以把它想象成把一堆logistic regression用factor analysis的思想攒到一起
,训练方法也是传统ml用滥了的gradient descent
所以说 神经网络并不是那么太新的东西 认真学过传统ml方法的 就会明白我说的
个人认为 最大的机会是应用而不是理论创新
可以结合目前你的工作 把神经网络一个个替换掉目前的东西 看看有什么提高 然后吹
嘘一通 靠这个上位 这才是投资最少见效最快的。等这个技术滥大街了,你早就上位了
,也就不用担心技术落后了。新来的技术牛逼的,会成为你的手下。
至于技术学起来不难 门槛低 这都不是问题。你要是光想跟人拼纯技术,真不一定比刚
毕业的phd高多少。
有工作经验的优势在于,行业知识!行业知识!行业知识!这个才是让你脱颖而出体现
独特价值的地方。
技术是重要,但也是为商业服务的,不断提高自己的行业知识,这是让自己的工作持续
安全的关键 |
|
w***g 发帖数: 5958 | 48 你说的这个叫cross-correlation。
卷积用负号是为了得到对称性。虽然只是一个符号的差别,
卷积满足交换率结合率,推导起公式来方便得多,
而x. corr.没有这些性质。有的数学现象,用卷积
描述是一个漂亮的公式,能看出来规律。如果用x. corr.
描述就是一堆mess, 看不出来规律。规律其实一直都在,
看不看得出来的差别。
如果是训练神经网络,k还是-k没关系。所以我说
其实神经网络就是一个brutal force pattern matching
with sliding window,本来也是很牛x和普世的东西。
只不过那批人愿意硬套数学概念,叫什么卷积和张量。
上面xiaoju说得对,神经网络的牛x在另一个层次上。
光靠套一个卷积概念,还看不出里面的规律来。
这个规律得发明新的数学概念才能看出来。 |
|
H****S 发帖数: 1359 | 49 ANN之前半死不活被SVM压得死死的,是因为业界还是把它简单的作为机器学习算法的一
种,没有人认识到隐含层的重要意义。所有即便那时有人使用ANN,大部分只用一个隐
含层,也有完全不用隐含层的,那就成了logistic regression了。突破口是Hinton划
时代的向所有人展示原来神经网络是可以学习feature的。2002年的那篇science文章把
一个原始features高度耦合的文档分类问题转化成了另外一个feature set,后者视觉
上就线性可分。我同意正确率显著提高也是一个里程碑,不过在SVM最风骚的那几年,
大家都在研究kernel space,神经网络如果只是单纯提高正确率,我相信不少人的第一
想法肯定会是还有更牛的kernel space可以完胜神经网络,只是还没被找到而已。 |
|