c*********3 发帖数: 6862 | 1
我不用会下(虽然我也确实会围棋),我只是比你看的东西多一点。你觉得alpha go就
是简单的机器试错死算,简直贻笑大方。
AlphaGo设计师黄士杰:“最强的学习技能在人类的脑袋里”
http://www.ftchinese.com/story/001075040#adchannelID=2100
AlphaGo是怎么开始的?
回到一开始,AlphaGo到底是怎么开始的?起点是有三组人马的聚集:Deepmind首席执
行官Demis Hassabis与AlphaGo项目领导David Silver、我、还有两位谷歌大脑(Google
brain)的同事Chris Maddison和Ilya Sutskever。
Demis和David原本是剑桥大学的同学,友情深厚。对西方人来说,当1997年IBM超级电
脑“深蓝”赢了西洋棋棋王卡斯巴罗夫之后,就只剩下流传几千年的中国围棋,是人工
智能发展的极大挑战。一开始,很多研究人员想把研究西洋棋的技术移到围棋上,但都
失败了。在2006年蒙特卡洛树搜索出来后,研究才提升一阶,让机器棋手的水平能达到
业余三段,但离职业棋士一段还有距离。Demi... 阅读全帖 |
|
d*****u 发帖数: 17243 | 2 你这种比较本来就没有意义啊。
神经网络的特点就是用数据来逐渐调整参数,从而模拟function或者functional。
你不准人家用各种数据针对训练,然后又要求实现一个解析函数的功能,那不是缘木求
鱼吗?
你的deformable template也是基于各种prior(比如弹力,势能函数)
你知道他们可用是因为日常接触到的物体有弹性、有形变,我们对物体分类的时候容许
这些变化。
神经网络从原始数据出发,它不知道哪些变化是人类概念中允许的,哪些是不允许的,
都需要数据来确认。 |
|
i***l 发帖数: 9994 | 3 你知道人类,或者说最低级的生物体,比如草履虫,和目前最高级的机器之间的最基本
区别是什么吗?生物体都具有的一个自发行为,就是他们对物理,化学刺激产生的自发
应激反应,比如对地心引力,对电场,酸碱度,温度,光强度,对营养物质聚集区。这
类自发反映根本不要要神经或者大脑的参与。草履虫根本就没有神经和大脑。
这说明,生物体和外界的交互作用,最开始并不是建立在大脑和神经网络这个系统上的
。AI把一切与外界的交互都假定是基于一个所谓神经网络,这个假设本身就很可能是错
的。 |
|
D***r 发帖数: 7511 | 4 记忆是智能的基础。
但也不能把人工智能的成就都看成记忆的贡献。
比如一个神经网络模型是不包含任何数据的。训练的过程只是自动调整参数的过程。你
送进来一个新的数据,神经网络会根据训练好的参数来对数据进行处理,但直接的长期
记忆是没有的。 |
|
s*****V 发帖数: 21731 | 5 高考由于强烈的竞技性,导致必须大量练习提高精度和速度,而让人的神经网络有点
overfitting了。高中这个时候,其实人类的神经网络成熟的时候,可以更深入的学习
更深刻的知识。这是不是中国教育的一个遗憾,为什么中国改革之后缺乏大师人才,钱
学森之问,这是我一个解读。 |
|
x****6 发帖数: 4339 | 6 人脑的计算能力可能就是这么来的
而且 作为千少,我可以告诉你,CS里的神经网络的模型相对于生物的神经网络,是极
其简化以后的。好比生物网络里,两个神经元细胞之间有10中不同的交互方式/法则;
而现在的CS神经算法里只考虑了一种,比如Linear threshold |
|
x****6 发帖数: 4339 | 7 这个我就不懂了,
我是AI的门外汉,但是我知道现在CS里的神经网络,很有可能跟人脑的神经网络完
全两回事。
而且如何解释/INTUIT结果,是AI的一大瓶颈。完全的黑匣子,人用起来不放
心。 |
|
发帖数: 1 | 8 我看了一下李的专利,和page rank根本是两码事。前者简单多了,简单的说是用了一层
的相对关系,而后者是无穷多层的马尔科夫链,用特征向量给出排序。如果两者是同一
算法,百度可以诉google的专利无效。
打个比方,李的专利类似普通的神经网络,告诉大家用大量数据,可以在不知道具体模
型的情况下做预测。Page的算法类似CNN,模型比普通神经网络复杂的多,可以实际给
出好的多的结果。李是1996年做的报告,人家Larry page在1996年基于page rank的搜
索网页已经上线了。
search methods.[21]这里也承认李彦宏先发明的。3. 李彦宏母校的文章下面的文章来
自李彦宏母校的主页,说当今世界的搜索技术是李彦宏奠定的基础Prior to founding
Baidu, Li was already regarded as one of the world's top search-engine
experts. His patent for hyperlink analysis helped shape today's search
technology - ... 阅读全帖 |
|
d*****u 发帖数: 17243 | 9 不知道有没有人做这类问题。
现在神经网络主要用来做分类和回归,或者一些generative model
用来搞证明也许是一个新的方向,你可以试试。
神经网络的本质是一个灵活的高维输入函数 |
|
发帖数: 1 | 10
===============
我要看针对这段文字的评论:
“在《Nature》上发表的一篇论文(第一作者是 Cherry)证明,由精心设计的 DNA 序列
构成的神经网络可以进行规定的化学反应,准确识别「分子笔迹」。「与几何形状不同
的视觉笔迹不同,分子笔迹的每个例子实际上并不具有数字的形状。相反,每个分子数
字由从 100 个分子中选出的 20 个独特的 DNA 链组成,每个 DNA 链被指定代表任何
10×10 图案中的单个像素。这些 DNA 链在试管中混合在一起。
Qian 说:「缺乏几何形状在自然分子特征中并不少见,但仍需要复杂的生物神经网络
来识别它们:例如,一种独特气味分子的混合物包含一种气味。」” |
|
发帖数: 1 | 11 从我的直觉判断她(钱露露)的作品,做这个实验成本非常昂贵的,保守估计这是投了
百万的项目,神经网络用的计算规模都不小,辅助设备都不便宜的,起价都是上万美元
的。这个力度对于faculty版那些大陆出身的教授来说,是根本拿不出来的大手笔的投
资。
重要的不是她的idea,也不是她的结论,更不是她的invention,也绝不是星光提出的
谁是第一作者,而是现在谁能把满足这个结论的数据给做出来,谁就是winner,nature
要的就是这个数据的实现,不管你花了多大的血本。实际上她想得到的结论,peers都
有想得到的智慧,但大多都没她这个条件能快速实现。
要说这方面她占了老公的便宜(名利双收的白老头不差钱),我倒是信。 但落实到数
据层面,里面过程是很复杂的,需要很多基础课的综合知识,基本功要有的。我不知道
她做到什么程度,但如果真能做出来,那说明自学能力还是很牛B的,不完全是脱衣带
来的生存利益。
神经网络对她来说,属于崭新的领域了,这部分技术在美国都断了20年了。
anyway,我也是瞎BB几句,请勿当真。 |
|
发帖数: 1 | 12 人工智能Libratus是如何击败德州扑克顶级玩家的?
Libratus是个里程碑,这意味着从华尔街的交易到网络安全乃至于拍卖和政治谈判,这
种AI都可以扮演角色。
编者按: 1 月 30 日,宾夕法尼亚州匹兹堡Rivers赌场,耗时20天的德州扑克人机大
战尘埃落定。卡耐基梅隆大学(CMU)开发的AI程序Libratus 击败人类顶级职业玩家,
赢取了20万美元的奖金。尽管之前Google DeepMind的AlphaGo在与李世石的5番棋围棋
大战以及在网络上跟顶级围棋选手的60番棋大战中出尽了风头。但相对而言德州扑克对
于AI却是更大的挑战,因为AI只能看到游戏的部分信息,游戏并不存在单一的最优下法
。那么CMU的Libratus是如何击败人类顶级的职业玩家的呢?《连线》杂志的这篇文章
为我们揭秘。
在几乎3个星期的时间里,Dong Kim都呆在匹兹堡的一个赌场内跟一台机器玩扑克。但
Kim不是普通的扑克玩家。跟他对垒的也不是普通的机器。而这场比赛也不是普通的扑
克游戏。
28岁的Kim是全世界最好的扑克玩家之一。而那台由卡内基梅隆大学的两位计算机科学
研究人员开发的机器,是一套... 阅读全帖 |
|
s*x 发帖数: 8041 | 13 一个“平头哥”在阿里诞生!
今年云栖大会上,阿里宣布成立一家独立运营的芯片公司——“平头哥半导体有限公司
”。
这家名字令人印象深刻的公司,是阿里今年4月收购的中天微系统有限公司(以下简称
中天微)和达摩院自研芯片业务一起,整合成的一家独立的芯片公司,是阿里推进云端
一体化的芯片布局。
目前达摩院芯片团队接近100人,成员大多拥有供职于AMD、ARM、英伟达、英特尔等芯
片大厂的经验。加上近期收购的中天微,估计新公司的人数会达到200~300人。未来,
平头哥半导体将打造面向汽车、家电、工业等诸多行业领域的智联网芯片平台。
和达摩院一样,平头哥的目标也是最终独立化运作,在前期由阿里巴巴集团给予足够的
投入和支持,运行数年后形成盈利能力,最终成长为一家自负盈亏的企业。
达摩院之后“平头哥”横空出世,阿里芯片业务完全整合
">
9月19日,阿里巴巴CTO、达摩院院长张建锋(行巅)在2018云栖大会上宣布,阿里将把
此前收购的中天微和达摩院自研芯片业务整合成“平头哥半导体有限公司”,推进云端
一体化的芯片布局。
张建锋表示,希望通过自研的强大的技术平台和生态系统整合能力,推动国产自主芯片
的... 阅读全帖 |
|
发帖数: 1 | 14 你这个认识太片面了。你把深度学习 当成一个统计分支。
你这就好比把 研究 compression 或者做 source coding 的那拨人 直接划到统计系一
样。
深度学习 也有很多其他手段和问题。当数据不是 predictive 的时候 很多时候 这是
一个优化问题。不是一个统计问题。优化问题是应用数学部分。其他还有 图形学 拓扑
学。其实 深度学习和神经网络关系很大 儿这个分支明显更贴近于 EE 大方向下面的
信号处理 小方向。把 深度学习划分到 信号处理 比你划到数学系的统计专业更靠谱。
[在 btphy (btphy) 的大作中提到:]
:如果deep learning用了regression方法后发展出一套关于神经网络内部工作机制的数
:学理论,那么就变成一个新的学科。但是实际并没有。目前为止machine leaning除了
:统计里的东西以外并没有新的数学,有的只是我试验了这个network,有这么多层,用
:了这样的convolution积分,结果work了。至于说为什么work,基本靠猜。所以根本没
:有发展出新的学科,就是一大堆人在使出吃奶的力气大量的应用了统... 阅读全帖 |
|
M*P 发帖数: 6456 | 15 就是能跑神经网络。硬件加速的神经网络。
:AI芯片到底是什么鬼,跟通用芯片区别在哪,能用到电脑上吗? |
|
T*******x 发帖数: 8565 | 16 人脑天生就会做的一些事情,这个是DNA生长出来的。对,是模型的选取。当然这么说
好像有几个模型摆在那等你选,其实我们差好远。
deep learning里的神经网络其实根本不是网络,从结构形态上看,它也只是一条神经
。怎么才能真正构建一个神经网络,使一条主神经有周围的环境支持。这样比较像一个
大脑的很小的局部。 |
|
T*******x 发帖数: 8565 | 17 人脑天生就会做的一些事情,这个是DNA生长出来的。对,是模型的选取。当然这么说
好像有几个模型摆在那等你选,其实我们差好远。
deep learning里的神经网络其实根本不是网络,从结构形态上看,它也只是一条神经
。怎么才能真正构建一个神经网络,使一条主神经有周围的环境支持。这样比较像一个
大脑的很小的局部。 |
|
d*****u 发帖数: 17243 | 18 神经网络的训练绝大部分都是用backpropagation
其中有一些变体不一定直接用gradient
比如有synthetic gradients方法
还有一种Equilibrium Propagation
训练的目标是实现网络内部势能函数最小化
给定一个输入,输出可以满足势能最小
这时网络不一定是分层的
https://arxiv.org/pdf/1602.05179.pdf
一般的神经网络层之间的连接在训练好以后是不变的
capsule使得这种连接是动态的 |
|
c****3 发帖数: 10787 | 19 神经网络传递电信号这个无可争议,只是信号无法解码
说神经网络有其他功能,是逻辑数字电路或者模拟电路,根本没啥根据,就是典型的削
足适履,非要把现在这一套,装到大脑里 |
|
c****3 发帖数: 6038 | 20 你得把线性的成分都抽走,再上神经网络吧。
我的观点是神经网络就是一个有非线性能力的统计模型。
代价就是计算机上的时空复杂度了。 |
|
b***y 发帖数: 14281 | 21 所以今日老小将之争殊无意义。
民主也好,专制也好,无非是因为人类社会种种问题纷繁芜杂,要找的一个让绝大部分
人能够接受的决策和仲裁的方案而已。
未来唯有人工智能最能胜任这样的工作,人类有任何问题不明的一律请超大规模超大深
度的神经网络来决断。当然,由于超级神经网络的智能远超出人脑所能理解的范围,电
脑独裁者无需向人类解释其所做决定的理由,因为说了人也不会懂,乖乖的听着就好。
虽然结局未必理想,但相对一切人脑能够想到的方案来说,肯定更优解。
★ 发自iPhone App: ChinaWeb 1.1.5 |
|
b***y 发帖数: 14281 | 22 当然不是。你完全不了解现在的AI技术。你这种做法是很难达到人脑的识别率的。现在
的做法是靠神经网络自动学习,神经网络会在学习过程中自发的“发现”一些你所说的
feature,但是谁也说不清究竟是什么feature,无论是电脑还是编程序的人都不能确定
,只能根据训练出来的参数猜一个大概。但是可以观察到的效果就是训练好了的电脑比
人对人脸识别的准确率还高。但是为什么会高呢?不知道。就象人脑一样,看见两张脸
我们会感觉他们就是一个人,但一定要量化分析说为什么,其实我们不能做到。神经网
络也是一样,为什么算出来这两张脸的相似度高其实电脑也不知道。
这就是深度学习的一个大问题。就是当它work的时候谁也说不清楚为什么work,只能猜
个大概,其实就和人脑的行为很像。
来的
★ 发自iPhone App: ChinaWeb 1.1.5 |
|
s*****r 发帖数: 43070 | 23 牛逼了,感觉包装的成分多一些
[在 crcrazy (啊哈哈哈我是谁啊啊啊啊啊啊啊啊) 的大作中提到:]
:出身清华姚班,斯坦福博士毕业,她的毕业论文成了「爆款」
:机器之心 Today
:机器之心报道
:机器之心编辑部
:很少有人的博士论文能够成为「爆款文章」,但陈丹琦做到了。这位近日从斯坦福毕
业的计算机科学博士引发了人们的广泛关注。据斯坦福大学图书馆介绍,她长达 156 页
:的毕业论文《Neural Reading Comprehension and Beyond》上传仅四天就获得了上千
:次的阅读量,成为了斯坦福大学近十年来最热门的毕业论文之一。
:斯坦福大学还因此对陈丹琦进行了一次简单采访。
:陈丹琦激动人心的研究迅速在社交网络和其他专注机器学习的新闻网站上传播。她的
指导老师——斯坦福 AI 实验室负责人、人工智能领域著名学者、斯坦福大学语言学和
计算机科学教授克里斯托弗·曼宁(Christopher Manning)在采访中表示:「陈丹琦是
:使用神经网络方法解决自然语言理解问题方面的先驱。她简单、干净、高成功率的模
型吸引了众人的目光……她... 阅读全帖 |
|
发帖数: 1 | 24 人类的生物神经网络和电子神经网络的本质区别是啥? |
|
发帖数: 1 | 25 谁能反驳下面这段话?
其实所谓“神经网络”应该被叫做“可求导编程”。说穿了,所谓“神经网络”,“机
器学习”,“深度学习”,就是利用微积分,梯度下降法,用大量数据拟合出一个函数
,所以它只能做拟合函数能做的那些事情。 |
|
发帖数: 1 | 26 你十年前挖一个比特币用多少小时,现在挖一个比特币用多少小时,你怎么不问人家为
啥设计的这个东西越来越难挖了?每一个简单算出的比特币和复杂算出的比特币还有没
算出来的组成了比特币的区块链宇宙集合。
自我意识的模型决定了自我意识会遗传和发展。
本来算的都是一堆简单的原始人,结果算到后来相互影响越来越多,根据自我意识甚至
算出他们的文字记载的知识历史,战争,阶级,科技进步,后来的自我意识会学习前面
的自我意识的遗产,这一切是根据自我意识的规则模型必须算出来的,无法避免的,从
一群自我意识极低的原始人开始算慢慢就算成现在这样。
只要出现自我意识,就不存在你说的简单算傻子,有了自我意识就一定会发展进化。说
了你的脑子完全不适合写这类高智商小说。
而且低维自我意识生命是高维智能投射(计算),那么可以认为高维这些“计算机”网
络就是高维神魔的大脑里的神经网络,随着这个神经网络的发展有自我意识的人类的进
步越来越多。或者说自我意识人类的进步越来越多丰富了这个高维神魔的思维活动。就
是说神本身就是这个低维宇宙的过去现在未来的高维集合体。高维神产生了低维宇宙,
低维宇宙的每一个自我意识组成了高维神的创世思... 阅读全帖 |
|
f*****g 发帖数: 3086 | 27 【 以下文字转载自 Go 讨论区 】
发信人: ananpig (●○ 围棋数学一把抓的安安猪), 信区: Go
标 题: Nature重磅封面:谷歌人工智能击败欧洲围棋冠军
发信站: BBS 未名空间站 (Wed Jan 27 12:44:10 2016, 美东)
http://chuansong.me/n/2267390
消息来源:Nature
视频字幕:张之乎,Wei,汪汪
一个月前,DeepMind创始人Demis Hassabis曾说道很快会有关于围棋研究的惊喜,而1
月28日的《Nature》杂志即将以封面论文的形式介绍Google旗下人工智能公司DeepMind
开发的一款名为AlphaGo的人工智能,它已经击败了欧洲围棋冠军,并将于3月与世界冠
军李世乭对战。该程序采用了两个深度神经网络,policy network与value network,
极大地降低了需要考虑的搜索空间的复杂度,前者降低搜索的广度,后者降低搜索的深
度,很像人脑在下围棋时凭直觉快速锁定策略的思维。
以下视频是Nature对该项研究的详细采访报道,视频中,DeepMind的团队会介绍他们是
如何... 阅读全帖 |
|
g*******i 发帖数: 171 | 28 我悲愤的不是人类围棋; 围棋只是业余爱好, 真有职业九段机器人天天陪我玩,我高
兴还来不及呢!
我郁闷的是,这么多年,这麽多钱, 这么多天才的一辈子都耗在了‘人工智能’这个
大坑里,搞出来的都是些中看不中用的东西,真正有用的,如自然语言理解, 图像识
别,狗屁突破没搞出来, 吹的震天响。
忽悠全世界人开始担心机器人毁灭人类!我只能说这个世界傻逼太多!
先把钱和人力多花在治理环境污染上吧,正在毁灭人类的是空气和水污染。别指望人工
智能能毁灭人类,也别指望人工智能帮助人类解决环境污染问题。
悲愤的扯远了,回到‘人工智能’这个话题,最新进展,深度学习,和神经网络, 在
自然语言理解和开放图像识别,这两个最基本人类智能领域,根本没有帮助。其实硅谷
的‘创业者’太想做出像样点的翻译/对话, 立体图像识别的智能产品,因为背后
的商机太大了,到现在最好的也就是, Google Translator or Goggle,这两样东西可
靠性,和精确性都太差,与商用标准要求的可靠性,和精确性差的太远了。
语言就不说了,太困难了, 实在是太困难了,原因很简单,人类自己学外语都学不好
, 你去教机器如何学习外... 阅读全帖 |
|
发帖数: 1 | 29 你别看其他海归这个风光那个出镜的, 人和人不一样,背景不同,阅历不同,所处的
位置不同,别人高调登场那是别人,你不用胡思乱想套自己身上
你是一个年轻人,刚毕业,你唯一需要琢磨的就是如何把手头上有兴趣做的研究继续做
下去,其余的都不要想。 风水轮流转,想当年神经网络PhD们都找不到工作,现在满大
街高薪聘请都找不到有神经网络经验的PhD。
当年学材料的一门心思跳出苦海,最后怎么了? 纳米起来了
当年学数学学物理的一个劲儿转CS转EE,最后怎么了? 华尔街操盘手只招数学系物理
系的,一年bonus就几十万,把你失业的那几年可怜的收入全赚回来了。
人生,我是这样觉得,至少要有那么一次做自己喜欢的研究,喜欢的方向---就算没钱
你也开心 |
|
x********e 发帖数: 35261 | 30 1. 为什么要摄入脂类(lipids)
脂类主要包括脂肪酸(fatty acids),脂肪酸衍生物(甘油酯,磷脂,鞘脂等)和固
醇类。
与碳水化合物类似,脂类是能量的来源。如果把糖比作流通的货币,那我会把油脂比作
金子,因为单个脂分子所能提供的能量远大于糖,并且脂肪是能量存储的主要形式。从
能量来源的角度看,脂类可由碳水和蛋白质替代。但被很多人忽视的一点是摄入脂类的
必须性。
生物膜系统,包括细胞膜和细胞内各种细胞器膜,都是以lipid bilayer构成。生长发
育期的孩子,需要进行大规模的细胞增殖以满足器官组织的增长。而每一个新细胞的形
成都需要用脂类作为基石。另外,大脑的发育和神经网络的架构是儿童发育时期的重中
之重。而神经细胞对生物膜的需求又特别高。所以老有广告吹什么DHA提高儿童智力。
就算是成年人,身体内的细胞也是会不断衰老并被新的细胞取代。学习和记忆也需要不
断重塑神经网络。
其次,人体必须的各种激素和维生素是固醇衍生物。固醇的缺乏会造成内分泌紊乱。
最后,也是很多人会忽略的一点是,蛋白质的消化吸收是需要脂类的。肠道内的蛋白质
需要经过乳化才能被吸收。乳化所需的脂类,一部... 阅读全帖 |
|
d*k 发帖数: 207 | 31 这个不同公司的风格和要求差别太大了。
从你的理解看,还是把machine learning想的太简单了。
选feature是一个需要持续迭代的过程 ,解决一个问题,我的经验是domain knowledge
和feature engineering占到70%以上的工作量。
SVM是一个很强大的分类器,但如果是linear kernel,训练成本并不比logistic
regression高。不用SVM的原因是过于复杂,至少对我来说,弄清所有数学细节太难了
。SVM和神经网络都是如此,work了没问题,不work的话不好调。
“连”SVM都没用?这么说是不合适的,因为logistic regression也是很强大的分类器
,虽然理论简单。用SGD,线性的模型训练成本差别不大。
现在一个崛起的潮流是用简单的线性模型并发训练超大数据集,例如google的word2vec
。复杂模型处理不了这么大的数据量,所以效果秒杀任何复杂算法。我认为搞model是
没多大前途的,因为那么多前人不比你傻多少,都是很常见的问题,能搞出来的早就有
人做了。现在从数学上能做的只可能是边际提升。
另外,如何选择合... 阅读全帖 |
|
F*********1 发帖数: 38 | 32 谢谢楼上两位的回复!
现在想想也是,问题应该出在简历上。也许最不该的是,我竟然还挑了几篇发表的论文
列在简历上。另外,也特别同意楼上swjtuer 的看法,这也是我上这里来咨询的最初始
原因。在看招聘信息时,发现码工多数要求CS本科或者硕士,感觉我这样的年龄和知识
结构确实有些不匹配,像是用了短处去和别人的长处比,应该很难有胜算吧!?
因为我虽说是生物博后,不过因为主要还是数学物理背景转去做生物的,所以,数学基
础应该不是问题。唯一可能有些欠缺的是统计的课程以前上得不多,主要就是(数理)
本科水平的概率论和统计推断。我猜想公司里data science要用到的统计基础知识这方
面应该够吧!?
我想因为我对神经网络比较熟悉,是不是通过突出这方面背景,对找data science会有
所帮助?(之前recruiter找到我就是看到我神经网络的背景才联系我的) |
|
g**s 发帖数: 2331 | 33 都一样。
第一个难度大,理论精深,研究属于前沿,还有一部分理论在争议。硕士能学到什么程
度,能做出什么。
第二个现有的应用很多,能学习并实践做一些具体的实务。
人工智能,神经网络还有深度学习,是现在的热点,都是牛人在实验里深入实践引领世
界潮流的。
其实都很好,都很有意思。不过你是以找工作为目的的,还是找点能摸到边的方向好些
。人工智能,神经网络,深度学习的水很深,深不见底。
觉得和你意的话,发个包子呗。 |
|
r**********g 发帖数: 22734 | 34 我就是告诉你,因为谁都看不懂,所以神经网络实际需要更多人调,码农从学流程式编
程语言,转变为学声明式的神经网络语言。这会淘汰一批老码农。但是又会有下一代新
码农进来。
现在你会theono,硕士毕业250k随随便便。 |
|
l**********5 发帖数: 178 | 35 Show me the money. 狗家commercialize 技术track record 不咋样,神经网络也不能
拿来印钱
[在 fantasist (fan) 的大作中提到:]
:不同意。97年的IBM是靠人为定制的算法取胜,而alphaGo是有学习能力的神经网络,
后者在现实应用中可以学习并替代人类的一些复杂的思维活动,与前者完全不在一个层
面上。
:【 在 raul07 (utopian) 的大作中提到: 】
:........... |
|
发帖数: 1 | 36 "1.研究专家/工程师,深度学习
基于算法和软件模块为自动驾驶车辆开发,集成和测试先进的机器学习。
博士/硕士在计算机科学,电气工程,机器人,统计或相关领域
深入洞察机器学习的成长
应用机器学习方法的经验,如深卷积神经网络,循环神经网络,实例感知语义
分割等。
至少使用以下工具之一的经验:Caffe,TensorFlow,Theano等。
具有C / C ++和Python的经验
具有图像处理和计算机视觉的经验
好奇,主动,有兴趣学习新的工具和技术
具有适应于团队环境工作的强大的口头,书面和人际沟通能力
2.研究专家/工程师,车辆智能
为不确定性下的概率规划和决策进行算法的研究,开发和实现。
博士/硕士在计算机科学,电气工程,机器人,统计或相关领域
具有规划应用于机器人的在不确定性的和概率方法的专业知识(如贝叶斯推理)
知道最近的机器学习算法(例如贝叶斯网络,增强学习,深卷积和/或循环神
经网络)以及优化技术
&... 阅读全帖 |
|
s***d 发帖数: 15421 | 37 drive.ai, pony.ai, autoX.ai
马上进入人肉神经网络tune 机器神经网络的时代? |
|
|
发帖数: 1 | 39 听听,这话说得是多么大的口气,多么自信与自豪,多么牛气冲天,多么充满戾气
,多么嚣张狂妄!一个人能砸停一支股票又是需要具有多么非凡的能量!一般中小散户
做梦都不敢想的事这个口放狂言者却随口而出,足见其绝非等闲之辈。
这么牛逼是何人,又因为何时如此,又是在什么情况下放言要这么干呢?
新闻说,今天一则家长竞选家委会的微信截图刷爆朋友圈,并引发网友热议。原以
为是巨额商业竞标会上处于劣势者情急之下一时管不住自己的胡乱嘴秃噜出来的,看完
这则新闻方知非然也,并不是笔者想象的那回事儿。
说此话者是一个上海浦外小2017级4班学生家长,具体说是一个名叫小国宝孩子的
妈妈,为竞选家委会心怀愤懑,与一个叫王雯丹的女士在微信上对话说的。由于笔者操
作电脑技术不佳,不能转发图片至文中,故将图片中的文字照录于此。
“王雯丹:大家好,我是小国宝的妈妈,研究生毕业于美国哈佛大学,现工作于全
球第一大投行摩根斯坦利,研究方向是股票大数据,用神经网络写模型割韭菜。小国宝
的父亲就职于上海一家知名的公募基金,担任基金经理,管理资产为35亿人民币。我不
竞选家长委员会,就想警告一... 阅读全帖 |
|
m**d 发帖数: 21441 | 40 死记硬背也好啊!
现在这个阶段就是神经网络计算机建立的过程
以后要靠这个神经网络去分析计算
此时建立的网络越复杂越好
现在背唐诗,以后就要靠唐诗去分析这个世界
现在听音乐,以后就用音乐去分析。 |
|
p****a 发帖数: 267 | 41 呵呵,你说的是神经网络吧(Neural Network), 我家的这个是神经网络太强大了,
把我们都卷进去了,hoho。
is
in
forgotten |
|
t******l 发帖数: 10908 | 42 或者更进一步,基于阿发狗深神经网络理论,以及古训 “Knowledge is power,
France is bacon”。。。Piaget 老先生看到的 Formal Operation,也许就是
深神经网络发展到一定程度后,在表面冰山上看到的量变到质变。。。(扎克伯
格小弟,你赚你的美刀就是了,这阿狗不关您啥事)。。。
而从这个角度说,古训 “Knowledge is power, France is bacon”,翻译成
中文就是 “学而不思则忘,思而不学则呆”。。。这些都强调了 input information
w/ complex structure 对阿发狗深神经网养成的重要性。。。也就是说,没有
“学”,“思”就是无源之水无本之木;没有 “Knowledge”,那 “France” 就无法
出口 “Bacon”。。。过于强调不需要知识背景的纯技巧题,或者过于强调 CCSS
的 verbal explanation,都不是对普通娃适合的办法。。。普通娃应该是从
有 complexity 同时又需要一些数学理论的背景的题入手,逐步引入智人的
中学数学理论。。。并且数学教师... 阅读全帖 |
|
O**l 发帖数: 12923 | 43 你网上看过的每局棋都输==》周俊勋13年整年一盘没赢??
我草 这不仅是智力问题 这是遗传问题 太滑稽了
最简单的逻辑谁提出 谁举证
你既然claim 他13年一盘没赢过
你就举证啊 把他13年全年的战绩拿出来啊 让我们看看是不是全负啊 什么叫没有啊
笑死 你这智商真是没救了
还有你屁围棋都不懂 你能看到几盘棋 你不会就看了我给你连接吧 笑死
是不是你要是只看了李世石去年最后两盘棋 李世石去年也没赢过啊 这智商感人啊
又赚六位数了 马上一要上账户 立即尿遁 哈哈 每次干这个不觉得丢人吗
既然写过cnn 来说说怎么softmax 怎么maxpooling autoencoder怎么回事
什么时候supervise 什么时候unsupervise learning
不要尿遁 直接回答
嘿嘿 还写过神经网络呢 好骄傲啊 尼玛初中生都能用matlab写神经网络
笑死 |
|
a*******g 发帖数: 3500 | 44 看一看最新的神经网络相关的东西吧, 感觉生物的认知已经可以被模拟了。
现在的带记忆的神经网络已经可以自己创造小说了 |
|
c*******v 发帖数: 2599 | 45 十八年前ANN就有很多应用了。但是因为神经网络被打压,整个软计算都不行。
所以那时候为了发文章,会把如软计算包装成硬计算,弄很多垃圾数学在里面忽悠。
现在神经网络流行,很多不是这块的开始反包装。连微分几何的数学家都摇身一变
成AI大牛了。
我之前讲过,我十八年前硕士论文就是ANN控制工业系统。
it worked. |
|
X******2 发帖数: 5859 | 46 这玩艺就是用生物(dna)来实现计算机。创始人就是那个搂着钱的
老头(某年图灵奖获得者),照片上老头看上去比他十年前还年轻。
计算模式还是图灵那一套,如果这机器规模上不去那就屁用也没有。
老头搞了十几年了但是进展不大。钱-eric那些文章用此机器实现
神经网络,此前神经网络领域已经死掉十多年了,但文章没提到规
模问题。 |
|
a*****g 发帖数: 19398 | 47 http://chuansong.me/n/2267390
消息来源:Nature
视频字幕:张之乎,Wei,汪汪
一个月前,DeepMind创始人Demis Hassabis曾说道很快会有关于围棋研究的惊喜,而1
月28日的《Nature》杂志即将以封面论文的形式介绍Google旗下人工智能公司DeepMind
开发的一款名为AlphaGo的人工智能,它已经击败了欧洲围棋冠军,并将于3月与世界冠
军李世乭对战。该程序采用了两个深度神经网络,policy network与value network,
极大地降低了需要考虑的搜索空间的复杂度,前者降低搜索的广度,后者降低搜索的深
度,很像人脑在下围棋时凭直觉快速锁定策略的思维。
以下视频是Nature对该项研究的详细采访报道,视频中,DeepMind的团队会介绍他们是
如何设计的这款AI。(字幕由机器之心翻译出品。参与:张之乎,Wei,汪汪。)
http://read.html5.qq.com/image?src=forum&q=5&r=0&imgflag=7&imag
Nature封面
1月28日的《Nature》杂志上即将以封面论文报... 阅读全帖 |
|
o*****p 发帖数: 2977 | 48 我是刚开始学。所以也就是知道点毛皮。只是知道几年前的很多AI难题现在都有很大
的突破。比如卷积神经网络对图像识别有突破,蒙特卡洛法对外语翻译有突破,还有就
是google这个深度神经网络。
这些突破也就是这几年的功夫,现在deep learning会下围棋了,真是把我刺激到了
:)
网上可以找到这个
深度学习入门必看的书和论文?
https://www.zhihu.com/question/31785984 |
|
r****y 发帖数: 26819 | 49 所谓记住就是训练神经网络。任何实战也都是训练神经网络。跟高手的任何一盘棋都极
其有用。 |
|
D*******r 发帖数: 2323 | 50 谷歌的兴趣不是为了赢棋。谷歌的兴趣在于研究和评估神经网络加上大数据对决策判断
正误的影响,以及神经网络的自我学习能力。人工干预地去fix “bug”反而是干扰了
对它的学习能力的判断,换句话说,谷歌是希望阿尔法根据棋局的结果去自我修复缺陷。 |
|