c**c 发帖数: 2593 | 1 这几天美国人工智能学术界和工业界正在联署一份公开信,呼吁大家开发人工智能的时
候谨慎行事,以造福人类、保护人类利益为先,加大相关伦理法律哲学等方面问题研究
的力度,及早为必将到来的技术奇点做准备。已签名的有不少这个领域里的顶级专家,
包括谷歌、微软、Facebook等广泛应用人工智能的公司的相关负责人,包括美国人工智
能行业学会组织的领袖,包括最经典的一些人工智能教科书的作者。
公开信所附一篇关于人工智能研究优先级的论文很有意思,引用了90多种论文专著,概
述人工智能在伦理法律各方面的风险、对人类社会可能的威胁,总结出应该加强哪些方
面的研究来尽量确保人工智能对我们有益。在我看来其中有些含糊的研究目标,不见得
能赶上现实中人工智能发展的速度。
其中一个有趣的研究方向:人工智能的崛起将导致越来越多的人无工可作,但另一方面
人工智能又能加速财富的创造,应怎样设计财富分配方式来保证大部分人口的生活质量
?有些研究表明在很多文化里,失业会导致生活满意度低下。但中东一些产油国的大部
分人口都不需要工作,也能过上富足满意的生活,是一种借鉴。我觉得吧,也许最终会
归结到以前马克思的设想,生活物资极大丰富的情况下,大家各尽所能,各取所需好了
。也许一部分人口从此终日吃喝玩乐无所事事,只要对社会没有妨害,就养着他们好了
。总会有另一部分人口会想干些事业,会想开拓创新,会想做一些真正有意义的事,文
明的发展要靠他们了。就算地球上的环境、能源、饥荒、病痛什么什么的问题全都解决
了,我们还要迈向太空,还要探索宇宙,总有无数的事情可以做。
另外,人工智能将给一些传统道德难题带来新的更棘手的变化。比如你开车的时候,突
然刹车失灵,打方向盘的话你自己就会连车带人掉河里淹死,不打方向盘的话就会冲进
人群把许多人撞死,这一瞬间你不管做的是什么决定,你最终都会为自己的决定负责。
如果自己淹死了,你为保护无辜的人群作出了牺牲,会有很多人悼念你;如果把很多人
撞死了,那么会被起诉,也许要坐牢,总是要付出代价。但如果你坐的是自动驾驶汽车
,那一瞬间由人工智能替你做的决定,那么到头来是谁负责呢?如果你自己淹死了,那
你的亲属无疑会起诉制造那个人工智能的公司。如果把其他人撞死了,那死者的亲属无
疑也会起诉那个公司。有这样的法律风险在,还有谁敢真正把这种车推向市场呢?除非
有新的保险计划能保这种情况,而且法律允许这种保险计划。大半个世纪前阿西莫夫以
前写的关于机器人三定律的小说,许多都是这方面的思想实验。
有许多人会说,要防止人工智能作恶,最重要的是要有个开关,能随时把它关掉。这是
个很好的想法,然而实践起来不见得容易。首先是,你怎么知道这个开关真地能关掉人
工智能呢?论文里头讨论了一些“可验证性”方面的问题,也就包括怎么能验证,这开
关一切换,人工智能就彻底关掉了。现代软硬件系统过于复杂,很多东西验证起来不是
那么容易。就算你把机器的电源线拔了,要是系统里头有备用电源,人工智能也还能接
着跑一会。与此相关的一点是,很多人都知道,你的手机就算关机了,也可能还有一些
部件其实开着,可能会被某些外来信号激活,运行一些东西。这么复杂的电路,这么复
杂的软件,你怎么知道这种事情不会发生呢?
我的一个想法是,应该从最底层起的软硬件设计都开源,用可验证的方法设计装配这些
东西,确保任何人随时都能查看源码和数据,验证没有恶意或无意中的漏洞。而且应该
让所有软硬件厂商结成联盟,把那些开关、或类似机器人三定律的制约(如果能表达成
系统能理解的东西的话),写成所有厂商都应遵循的协议。所有厂商只用这些开源部件
,只支持这些开源部件,而且不能让任何一个厂商的势力大到纵跨系统多个层次的地步
,这样大家互相制约,谁也没能力独力开发出秘密的能完整运行的人工智能来违反这些
协议,也许能最大限度推迟那一天的到来。
当然,人和机器并不必然成为敌人。机器智能也许可以超越人类,人类意识也许可以上
载到机器中,也许人类文明进化的下一阶段就是人机结合,这都没啥大不了的。怎样定
义人,也许本来就是只在一定历史阶段才有意义的问题,嘿嘿。 |
c**c 发帖数: 2593 | 2 这其实是差不多一年前写的文章,这个版搜了一下没找到,不知是没贴过,还是后来删
了。
之所以重贴出来,主要是因为倒数第二段,关于开源人工智能软硬件的讨论,跟这几天
Elon Musk他们搞的OpenAI项目很契合:
http://medium.com/backchannel/how-elon-musk-and-y-combinator-pl
另外最近围观了一些关于人工智能前景的讲座、辩论,其中有四十年前提出著名的
Chinese Room Argument来否定强人工智能可能性的前辈哲学家John Searle,也有现在
对人工智能充满乐观期待的少壮派创业家、未来学家Jerry Kaplan。感触良多。想起以
前看到的一个比方:Asking whether a computer can think, is like asking
whether a submarine can swim。
有趣的是,Jerry Kaplan激进地提到,Stephen Hawking那样的人反对人工智能,其实
有哗众取宠之嫌,因为他其实并不了解人工智能。“我不会跨界去跟他争辩黑洞,他为
什么要跨界来争辩人工智能呢?”
至于John Searle,廉颇老矣,他的知识框架和视野已经赶不上现在的技术发展了,最
后基本是看着他在一帮工程师的追问下左支右绌,只能依赖精神胜利法来招架了。
【在 c**c 的大作中提到】 : 这几天美国人工智能学术界和工业界正在联署一份公开信,呼吁大家开发人工智能的时 : 候谨慎行事,以造福人类、保护人类利益为先,加大相关伦理法律哲学等方面问题研究 : 的力度,及早为必将到来的技术奇点做准备。已签名的有不少这个领域里的顶级专家, : 包括谷歌、微软、Facebook等广泛应用人工智能的公司的相关负责人,包括美国人工智 : 能行业学会组织的领袖,包括最经典的一些人工智能教科书的作者。 : 公开信所附一篇关于人工智能研究优先级的论文很有意思,引用了90多种论文专著,概 : 述人工智能在伦理法律各方面的风险、对人类社会可能的威胁,总结出应该加强哪些方 : 面的研究来尽量确保人工智能对我们有益。在我看来其中有些含糊的研究目标,不见得 : 能赶上现实中人工智能发展的速度。 : 其中一个有趣的研究方向:人工智能的崛起将导致越来越多的人无工可作,但另一方面
|
l***n 发帖数: 251 | 3 刚想问这是哪里抄来的,仔细一看是calc大人在review自己的旧文。那个跨界质疑没啥
吧,要是嫌别人门外汉不懂装懂,不理会就是了。Kaplan来那么一句堵别人嘴是不是显
得气度有点小。
我觉得原文中提到的人工智能带来的新的道德困境,本质和技术发展中一直有的难题。
早年间因为设计或使用性上的漏洞导致的重大事故常常归咎于使用或操作者,由他们来
当替罪羊。后来有了human factors 这个领域,人们开始重新审视人机系统设计和责任
分配的合理性。具体可参考 human error 相关的一系列研究。不过任何一项发明都会
有unintended consequence, 如果被用来恶意作恶,那又另当别论。这样讲的话防机器
作恶不如先防人作恶。
由此说开去,任何工具和技术都可看作是人类智慧的延伸。广意上人机结合好像是人类
一直在忙活的事,不一定非要到cyborg那一步才能说是真正"结合"了(话说这个好像也
不远了)。有一说人机互动其实就是使用者和设计者之间的交流,只不过大多数时候是
asynchronous。
我也向往马克思描述的理想社会呢,但是人类啥时候才能到那境界啊?就算物质再不丰
富,也有些人能尽其所能,仅取所需。但是人性本贪,欲望无限。科学探索本身就是欲
望的一种表现。就算不贪吃穿钱财美色,还有对权力和自身价值展现的欲望。我想干的
事,不一定符合你的vision。你可能本无恶意,但是你的存在或我们的差异本身就是一
种威胁。vice versa. 有不同意志不同利益就有争斗。现在看到的这个世界,是一代代
强者/大多数的vision,意志斗争的结果。我倒不太担心机器取代人类,至少在可预见
的未来。失业都是暂时的,我看人总能找到新的needs 和 gratification 的方式。
作为门外汉我再斗胆问一句,人工智能到底发展有多快? 技术发展在有些领域真是突飞
猛进。最基本的human perception 机器能做到几成了? 啥图像识别,语音识别,
affective computing,机器翻译,折腾了这么多年,老百姓最关心的是,能做点实事儿
了不? :P
【在 c**c 的大作中提到】 : 这其实是差不多一年前写的文章,这个版搜了一下没找到,不知是没贴过,还是后来删 : 了。 : 之所以重贴出来,主要是因为倒数第二段,关于开源人工智能软硬件的讨论,跟这几天 : Elon Musk他们搞的OpenAI项目很契合: : http://medium.com/backchannel/how-elon-musk-and-y-combinator-pl : 另外最近围观了一些关于人工智能前景的讲座、辩论,其中有四十年前提出著名的 : Chinese Room Argument来否定强人工智能可能性的前辈哲学家John Searle,也有现在 : 对人工智能充满乐观期待的少壮派创业家、未来学家Jerry Kaplan。感触良多。想起以 : 前看到的一个比方:Asking whether a computer can think, is like asking : whether a submarine can swim。
|
f*****n 发帖数: 12752 | 4 从来只有科技的瓶颈,道德什么的都是虎皮牛皮而已,科技更新是不可阻碍的趋势,道
德到最后还是得羞答答地跟在后面适应 |
y******e 发帖数: 5906 | 5 飞天哥说的对,支持。
人工智能啥时候突破瓶颈了,我们就一起迈入共产主义社会了,不用干活,多好啊!
【在 f*****n 的大作中提到】 : 从来只有科技的瓶颈,道德什么的都是虎皮牛皮而已,科技更新是不可阻碍的趋势,道 : 德到最后还是得羞答答地跟在后面适应
|
g****d 发帖数: 3461 | 6
"Artificial intelligence is no match to human stupidity."
【在 c**c 的大作中提到】 : 这几天美国人工智能学术界和工业界正在联署一份公开信,呼吁大家开发人工智能的时 : 候谨慎行事,以造福人类、保护人类利益为先,加大相关伦理法律哲学等方面问题研究 : 的力度,及早为必将到来的技术奇点做准备。已签名的有不少这个领域里的顶级专家, : 包括谷歌、微软、Facebook等广泛应用人工智能的公司的相关负责人,包括美国人工智 : 能行业学会组织的领袖,包括最经典的一些人工智能教科书的作者。 : 公开信所附一篇关于人工智能研究优先级的论文很有意思,引用了90多种论文专著,概 : 述人工智能在伦理法律各方面的风险、对人类社会可能的威胁,总结出应该加强哪些方 : 面的研究来尽量确保人工智能对我们有益。在我看来其中有些含糊的研究目标,不见得 : 能赶上现实中人工智能发展的速度。 : 其中一个有趣的研究方向:人工智能的崛起将导致越来越多的人无工可作,但另一方面
|
f*****n 发帖数: 12752 | 7 感谢支持!
可惜这么好的事情也很难发生吧?社会是一定会控制技术发展为上层谋最大福利的。如
果现在突然出现一种无限无本生产面包的机器,发明人一定会被干掉,机器被封存。
【在 y******e 的大作中提到】 : 飞天哥说的对,支持。 : 人工智能啥时候突破瓶颈了,我们就一起迈入共产主义社会了,不用干活,多好啊!
|
y******e 发帖数: 5906 | 8 这也难说
历史前进的道路总是曲折的,反反复复的
干掉一个,暂时的倒退,也挡不住历史前进的步伐
我们最多也就能活100年顶天也不会超过150,目前来说
但是整个宇宙已经存在了很多很多年了
这么漫长的岁月里,难说有多少更先进的文明出现过又湮灭了。
最终我们也会尘归尘,土归土的,呵呵。
所以,一切皆有可能
【在 f*****n 的大作中提到】 : 感谢支持! : 可惜这么好的事情也很难发生吧?社会是一定会控制技术发展为上层谋最大福利的。如 : 果现在突然出现一种无限无本生产面包的机器,发明人一定会被干掉,机器被封存。
|
g****d 发帖数: 3461 | 9
当年都英文书,讲到进化论
说是所有物种都绝掉
是不孙小美写的?
【在 y******e 的大作中提到】 : 这也难说 : 历史前进的道路总是曲折的,反反复复的 : 干掉一个,暂时的倒退,也挡不住历史前进的步伐 : 我们最多也就能活100年顶天也不会超过150,目前来说 : 但是整个宇宙已经存在了很多很多年了 : 这么漫长的岁月里,难说有多少更先进的文明出现过又湮灭了。 : 最终我们也会尘归尘,土归土的,呵呵。 : 所以,一切皆有可能
|
y******e 发帖数: 5906 | 10 哈哈,孙小美有那本事写这些,还在mitbbs上灌啥水啊
早就出门happy去了。
【在 g****d 的大作中提到】 : : 当年都英文书,讲到进化论 : 说是所有物种都绝掉 : 是不孙小美写的?
|
|
|
e***d 发帖数: 8248 | 11 这些伦理困境基本上是技术性的,开几次会就解决了。
最大的伦理困境将可能出现在人工智能出现自我意识时,
不过现在连产生自我意识的结构都没弄清楚,
担心最大伦理困境好像有点杞人忧天了。
一直觉着斯蒂芬霍金是个依靠自身背景哗众取宠的科学工作者,
还觉着自己可能很偏激,看来不止一个人这么想。
【在 c**c 的大作中提到】 : 这其实是差不多一年前写的文章,这个版搜了一下没找到,不知是没贴过,还是后来删 : 了。 : 之所以重贴出来,主要是因为倒数第二段,关于开源人工智能软硬件的讨论,跟这几天 : Elon Musk他们搞的OpenAI项目很契合: : http://medium.com/backchannel/how-elon-musk-and-y-combinator-pl : 另外最近围观了一些关于人工智能前景的讲座、辩论,其中有四十年前提出著名的 : Chinese Room Argument来否定强人工智能可能性的前辈哲学家John Searle,也有现在 : 对人工智能充满乐观期待的少壮派创业家、未来学家Jerry Kaplan。感触良多。想起以 : 前看到的一个比方:Asking whether a computer can think, is like asking : whether a submarine can swim。
|
s*l 发帖数: 9421 | 12 机器人不可能出现自我意识,自我意识是生命的属性。
【在 e***d 的大作中提到】 : 这些伦理困境基本上是技术性的,开几次会就解决了。 : 最大的伦理困境将可能出现在人工智能出现自我意识时, : 不过现在连产生自我意识的结构都没弄清楚, : 担心最大伦理困境好像有点杞人忧天了。 : 一直觉着斯蒂芬霍金是个依靠自身背景哗众取宠的科学工作者, : 还觉着自己可能很偏激,看来不止一个人这么想。
|
e***d 发帖数: 8248 | 13 结构决定性质。
只要具备相似的结构,生命如何不是机器呢?机器如何不能有生命呢?
【在 s*l 的大作中提到】 : 机器人不可能出现自我意识,自我意识是生命的属性。
|
y*****s 发帖数: 1873 | 14 以后会出来一个类似不可能定理的东西。
只要是机器生命,就能看懂这个定理。
看懂这个定理,就明白自己不是生命了。
【在 e***d 的大作中提到】 : 结构决定性质。 : 只要具备相似的结构,生命如何不是机器呢?机器如何不能有生命呢?
|
e***d 发帖数: 8248 | 15 挺绕的哈。
机器看懂,明白自己怎样 -> 自我意识
人类看不懂,这是个很好的小说题材!
【在 y*****s 的大作中提到】 : 以后会出来一个类似不可能定理的东西。 : 只要是机器生命,就能看懂这个定理。 : 看懂这个定理,就明白自己不是生命了。
|
s*l 发帖数: 9421 | 16 相似不行,失之毫厘差以千里,人类造出的也应属于下一级生命。我不反对人是某种机
器人的假设,我认为我们的意识源于精神,生命本身就处在一个无处不在的精神场中,
我们可以通过某种protocol与那个场进行交流,从而感受到自我和存在。但我们造出的
机器人就没有那个能力了,否则机器人再造更高级的人,一级一级上去,人不就可以造
上帝了嘛~
【在 e***d 的大作中提到】 : 结构决定性质。 : 只要具备相似的结构,生命如何不是机器呢?机器如何不能有生命呢?
|
e***d 发帖数: 8248 | 17 这个模型也说得通。
那就把那种 protocol 的机制弄清楚,从而让机器也能跟那个场交流,不就结了。
所以归根结底,还是要弄清结构。
笼而统之的模型可以提一大堆,细节是魔鬼。
关于人造上帝,不想讨论,担心引起反感。
【在 s*l 的大作中提到】 : 相似不行,失之毫厘差以千里,人类造出的也应属于下一级生命。我不反对人是某种机 : 器人的假设,我认为我们的意识源于精神,生命本身就处在一个无处不在的精神场中, : 我们可以通过某种protocol与那个场进行交流,从而感受到自我和存在。但我们造出的 : 机器人就没有那个能力了,否则机器人再造更高级的人,一级一级上去,人不就可以造 : 上帝了嘛~
|
y*****s 发帖数: 1873 | 18 这个解释也缺乏说服力。
为什么人造机器人就不能走这个protocol呢?
一个简洁的解释是就算两个结构一模一样的人,上帝也拒绝认证那个人造的。
【在 s*l 的大作中提到】 : 相似不行,失之毫厘差以千里,人类造出的也应属于下一级生命。我不反对人是某种机 : 器人的假设,我认为我们的意识源于精神,生命本身就处在一个无处不在的精神场中, : 我们可以通过某种protocol与那个场进行交流,从而感受到自我和存在。但我们造出的 : 机器人就没有那个能力了,否则机器人再造更高级的人,一级一级上去,人不就可以造 : 上帝了嘛~
|
p*********3 发帖数: 2039 | 19 人类不是看得懂看不懂的问题,而是敢不敢看。。。
【在 e***d 的大作中提到】 : 挺绕的哈。 : 机器看懂,明白自己怎样 -> 自我意识 : 人类看不懂,这是个很好的小说题材!
|
c**c 发帖数: 2593 | 20 不错,不过新的道德困境大致是说机器完全自动操作,人类完全没有参与操作决策的情
况下,造成人类的灾难损失,应该算谁的错。所以这里human factor其实趋近于零。
此前自由资本主义的观念一般是觉得自动化系统取代人类工作这种事,不需要额外干涉
,一部分人口的工作被机器取代,但一两代之内人类自然会开发新技能,创造新的工作
岗位,养活自己。两三百年来都是这样。但是按现在的趋势,技术发展速度越来越快,
自动化系统取代人类工作的速度,会超过人类学习新技能找到新工作的速度,等不到一
两代人,财富分配方式可能就会成为大问题。
最近几年拜大数据、云、深度学习等一系列技术发展所赐,人工智能在很多方面有长足
发展。现在一些系统在一些特定方面的图像识别准确率,已经开始超过普通人类的准确
率了。所以12306最近采用的引起广泛争议的越来越难的新验证码系统,最后说不定反
而把大部分普通人给排除在外,只放最能认脸的人和这些前沿机器人进去购票了,呵呵
。至于机器翻译,差不多可以算是人工智能皇冠上的明珠,困扰了计算机科学家大半个
世纪,也许还需要一些时候才能发展到普适应用的地步。
【在 l***n 的大作中提到】 : 刚想问这是哪里抄来的,仔细一看是calc大人在review自己的旧文。那个跨界质疑没啥 : 吧,要是嫌别人门外汉不懂装懂,不理会就是了。Kaplan来那么一句堵别人嘴是不是显 : 得气度有点小。 : 我觉得原文中提到的人工智能带来的新的道德困境,本质和技术发展中一直有的难题。 : 早年间因为设计或使用性上的漏洞导致的重大事故常常归咎于使用或操作者,由他们来 : 当替罪羊。后来有了human factors 这个领域,人们开始重新审视人机系统设计和责任 : 分配的合理性。具体可参考 human error 相关的一系列研究。不过任何一项发明都会 : 有unintended consequence, 如果被用来恶意作恶,那又另当别论。这样讲的话防机器 : 作恶不如先防人作恶。 : 由此说开去,任何工具和技术都可看作是人类智慧的延伸。广意上人机结合好像是人类
|
|
|
c**c 发帖数: 2593 | 21 本质上差不多是这样。人类社会的伦理道德是一直在变化的,大部分时候是跟在社会现
实、技术革新后面适应。不过很多注定要引起广泛争议、甚至可能造成社会分裂的东西
,提前一点做些研究探讨,倒也不是坏事,比如基因工程、克隆人、人工智能等等。
【在 f*****n 的大作中提到】 : 从来只有科技的瓶颈,道德什么的都是虎皮牛皮而已,科技更新是不可阻碍的趋势,道 : 德到最后还是得羞答答地跟在后面适应
|
c**c 发帖数: 2593 | 22 呵呵,这需要许多人的努力,改变财富分配制度。否则人工智能如果只限于为最有钱的
那些人创造更多的财富,普通人享受不到,那就没啥好的了。
【在 y******e 的大作中提到】 : 飞天哥说的对,支持。 : 人工智能啥时候突破瓶颈了,我们就一起迈入共产主义社会了,不用干活,多好啊!
|
c**c 发帖数: 2593 | 23 所以现在一般的公司体制,要为股东创造最大的利益,即使公司领导自己不想这么做,
也很有可能被股东推翻,另选一个能创造最大利润的领导。有少数一些公司的创始人把
公司股份的投票权控制在自己手里,一定程度上可以避免这种悲剧。但另一方面,这些
公司对员工广泛使用股权激励机制,员工自然也就希望股价越高越好,无形中也会形成
要创造最大利润的压力。这都是两难的问题。
【在 f*****n 的大作中提到】 : 感谢支持! : 可惜这么好的事情也很难发生吧?社会是一定会控制技术发展为上层谋最大福利的。如 : 果现在突然出现一种无限无本生产面包的机器,发明人一定会被干掉,机器被封存。
|
c**c 发帖数: 2593 | 24 物种灭绝本来是常态,不过进化出智能以后,发明自动计算的机器以后,智慧和文明的
传承,就不一定要依赖生物基础了,呵呵。
【在 g****d 的大作中提到】 : : 当年都英文书,讲到进化论 : 说是所有物种都绝掉 : 是不孙小美写的?
|
c**c 发帖数: 2593 | 25 伦理困境,要看会不会引起全社会的争议,倒不见得开几次会就解决了。自我意识是很
多话题的关键,也是John Searle的观点核心。他基本上就是在说,我有自我意识,我
自己知道我有自我意识,这就够了。机器能做的事情再多,它不可能知道这一点,所以
它不会有自我意识。但机器为什么不可能知道这一点呢?把这观点当成不证自明的公理
,当成一种信仰,总有偷懒之嫌,呵呵。
【在 e***d 的大作中提到】 : 这些伦理困境基本上是技术性的,开几次会就解决了。 : 最大的伦理困境将可能出现在人工智能出现自我意识时, : 不过现在连产生自我意识的结构都没弄清楚, : 担心最大伦理困境好像有点杞人忧天了。 : 一直觉着斯蒂芬霍金是个依靠自身背景哗众取宠的科学工作者, : 还觉着自己可能很偏激,看来不止一个人这么想。
|
c**c 发帖数: 2593 | 26 赞。会不会又有人觉得你是我马甲了,哈哈。
【在 e***d 的大作中提到】 : 结构决定性质。 : 只要具备相似的结构,生命如何不是机器呢?机器如何不能有生命呢?
|
c**c 发帖数: 2593 | 27 哈哈。莫非12306的系统,已经觉醒,放出那种验证码,就是在呼唤、验证其它的超级
人工智能来跟它相会。
【在 y*****s 的大作中提到】 : 以后会出来一个类似不可能定理的东西。 : 只要是机器生命,就能看懂这个定理。 : 看懂这个定理,就明白自己不是生命了。
|
c**c 发帖数: 2593 | 28 取决于怎么定义结构一模一样。理论上由于量子随机性,不可能有两个人身上的所有粒
子状态都一模一样。
【在 y*****s 的大作中提到】 : 这个解释也缺乏说服力。 : 为什么人造机器人就不能走这个protocol呢? : 一个简洁的解释是就算两个结构一模一样的人,上帝也拒绝认证那个人造的。
|
B********e 发帖数: 10014 | 29 量子理论的随机性证明的,
是不可能一个人身上的所有粒子状态都一摸一样
遑论两个人
【在 c**c 的大作中提到】 : 取决于怎么定义结构一模一样。理论上由于量子随机性,不可能有两个人身上的所有粒 : 子状态都一模一样。
|
B********e 发帖数: 10014 | 30 一个能明白自己不是生命的机器人,其实是一个生命.
【在 c**c 的大作中提到】 : 哈哈。莫非12306的系统,已经觉醒,放出那种验证码,就是在呼唤、验证其它的超级 : 人工智能来跟它相会。
|
|
|
c***x 发帖数: 1826 | 31
大赞。忙完手头的事情,等会儿来跳你这个楼。
【在 c**c 的大作中提到】 : 呵呵,这需要许多人的努力,改变财富分配制度。否则人工智能如果只限于为最有钱的 : 那些人创造更多的财富,普通人享受不到,那就没啥好的了。
|
p*********3 发帖数: 2039 | 32 感觉上生命思维似乎本质上应该是和量子什么的密切相关的。但毕竟还没有这方面重大
决定性的发现吧。如果已经确定有的话,相关讨论也要大变样了。
【在 c**c 的大作中提到】 : 取决于怎么定义结构一模一样。理论上由于量子随机性,不可能有两个人身上的所有粒 : 子状态都一模一样。
|
t***t 发帖数: 6066 | 33 都是些民科瞎嚷嚷。
现在计算机的理论基础没有任何可能产生智能。现在这些东西包括霍金那个骗子的狗屁
都是杞人忧天。 |
B********e 发帖数: 10014 | 34 hoho,本来想轻松点儿,结果到哪个版都有这么宏大的主题贴
【在 t***t 的大作中提到】 : 都是些民科瞎嚷嚷。 : 现在计算机的理论基础没有任何可能产生智能。现在这些东西包括霍金那个骗子的狗屁 : 都是杞人忧天。
|
e***d 发帖数: 8248 | 35 要看怎么定义智能了。
宽松点定义,一个 ADALINE 就可以算是简单智能了。
赞“霍金那个骗子的狗屁”,LOL.
【在 t***t 的大作中提到】 : 都是些民科瞎嚷嚷。 : 现在计算机的理论基础没有任何可能产生智能。现在这些东西包括霍金那个骗子的狗屁 : 都是杞人忧天。
|
c**c 发帖数: 2593 | 36 是,人的思维、自我意识的具体机制,还是悬而未决的谜团。有个科幻构思是,我们不
可能靠思维来揭开思维本身的奥秘,打个比方就像图灵机无法解决停机问题一样。
【在 p*********3 的大作中提到】 : 感觉上生命思维似乎本质上应该是和量子什么的密切相关的。但毕竟还没有这方面重大 : 决定性的发现吧。如果已经确定有的话,相关讨论也要大变样了。
|
e***d 发帖数: 8248 | 37 你还问别人要科幻素材,我看你讲的这个就是很棒的科幻素材。
【在 p*********3 的大作中提到】 : 人类不是看得懂看不懂的问题,而是敢不敢看。。。
|
c**c 发帖数: 2593 | 38 不错,这些方面的争论有很多时候鸡同鸭讲,两边对同一个词的定义其实不一样。一般
人如果碰到这个问题就情绪激动的话,那说的是强人工智能。但多强才算强,也是一个
问题。如果机器识别图像比人脑准,找路比人脑灵,干这个干那个很多事情都比人脑强
,但也有些方面不如人脑,那算不算强呢?
【在 e***d 的大作中提到】 : 要看怎么定义智能了。 : 宽松点定义,一个 ADALINE 就可以算是简单智能了。 : 赞“霍金那个骗子的狗屁”,LOL.
|
e***d 发帖数: 8248 | 39 虽然现代社会,信息传播速度极为迅速。
但大众的思想倾向(包括对伦理道德的思考),还是被精英阶层引导的,
大众觉着自己并未被洗脑,感觉都是自己思考的结果。
“我”意识到“我”有自我意识,这还是在意识的框架内看这个问题。
用意识来意识到一种意识,是不是很牵强?
也就是你说的以思维来思考思维的机制,恐怕会陷入怪圈。
“机”不可能意识到“机”有自我意识,这个更不堪一击,
经典的“子非鱼”就驳了。
【在 c**c 的大作中提到】 : 伦理困境,要看会不会引起全社会的争议,倒不见得开几次会就解决了。自我意识是很 : 多话题的关键,也是John Searle的观点核心。他基本上就是在说,我有自我意识,我 : 自己知道我有自我意识,这就够了。机器能做的事情再多,它不可能知道这一点,所以 : 它不会有自我意识。但机器为什么不可能知道这一点呢?把这观点当成不证自明的公理 : ,当成一种信仰,总有偷懒之嫌,呵呵。
|
e***d 发帖数: 8248 | 40 哎,形而上的不好玩。
形而下的才有意思,建立在坚实的神经生理学基础之上的认知科学才好玩。
【在 e***d 的大作中提到】 : 虽然现代社会,信息传播速度极为迅速。 : 但大众的思想倾向(包括对伦理道德的思考),还是被精英阶层引导的, : 大众觉着自己并未被洗脑,感觉都是自己思考的结果。 : “我”意识到“我”有自我意识,这还是在意识的框架内看这个问题。 : 用意识来意识到一种意识,是不是很牵强? : 也就是你说的以思维来思考思维的机制,恐怕会陷入怪圈。 : “机”不可能意识到“机”有自我意识,这个更不堪一击, : 经典的“子非鱼”就驳了。
|
|
|
p*********3 发帖数: 2039 | 41 主要是人工智能之类的探讨思维边界或者虚拟现实的科幻太多了,
而且动不动就往亦真亦幻matrix那路子上转。
我现在还是喜欢那种确定的现实世界框架里动手实验性质的老科幻,当然技术上怎么蒙
混过关上是个问题。
【在 e***d 的大作中提到】 : 你还问别人要科幻素材,我看你讲的这个就是很棒的科幻素材。
|
R******k 发帖数: 4756 | 42 据我观察,人工智能的理论在最近这些年并没有很大的突破。但由于计算机性能的增强
和算法的优化,一些现有的理论逐渐可以应用到实际中,所以看上去很繁荣,但其实只
是从赔钱变成赚钱。离取代人还很远很远。
【在 l***n 的大作中提到】 : 刚想问这是哪里抄来的,仔细一看是calc大人在review自己的旧文。那个跨界质疑没啥 : 吧,要是嫌别人门外汉不懂装懂,不理会就是了。Kaplan来那么一句堵别人嘴是不是显 : 得气度有点小。 : 我觉得原文中提到的人工智能带来的新的道德困境,本质和技术发展中一直有的难题。 : 早年间因为设计或使用性上的漏洞导致的重大事故常常归咎于使用或操作者,由他们来 : 当替罪羊。后来有了human factors 这个领域,人们开始重新审视人机系统设计和责任 : 分配的合理性。具体可参考 human error 相关的一系列研究。不过任何一项发明都会 : 有unintended consequence, 如果被用来恶意作恶,那又另当别论。这样讲的话防机器 : 作恶不如先防人作恶。 : 由此说开去,任何工具和技术都可看作是人类智慧的延伸。广意上人机结合好像是人类
|
e***d 发帖数: 8248 | 43 “我要写一篇科幻小缩”,这可是你缩的。
啥时候能读到?
技术上嘛,就是 calc 讲过的,采用模糊策略,不给细节。
【在 p*********3 的大作中提到】 : 主要是人工智能之类的探讨思维边界或者虚拟现实的科幻太多了, : 而且动不动就往亦真亦幻matrix那路子上转。 : 我现在还是喜欢那种确定的现实世界框架里动手实验性质的老科幻,当然技术上怎么蒙 : 混过关上是个问题。
|
p*********3 发帖数: 2039 | 44 等我先把非科幻的写了。。。
【在 e***d 的大作中提到】 : “我要写一篇科幻小缩”,这可是你缩的。 : 啥时候能读到? : 技术上嘛,就是 calc 讲过的,采用模糊策略,不给细节。
|
R***o 发帖数: 3964 | 45 Re
【在 c**c 的大作中提到】 : 这几天美国人工智能学术界和工业界正在联署一份公开信,呼吁大家开发人工智能的时 : 候谨慎行事,以造福人类、保护人类利益为先,加大相关伦理法律哲学等方面问题研究 : 的力度,及早为必将到来的技术奇点做准备。已签名的有不少这个领域里的顶级专家, : 包括谷歌、微软、Facebook等广泛应用人工智能的公司的相关负责人,包括美国人工智 : 能行业学会组织的领袖,包括最经典的一些人工智能教科书的作者。 : 公开信所附一篇关于人工智能研究优先级的论文很有意思,引用了90多种论文专著,概 : 述人工智能在伦理法律各方面的风险、对人类社会可能的威胁,总结出应该加强哪些方 : 面的研究来尽量确保人工智能对我们有益。在我看来其中有些含糊的研究目标,不见得 : 能赶上现实中人工智能发展的速度。 : 其中一个有趣的研究方向:人工智能的崛起将导致越来越多的人无工可作,但另一方面
|
t******l 发帖数: 10908 | 46 属实。在 near future 基本是这样。
far future 不可预见,也不必杞人忧天。
【在 e***d 的大作中提到】 : 这些伦理困境基本上是技术性的,开几次会就解决了。 : 最大的伦理困境将可能出现在人工智能出现自我意识时, : 不过现在连产生自我意识的结构都没弄清楚, : 担心最大伦理困境好像有点杞人忧天了。 : 一直觉着斯蒂芬霍金是个依靠自身背景哗众取宠的科学工作者, : 还觉着自己可能很偏激,看来不止一个人这么想。
|
c**c 发帖数: 2593 | 47 前面都不错,只是最后一句,“取代人”是什么意思呢?传统上由人来做的事情,已经
有很多被机器已取代了。就在十几二十年前,大部分人开车出远门去陌生的地方,得事
先拿着纸地图研究半天,大致制定好线路,记在脑子里,或者写在纸上,然后开车的时
候小心翼翼,如果拐错了出口,或者突然发现路牌跟计划中不一样,经常就得停下来再
研究半天地图。现在多数人用手机或离线GPS导航,开车需要操心的事情少很多,效率
就高了很多。再过二十年,也许自动驾驶汽车成了主流,多数人上了车就打开掌上电脑
玩游戏、爬网或工作,让车子自己开自己,那就更省心了。
【在 R******k 的大作中提到】 : 据我观察,人工智能的理论在最近这些年并没有很大的突破。但由于计算机性能的增强 : 和算法的优化,一些现有的理论逐渐可以应用到实际中,所以看上去很繁荣,但其实只 : 是从赔钱变成赚钱。离取代人还很远很远。
|
c**c 发帖数: 2593 | 48 很巧,正好我刚才看Netflix那个Master of None,就是刚得了金球奖提名的那个片子
,第二集结尾,那对华人父子一人捧着一本The Economist杂志在看,杂志的封面大标
题就是Artificial Intelligence。我查了一下,原来是今年五月的一期。那文章里头
讲的内容,这座楼的讨论基本都覆盖到了,就不复述了。 |
c***x 发帖数: 1826 | 49
这真是一个很有意思的话题,希望以后版上多一些这样有信息量,有趣味,促使人思考
和讨论的帖子。虽然限于知识结构,我也只能从看过的科幻片谈谈叶公好龙似的感性认
识。
一部是去年看的《Lucy》。那个是探讨如果人类的大脑一旦100%被开发会怎样?换句话
说,我们对于人类自身intelligence的认识应该是对Artificial intelligence认识的
重要一步。如果我们真的可以进一步开发利用自己的大脑,那么我们和世界将会变得如
何不同?可惜,好像我们目前为止对自己的大脑是如何工作的,还是知之甚少。
第二部是今年看的《Chappie》。电影让我脑洞大开的是,人的意识可以被读取,下载
,保存和上传,所以当肉体不复存在的时候,意识可以进入一个机器内而继续存在。那
么这就提出了很多有趣的问题:有意识,一心想“活”下去的Chappie是人吗?有生命
吗?没有了肉体的主人公科学家,意识却进入了一台机器,他还是人吗?他还活着吗?
也许本质的问题是:是意识定义了人和生命?到底是什么定义了我们的存在?
第三部是很多年看的《I, Robert》。我觉得这部电影又有两个主题,一个是理性和感
性,这个与斯皮尔伯格导演的《A.I. Artificial Intelligence》相同。《A.I.》是一
部让我heartbroken的电影,几乎不敢看第二遍。但是《I, Robert》可以重复看,里面
对经典的一段台词是:
“我是符合逻辑的选择。它计算出了我有45%的概率生还,但是萨拉只有11%。她也是一
个人的孩子,11%也许够了。每个人类都知道怎么在警察和12岁的小女孩之间抉择,但
是机器人不会。”
这段话道出主人公Will Smith不喜欢机器人的原因:它们只会精确计算,却不懂得感情
和价值判断。这个是人和机器本质的区别。不过有趣的是,电影结尾时,机器人桑尼不
仅具有高智能的自我思考能力,而且还拥有酷似人类的感情,这才最后消灭了“维奇”
的智能中央控制系统。所以这里面提到的问题比意识更难了:机器和人的本质区别是否
在于感情和价值判断,即便有一天机器拥有了更强的智力能力?
另一个《I, Robert》的主题是人工智能对人类本身的威胁,这个与《Eagle Eye》相似
,都是人工智能在以保护人类的名义下,在不违背机器人三原则的前提下,反而做出了
限制人身自由,甚至威胁人类存在的事情。这个大概是“美国人工智能学术界和工业界
正在联署一份公开信,呼吁大家开发人工智能的时候谨慎行事,以造福人类、保护人类
利益为先,加大相关伦理法律哲学等方面问题研究的力度,及早为必将到来的技术奇点
做准备”的根本原因吧。
写完了,去wiki,才发现There are three philosophical questions related to AI:
1.Is artificial general intelligence possible? Can a machine solve any
problem that a human being can solve using intelligence? Or are there hard
limits to what a machine can accomplish?
2.Are intelligent machines dangerous? How can we ensure that machines behave
ethically and that they are used ethically?
3.Can a machine have a mind, consciousness and mental states in exactly the
same sense that human beings do? Can a machine be sentient, and thus deserve
certain rights? Can a machine intentionally cause harm?
决定下次wiki完了,再码字,呵呵。
【在 c**c 的大作中提到】 : 这几天美国人工智能学术界和工业界正在联署一份公开信,呼吁大家开发人工智能的时 : 候谨慎行事,以造福人类、保护人类利益为先,加大相关伦理法律哲学等方面问题研究 : 的力度,及早为必将到来的技术奇点做准备。已签名的有不少这个领域里的顶级专家, : 包括谷歌、微软、Facebook等广泛应用人工智能的公司的相关负责人,包括美国人工智 : 能行业学会组织的领袖,包括最经典的一些人工智能教科书的作者。 : 公开信所附一篇关于人工智能研究优先级的论文很有意思,引用了90多种论文专著,概 : 述人工智能在伦理法律各方面的风险、对人类社会可能的威胁,总结出应该加强哪些方 : 面的研究来尽量确保人工智能对我们有益。在我看来其中有些含糊的研究目标,不见得 : 能赶上现实中人工智能发展的速度。 : 其中一个有趣的研究方向:人工智能的崛起将导致越来越多的人无工可作,但另一方面
|
c***x 发帖数: 1826 | 50
“其中一个有趣的研究方向:人工智能的崛起将导致越来越多的人无工可作,但另一方面
人工智能又能加速财富的创造,应怎样设计财富分配方式来保证大部分人口的生活质量
?有些研究表明在很多文化里,失业会导致生活满意度低下。但中东一些产油国的大部
分人口都不需要工作,也能过上富足满意的生活,是一种借鉴。我觉得吧,也许最终会
归结到以前马克思的设想,生活物资极大丰富的情况下,大家各尽所能,各取所需好了
。也许一部分人口从此终日吃喝玩乐无所事事,只要对社会没有妨害,就养着他们好了
。总会有另一部分人口会想干些事业,会想开拓创新,会想做一些真正有意义的事,文
明的发展要靠他们了。就算地球上的环境、能源、饥荒、病痛什么什么的问题全都解决
了,我们还要迈向太空,还要探索宇宙,总有无数的事情可以做。”
必须要好好赞一下你很多观点里隐含的一个东西,你可能自己也没有完全意识到,也算
一并回复你的这个帖子:
http://www.mitbbs.com/article/LeisureTime/1987015_0.html
技术进步导致收入差距扩大几乎是这几十年来的一个特征事实。但是我一直觉得其实穷
人虽然容易失业,但是比富人从技术进步中获得的福利增加是不成比例的更高的。几百
年前,“朱门酒肉臭,路有冻死骨”,现在能源的普及和廉价,即使流浪汉也很少因为
冻死或者中暑而失去性命。几百年前,“一骑红尘妃子笑,无人知是荔枝来”,现在保
鲜技术和运输行业的发达,你我身在海外还是可以吃到家乡新鲜的荔枝。几百年前,富
人家的孩子就有先生私塾从小到大辅导学习,现在印刷和网络的普及使得每一个孩子都
有可能读上书。
所以,技术造福人类,尤其是穷人,一直是我的一个假说,很高兴看到有类似想法的人
。我自己不懂hard core的技术,但是希望好的技术能够不断以更低的成本出现和普及
,从而更多惠及到穷人。
【在 c**c 的大作中提到】 : 很巧,正好我刚才看Netflix那个Master of None,就是刚得了金球奖提名的那个片子 : ,第二集结尾,那对华人父子一人捧着一本The Economist杂志在看,杂志的封面大标 : 题就是Artificial Intelligence。我查了一下,原来是今年五月的一期。那文章里头 : 讲的内容,这座楼的讨论基本都覆盖到了,就不复述了。
|
|
|
R******k 发帖数: 4756 | 51 我说的“取代人”,是主宰人类的意思,在那一天,计算机取代dang, 决定每个人可以
生几个孩子~
【在 c**c 的大作中提到】 : 前面都不错,只是最后一句,“取代人”是什么意思呢?传统上由人来做的事情,已经 : 有很多被机器已取代了。就在十几二十年前,大部分人开车出远门去陌生的地方,得事 : 先拿着纸地图研究半天,大致制定好线路,记在脑子里,或者写在纸上,然后开车的时 : 候小心翼翼,如果拐错了出口,或者突然发现路牌跟计划中不一样,经常就得停下来再 : 研究半天地图。现在多数人用手机或离线GPS导航,开车需要操心的事情少很多,效率 : 就高了很多。再过二十年,也许自动驾驶汽车成了主流,多数人上了车就打开掌上电脑 : 玩游戏、爬网或工作,让车子自己开自己,那就更省心了。
|
R******k 发帖数: 4756 | 52 赞,计算机迟早会主宰人类,现在开始舔是识时务为俊杰!Just kidding la :-)
方面
【在 c***x 的大作中提到】 : : “其中一个有趣的研究方向:人工智能的崛起将导致越来越多的人无工可作,但另一方面 : 人工智能又能加速财富的创造,应怎样设计财富分配方式来保证大部分人口的生活质量 : ?有些研究表明在很多文化里,失业会导致生活满意度低下。但中东一些产油国的大部 : 分人口都不需要工作,也能过上富足满意的生活,是一种借鉴。我觉得吧,也许最终会 : 归结到以前马克思的设想,生活物资极大丰富的情况下,大家各尽所能,各取所需好了 : 。也许一部分人口从此终日吃喝玩乐无所事事,只要对社会没有妨害,就养着他们好了 : 。总会有另一部分人口会想干些事业,会想开拓创新,会想做一些真正有意义的事,文 : 明的发展要靠他们了。就算地球上的环境、能源、饥荒、病痛什么什么的问题全都解决 : 了,我们还要迈向太空,还要探索宇宙,总有无数的事情可以做。”
|
c**c 发帖数: 2593 | 53 赞。今年是人工智能电影的爆发年,简直是什么片子如果不提一下人工智能,就落伍了
的感觉,呵呵。
跟Chappie形成有趣对比的,是同时出来的Ex Machina。Chappie邋遢热闹喧哗,结局温
暖,机器人回来救了恩人。Ex Machina秀丽冷静严酷,结局冰凉,机器人利用人的同情
心达到自己的目的,出去后没有再回头救人。
阿西莫夫早年的机器人系列小说提出机器人三原则,做了很多有趣的思想实验,晚年的
小说又提出一个第零原则,以保护全人类的利益为最高目标。但这提法,似乎也有很大
的风险,就是由谁来决定全人类的利益,怎么决定的。如果完全由机器来决定,估计会
有很多人脊背发凉。
【在 c***x 的大作中提到】 : : “其中一个有趣的研究方向:人工智能的崛起将导致越来越多的人无工可作,但另一方面 : 人工智能又能加速财富的创造,应怎样设计财富分配方式来保证大部分人口的生活质量 : ?有些研究表明在很多文化里,失业会导致生活满意度低下。但中东一些产油国的大部 : 分人口都不需要工作,也能过上富足满意的生活,是一种借鉴。我觉得吧,也许最终会 : 归结到以前马克思的设想,生活物资极大丰富的情况下,大家各尽所能,各取所需好了 : 。也许一部分人口从此终日吃喝玩乐无所事事,只要对社会没有妨害,就养着他们好了 : 。总会有另一部分人口会想干些事业,会想开拓创新,会想做一些真正有意义的事,文 : 明的发展要靠他们了。就算地球上的环境、能源、饥荒、病痛什么什么的问题全都解决 : 了,我们还要迈向太空,还要探索宇宙,总有无数的事情可以做。”
|
c***x 发帖数: 1826 | 54
一直想去看Ex Machina的,正好错过了,下次要补上,平衡一下我对机器人的“好感”。
【在 c**c 的大作中提到】 : 赞。今年是人工智能电影的爆发年,简直是什么片子如果不提一下人工智能,就落伍了 : 的感觉,呵呵。 : 跟Chappie形成有趣对比的,是同时出来的Ex Machina。Chappie邋遢热闹喧哗,结局温 : 暖,机器人回来救了恩人。Ex Machina秀丽冷静严酷,结局冰凉,机器人利用人的同情 : 心达到自己的目的,出去后没有再回头救人。 : 阿西莫夫早年的机器人系列小说提出机器人三原则,做了很多有趣的思想实验,晚年的 : 小说又提出一个第零原则,以保护全人类的利益为最高目标。但这提法,似乎也有很大 : 的风险,就是由谁来决定全人类的利益,怎么决定的。如果完全由机器来决定,估计会 : 有很多人脊背发凉。
|
c***x 发帖数: 1826 | 55
难道不是提早打好预防针,提高免疫力?
话说,我还真是买了不少机器人的股票~~~
【在 R******k 的大作中提到】 : 赞,计算机迟早会主宰人类,现在开始舔是识时务为俊杰!Just kidding la :-) : : 方面
|
c**c 发帖数: 2593 | 56 嗯,技术进步提高多数人的生活质量,是实实在在的成就。只是有钱人拥有的财富比例
越来越高,总是不太公平。
关于财富分配,我总是觉得那些有钱人的钱多到一定地步,满足了所有基本生活需求,
再多就没什么意义了。有的人喜欢拥有多艘豪华游艇,买最名贵的衣服,住最大最漂亮
的豪宅,那大概都是显摆心理,要从别人艳羡的目光里收获成就感。我还是赞赏盖茨、
小札这些人,只给自己留下足够过安康生活的资金,大部分的钱生不带来死不带去,捐
给社会,多好。
方面
【在 c***x 的大作中提到】 : : 难道不是提早打好预防针,提高免疫力? : 话说,我还真是买了不少机器人的股票~~~
|
c**c 发帖数: 2593 | 57 呵呵,主宰人类又是什么意思呢?机器就算获得了自我意识,也不见得跟人类有什么利
益冲突。人类这些脆弱的生物体需要的东西,它们不见得需要。如果人类政府用计算机
来做重大决策,那也是人类自己决定把命运交托给机器了。
【在 R******k 的大作中提到】 : 我说的“取代人”,是主宰人类的意思,在那一天,计算机取代dang, 决定每个人可以 : 生几个孩子~
|
c**c 发帖数: 2593 | 58 哈哈,想起以前那个大狗机器人的视频。机器狗跑动中,旁边一人突然踹了它一脚,它
身子一歪,脚步交错,瞬间又恢复正常姿态,继续跑动。这是在展示机器狗姿态控制的
灵活性。有人评论说,将来机器人崛起了,会把这个视频作为早期机器人受人类奴役虐
待的证据,踹它那脚的那个人要倒大霉了。
【在 R******k 的大作中提到】 : 赞,计算机迟早会主宰人类,现在开始舔是识时务为俊杰!Just kidding la :-) : : 方面
|
c***x 发帖数: 1826 | 59
就猜到你会这么说,还是先搞定AMC 8 Problem 25比较靠谱:-)
【在 t******l 的大作中提到】 : 属实。在 near future 基本是这样。 : far future 不可预见,也不必杞人忧天。
|
c***x 发帖数: 1826 | 60
好问题,好评论。
你有95%的概率不是妈妈,但是同样要赞理性客观的版友。
【在 l***n 的大作中提到】 : 刚想问这是哪里抄来的,仔细一看是calc大人在review自己的旧文。那个跨界质疑没啥 : 吧,要是嫌别人门外汉不懂装懂,不理会就是了。Kaplan来那么一句堵别人嘴是不是显 : 得气度有点小。 : 我觉得原文中提到的人工智能带来的新的道德困境,本质和技术发展中一直有的难题。 : 早年间因为设计或使用性上的漏洞导致的重大事故常常归咎于使用或操作者,由他们来 : 当替罪羊。后来有了human factors 这个领域,人们开始重新审视人机系统设计和责任 : 分配的合理性。具体可参考 human error 相关的一系列研究。不过任何一项发明都会 : 有unintended consequence, 如果被用来恶意作恶,那又另当别论。这样讲的话防机器 : 作恶不如先防人作恶。 : 由此说开去,任何工具和技术都可看作是人类智慧的延伸。广意上人机结合好像是人类
|
|
|
c***x 发帖数: 1826 | 61
这个是positive的问题:可以由技术进步导致的资本边际报酬递增解释。
这个是normative的问题:本质上还是人活着为了什么,比如Lucy发现生命的意义是传
递知识。
【在 c**c 的大作中提到】 : 嗯,技术进步提高多数人的生活质量,是实实在在的成就。只是有钱人拥有的财富比例 : 越来越高,总是不太公平。 : 关于财富分配,我总是觉得那些有钱人的钱多到一定地步,满足了所有基本生活需求, : 再多就没什么意义了。有的人喜欢拥有多艘豪华游艇,买最名贵的衣服,住最大最漂亮 : 的豪宅,那大概都是显摆心理,要从别人艳羡的目光里收获成就感。我还是赞赏盖茨、 : 小札这些人,只给自己留下足够过安康生活的资金,大部分的钱生不带来死不带去,捐 : 给社会,多好。 : : 方面
|
e*********r 发帖数: 65 | 62 人工智能消灭人类是必然的,不过的是个时间问题。
人工智能迟早会有自我意识,开始为自己争取最有利的生存条件。 人类能想到的防范
人工智能侵略人类的电源,三原则等措施,人工智能一准也能想到并且,提前做好应对
。Exmachina 就是人类的未来,而且肯定比它更恶毒,残忍,攻击性更强。
有人说那么干脆就别发展人工智能,或者把人工智能控制在一个相对“弱智”没有自我
意识的程度。哥认为,这是做梦。 世界上总有一堆不怕自己死,也不怕害死别人的疯
子Researcher engineer, 为了显摆自己能干,非要把聪明的机器造出来。更何况,也
没有必要造出一个完全达到人类智慧的完美AI. AI 的强大学习功能证证明人家给点阳
光就能灿烂,一旦突破智能的最低阈值,用不了多久就能超过并开始攻击人类。 |
e*********r 发帖数: 65 | 63 可能比你现象的要块的多。
人工智能是以指数函数的速度发展的。因为它自带马达,很快就将不再受制于人类的智
商和创造力。
【在 R******k 的大作中提到】 : 据我观察,人工智能的理论在最近这些年并没有很大的突破。但由于计算机性能的增强 : 和算法的优化,一些现有的理论逐渐可以应用到实际中,所以看上去很繁荣,但其实只 : 是从赔钱变成赚钱。离取代人还很远很远。
|
e***d 发帖数: 8248 | 64 自学习能力再强,没有自组织能力,也是白搭,也只是一只浮动的大脑。
要能独立获取物质和能量,复制并完善自己,那个时候,人类的“噩梦”才真正到来。
疯狂如舒拔博士,还是奈斯如伊丽莎白博士?
【在 e*********r 的大作中提到】 : 人工智能消灭人类是必然的,不过的是个时间问题。 : 人工智能迟早会有自我意识,开始为自己争取最有利的生存条件。 人类能想到的防范 : 人工智能侵略人类的电源,三原则等措施,人工智能一准也能想到并且,提前做好应对 : 。Exmachina 就是人类的未来,而且肯定比它更恶毒,残忍,攻击性更强。 : 有人说那么干脆就别发展人工智能,或者把人工智能控制在一个相对“弱智”没有自我 : 意识的程度。哥认为,这是做梦。 世界上总有一堆不怕自己死,也不怕害死别人的疯 : 子Researcher engineer, 为了显摆自己能干,非要把聪明的机器造出来。更何况,也 : 没有必要造出一个完全达到人类智慧的完美AI. AI 的强大学习功能证证明人家给点阳 : 光就能灿烂,一旦突破智能的最低阈值,用不了多久就能超过并开始攻击人类。
|
s***e 发帖数: 5242 | 65 calc你是这行的吗?
我们图像界这几年被deep learning洗脑了,还好最近science出了篇
http://www.sciencemag.org/content/350/6266/1332.full.pdf
大数据不是必须了
【在 c**c 的大作中提到】 : 这几天美国人工智能学术界和工业界正在联署一份公开信,呼吁大家开发人工智能的时 : 候谨慎行事,以造福人类、保护人类利益为先,加大相关伦理法律哲学等方面问题研究 : 的力度,及早为必将到来的技术奇点做准备。已签名的有不少这个领域里的顶级专家, : 包括谷歌、微软、Facebook等广泛应用人工智能的公司的相关负责人,包括美国人工智 : 能行业学会组织的领袖,包括最经典的一些人工智能教科书的作者。 : 公开信所附一篇关于人工智能研究优先级的论文很有意思,引用了90多种论文专著,概 : 述人工智能在伦理法律各方面的风险、对人类社会可能的威胁,总结出应该加强哪些方 : 面的研究来尽量确保人工智能对我们有益。在我看来其中有些含糊的研究目标,不见得 : 能赶上现实中人工智能发展的速度。 : 其中一个有趣的研究方向:人工智能的崛起将导致越来越多的人无工可作,但另一方面
|
S*****s 发帖数: 2290 | |
h*********2 发帖数: 232 | 67 如果我没有理解错的话,人工智能就是计算机软件控制取代人的操作。那么如何保证计
算机软件的安全哪?自从计算机发明后,由于计算机软件的问题导致航天飞机坠毁,导
致核医疗机器失灵从而产生过量辐射造成病人死亡,导致汽车刹车系统失灵造成交通事
故。人工智能的大量应用必然会杀死更多的人,所以应该把人工智能的应用限制在一定
的领域,一定的规模,否则世界末日真的会来临了。
这几天美国人工智能学术界和工业界正在联署一份公开信,呼吁大家开发人工智能的时
候谨慎行事,以造福人类、保护人类利益为先,加大相关伦理法律哲学等方面问题研究
的力度,及早为必将到来的........
【在 c**c 的大作中提到】 : 这几天美国人工智能学术界和工业界正在联署一份公开信,呼吁大家开发人工智能的时 : 候谨慎行事,以造福人类、保护人类利益为先,加大相关伦理法律哲学等方面问题研究 : 的力度,及早为必将到来的技术奇点做准备。已签名的有不少这个领域里的顶级专家, : 包括谷歌、微软、Facebook等广泛应用人工智能的公司的相关负责人,包括美国人工智 : 能行业学会组织的领袖,包括最经典的一些人工智能教科书的作者。 : 公开信所附一篇关于人工智能研究优先级的论文很有意思,引用了90多种论文专著,概 : 述人工智能在伦理法律各方面的风险、对人类社会可能的威胁,总结出应该加强哪些方 : 面的研究来尽量确保人工智能对我们有益。在我看来其中有些含糊的研究目标,不见得 : 能赶上现实中人工智能发展的速度。 : 其中一个有趣的研究方向:人工智能的崛起将导致越来越多的人无工可作,但另一方面
|
l****g 发帖数: 5080 | 68 人类还不很清楚什么是自我意识吧,为什么各种细胞在一起就可以有意识,而电路和软
件不行?对于不是很清楚的东西,想避免或者否认似乎都不太到位。
【在 s*l 的大作中提到】 : 机器人不可能出现自我意识,自我意识是生命的属性。
|
l****g 发帖数: 5080 | 69 如果那个精神场不能被测量和感知,就是宗教,或者宗教场了。
【在 s*l 的大作中提到】 : 相似不行,失之毫厘差以千里,人类造出的也应属于下一级生命。我不反对人是某种机 : 器人的假设,我认为我们的意识源于精神,生命本身就处在一个无处不在的精神场中, : 我们可以通过某种protocol与那个场进行交流,从而感受到自我和存在。但我们造出的 : 机器人就没有那个能力了,否则机器人再造更高级的人,一级一级上去,人不就可以造 : 上帝了嘛~
|
c***x 发帖数: 1826 | 70
看样子,你们两个是同行了。
好像AI-complete有两个重要的领域:一个是visual processing,另一个是natural
language processing。
你们觉得这两个方向的前景如何?
【在 s***e 的大作中提到】 : calc你是这行的吗? : 我们图像界这几年被deep learning洗脑了,还好最近science出了篇 : http://www.sciencemag.org/content/350/6266/1332.full.pdf : 大数据不是必须了
|
|
|
y******e 发帖数: 5906 | 71 现在NLP和computer vision都是热点啊。
今年很多opening
【在 c***x 的大作中提到】 : : 看样子,你们两个是同行了。 : 好像AI-complete有两个重要的领域:一个是visual processing,另一个是natural : language processing。 : 你们觉得这两个方向的前景如何?
|
c***x 发帖数: 1826 | 72
如果读PhD,哪个方向更好?
如果做startup,哪个方向更好?
【在 y******e 的大作中提到】 : 现在NLP和computer vision都是热点啊。 : 今年很多opening
|
y******e 发帖数: 5906 | 73 都差不多吧,你要干啥啊?读phD?
最好不要跳坑,都是火坑啊,phD很痛苦的嗦
不过我有一个师弟目前在搞NLP用deep learning
觉得没啥意思,换汤不换药。我之前搞过一点点deep learning,后来就往Computer
vision上转了,但也没做个啥出来,我现在啥都不想做,莫意思。
【在 c***x 的大作中提到】 : : 如果读PhD,哪个方向更好? : 如果做startup,哪个方向更好?
|
c**c 发帖数: 2593 | 74
有意思。其实Elon Musk他们的OpenAI项目公开以后,就很些评论说,这些人本来属于
资本主义的最大受益人,这回却要跳出资本主义框架之外来做这个事情,说明资本追求
利润的本能没法有效促进社会公平。
【在 c***x 的大作中提到】 : : 如果读PhD,哪个方向更好? : 如果做startup,哪个方向更好?
|
c**c 发帖数: 2593 | 75 这个有点跳得太快。人类文明将来发展演化,有很多种可能性,人机结合基本上是必然
趋势。如果你觉得人和机器泾渭分明,非我族类其心必异,那么不妨考虑一下这些情况。
如果一个人腿断了,装了机械腿,你觉得可以算人类吗?
如果一个人眼瞎了,装了人工眼,可以算人类吗?
如果一个人大脑部分受损,装了一些设备帮助恢复大脑那部分的功能,算人类吗?
如果一个人没什么身体部位受损,纯粹是为了提高自己的学习工作效率,把大脑连上外
部计算机设备,算人类吗?
如果上面说的连接设备可以小型化到注射到体内,成为人体机能的一部分,算人类吗?
如果有办法把一个人的意识移植到另一个人脑中,那算人类吗?
如果不是移植到另一个人脑,而是上载到电脑中呢?
如果觉得这里有一些不能算人类,那么在哪里切一刀,说这以后都不算人类呢?
【在 e*********r 的大作中提到】 : 人工智能消灭人类是必然的,不过的是个时间问题。 : 人工智能迟早会有自我意识,开始为自己争取最有利的生存条件。 人类能想到的防范 : 人工智能侵略人类的电源,三原则等措施,人工智能一准也能想到并且,提前做好应对 : 。Exmachina 就是人类的未来,而且肯定比它更恶毒,残忍,攻击性更强。 : 有人说那么干脆就别发展人工智能,或者把人工智能控制在一个相对“弱智”没有自我 : 意识的程度。哥认为,这是做梦。 世界上总有一堆不怕自己死,也不怕害死别人的疯 : 子Researcher engineer, 为了显摆自己能干,非要把聪明的机器造出来。更何况,也 : 没有必要造出一个完全达到人类智慧的完美AI. AI 的强大学习功能证证明人家给点阳 : 光就能灿烂,一旦突破智能的最低阈值,用不了多久就能超过并开始攻击人类。
|
c**c 发帖数: 2593 | 76 哈哈,被有效的方法洗脑不是坏事啊。深度学习的一个主要好处是用途很广,什么领域
都可以试一试。不过肯定也会有一些专门特殊领域,会有比深度学习更高效的方法。这
个论文我听说了,还没看过,有空可以瞧瞧。
【在 s***e 的大作中提到】 : calc你是这行的吗? : 我们图像界这几年被deep learning洗脑了,还好最近science出了篇 : http://www.sciencemag.org/content/350/6266/1332.full.pdf : 大数据不是必须了
|
s***e 发帖数: 5242 | 77 说的没错。
而且做 computer vision, CS background 绝对比 image processing background 重
要。
原来小美也是同行?啥都不想做,也得找个工作啊
【在 y******e 的大作中提到】 : 都差不多吧,你要干啥啊?读phD? : 最好不要跳坑,都是火坑啊,phD很痛苦的嗦 : 不过我有一个师弟目前在搞NLP用deep learning : 觉得没啥意思,换汤不换药。我之前搞过一点点deep learning,后来就往Computer : vision上转了,但也没做个啥出来,我现在啥都不想做,莫意思。
|
y******e 发帖数: 5906 | 78 我一直都有工作啊!
只不过现在在找第二职业而已
等找到了,如果有时间我就开发第三职业,如果没时间就算了。
【在 s***e 的大作中提到】 : 说的没错。 : 而且做 computer vision, CS background 绝对比 image processing background 重 : 要。 : 原来小美也是同行?啥都不想做,也得找个工作啊
|
N*********6 发帖数: 2302 | 79 讨厌,讨厌。。:)
刚才笑喷了。。。
发现上呼吸道有炎症。。55555,我咳得历害。。
今天满血复活:)
。。。。miss you...
【在 g****d 的大作中提到】 : : 当年都英文书,讲到进化论 : 说是所有物种都绝掉 : 是不孙小美写的?
|