长江商学院:霍金去世一周年!他对人工智能的预言会成真吗?

长江商学院
2019-03-14 18:30 浏览量: 3410

MBAChina网讯】

2018年 3 月 14 号,霍金去世,享年 76 岁。他的骨灰放在了英国的威斯敏斯特大教堂,放在了两位英国伟人的骨灰旁:一位是牛顿,另一位是达尔文。

有人说,霍金是爱因斯坦之后,人类最伟大的物理学家。巧的是,霍金去世的那一天,正是爱因斯坦的生日。而他出生的那一天,正是伽利略去世 300 周年的纪念日。

我们对霍金最大的尊敬,就是听一听他最后留给我们的这些珍贵的话语,站在他的肩膀上看得更深、看得更远。今天分享的是霍金遗作《十问:霍金沉思录》中他对人工智能的看法:人工智能会超越人类吗?

作者 | 霍金

来源 |《十问:霍金沉思录》

人工智能,要么是最好的,要么是最糟的

智力是人之为人的核心。文明所提供的一切都是人类智慧的产物,DNA传递代际的生命蓝图。愈加复杂的生命形式从眼睛和耳朵等传感器输入信息,在大脑或其他系统中处理信息,决定如何行动,然后向譬如肌肉等输出信息以作用于外界。

在我们138亿年的宇宙历史中的某个时刻,发生了一件美妙的事。这种信息处理变得如此聪明,以使生命获得意识。我们宇宙现在已经醒来,意识到自己。微末如星尘的我们,居然对我们生活于其中的宇宙有了如此详细的了解,我认为这是一个胜利。

我认为蚯蚓的大脑运作与电脑计算之间没有显著差异。我还相信进化意味着,在蚯蚓和人类的大脑之间不存在质的差异。因此,电脑原则上可以模仿人类智慧,甚至更好。某些东西获得比其祖先更高智力显然是可能的:我们演化得比我们的猿类祖先更聪明,而爱因斯坦比他的父母聪明。

如果电脑继续遵守摩尔定律,它们的速度和记忆容量每18个月加倍,结果是在接下来的100年的某个时刻电脑很可能在智力上超过人类。

当人工智能(AI)在AI设计中变得比人类做得更好,这样它可以在无人帮助的情况下以递归的方式改善自己,我们就可能会面临智力爆炸,最终导致机器在智力上超过我们更甚于我们超过蜗牛。

当那种情形发生时,我们需要确保计算机的目标与我们的目标相互一致。人们也许会轻率地将高智能机器的概念斥为只不过是科学幻想,但这可能是一个错误,还可能是我们最糟糕的错误。

在过去的20多年里,人工智能一直专注围绕制造智能代理人的问题,那是在特定环境中感知和行动的系统。在这种情况下,智能与理性的统计和经济概念有关。通俗地讲,也就是做出好的决策、计划或推论的能力。

由于这项最近的工作,人工智能、机器学习、统计学、控制理论、神经科学和其他领域之间形成了很大程度的整合和交叉。共享理论框架的建立,结合数据和处理能力,在各种组件任务中取得了显著的成功,例如语音识别、图像分类、自动驾驶车辆、机器翻译、腿式运动和问答系统。

随着在这些领域和其他领域中从实验室研究转向经济上有价值的技术发展,良性循环也在演进,即使性能上的微小改进也值得花大笔资金,从而促进了对研究更进一步的投入。

从短期和长期看人工智能

当今一个广泛共识是,人工智能研究正在稳步发展,其对社会的影响可能会增加。潜在的好处是巨大的,我们无法预测当AI可能提供的工具放大这种智能时,我们会获得什么。彻底消除疾病和贫困是可能的。由于AI的巨大潜力,重要的是研究如何在避免潜在陷阱的同时获得收益。

创建AI的成功将是人类历史上的最大事件。不幸的是,它可能也是最后一个,除非我们学会如何规避风险。

将AI用作工具包可以增强我们现有的智能,在科学和社会的每个领域进步。但是,它也会带来危险。到目前为止开发的原始形式的人工智能被证明非常有用,我却害怕创造出匹配或超越人类的某种东西的后果。我担心的是,AI会自己起飞并不断加速重新设计自己。

人类受到缓慢的生物进化的限制,无法竞争,将会被超越。在未来,AI可以发展自身的意志,那是一种与我们相冲突的意志。其他人相信人类可以在相当长的一段时间控制技术的速度,让AI实现解决许多世界问题的潜力。对此,我还不是这么确定,虽然众所周知,关于人类,我是一个乐观主义者。

例如,在短期内,世界军事力量正在考虑开始自动武器系统的军备竞赛,该系统可以选择和消除他们自己的目标。

虽然联合国正在辩论将禁止这种武器的条约,自动武器支持者通常忘了问最重要的问题。军备竞赛的可能终点是什么,那是人类想要的吗?我们真的希望廉价的人工智能武器成为明天的卡拉什尼科夫冲锋枪,卖给黑市上的罪犯和恐怖分子吗?考虑到我们对越发先进的人工智能系统实行长期控制的能力,我们是否应该武装他们并将我们的防御交给他们?

2010年,电脑化的交易系统创造了股票市场的闪电崩盘;电脑触发的防御领域崩溃会是什么样子?现在是停止自动武器军备竞赛的最佳时机。

从中期来看,人工智能可以使我们的工作自动化,带来巨大繁荣和平等。更长远地看,我们对于可以实现的事情没有根本的限制。没有任何物理定律可以排除比以人脑中的粒子排列更高级的计算方式组织粒子的方法。爆炸式过渡是可能的,但它的结局可能与电影不同。

正如数学家欧文·约翰·古德在1965年意识到的那样,在科幻作家维纳尔·维格称之为技术奇点之处,具有超人智慧的机器甚至可以进一步重复改进他们的设计。人们可以想象这样的技术胜过金融市场,发明超过人类研究人员,操纵超过人类领导者,并甚至可能用我们无法理解的武器制服我们。而AI短期对我们的影响取决于谁控制它,长期影响取决于它究竟是否可能被控制。

总之,对于人类,超级智能的问世是有史以来要么最好要么最坏的事。人工智能的真正风险不是恶意,而是能力。一个超级聪明的AI会非常擅长实现目标,如果这些目标和我们的不一致,我们就遇到了麻烦。你可能不是蚂蚁邪恶的仇敌,会去恶意踩踏它们,但如果你负责水力发电的绿色能源项目,而在该地区有一个蚁丘要被淹掉,对于蚂蚁那就太糟糕了。

编辑:

(本文转载自 ,如有侵权请电话联系13810995524)

* 文章为作者独立观点,不代表MBAChina立场。采编部邮箱:news@mbachina.com,欢迎交流与合作。

收藏
订阅

备考交流

免费领取价值5000元MBA备考学习包(含近8年真题) 购买管理类联考MBA/MPAcc/MEM/MPA大纲配套新教材

扫码关注我们

  • 获取报考资讯
  • 了解院校活动
  • 学习备考干货
  • 研究上岸攻略