文档结构  
翻译进度:已翻译     翻译赏金:0 元 (?)    ¥ 我要打赏

对哲学家尼克·波斯特罗姆(Nick Bostrom)的著作《超级智能》(Superintelligence)提醒人们小心提防人工智能的辩护。

任·埃齐奥尼(ren Etzioni)是一位知名AI研究人员。人工智能的研究尽管前途不可限量,但潜在的长期隐患正逐渐显示出来,他对这样的新闻报道感到不满(参见《专家并不认为超级智能AI对人类是一种威胁》一章)。埃齐奥尼在直接公开指责牛津大学哲学家尼克·波斯特罗姆(Nick Bostrom)和他的最新著作《超级智能》后,对波斯特罗姆提出“人类层级的智能产生的主要数据源”包括对AI研究者意见的调查的观点感到不满。在此之后,他自己调查了AI研究者的意见,声称他得出的结论推翻了波斯特罗姆的观点。

第 1 段(可获 1.28 积分)

要知道,埃齐奥尼甚至没提到为什么他公开谴责《超级智能》所造成的影响,这点很重要。他也没有解释清楚为什么超级智能的AI可能会造成无法把控的负面影响,为什么提前开始解决AI的问题是如此重要。波斯特罗姆没有把事实建立在超人类AI系统即将来临这个预测上,他在著作中写到“本书不是在表明我们正处于人工智能重大突破的开端,书中也没有表明我们可以对此具体时间做出精确的预测”。

第 2 段(可获 1.23 积分)

因此,在我们看来,埃齐奥尼的文章转移了读者的注意力,使读者不再关注书中的核心内容。埃齐奥尼以争论调查结果为由,直接从个人偏好的角度出发攻击波斯特罗姆。我们觉得有必要进行更正一下。我们之中的一位成员(拉塞尔)甚至还帮助了埃齐奥尼进行调查,但他发现埃齐奥尼的反击完全是个误会。事实上,根据我们的详细分析,埃齐奥尼的调查结果完全与波斯特罗姆的观点一致。

但是,埃齐奥尼是如何得出这个新结论的呢?通过使用自己设计出来的测量工具,这测量工具比波斯特罗姆的测量工具稍差一些,所以得出了不正确的结果。

第 3 段(可获 1.28 积分)

文章的副标题是这样的:“如果你问那些了解过的人,那你会发现没多少人认为人工智能对人类是一种威胁”。所以在此情况下,读者会认为埃齐奥尼的确问了真正了解AI的人们,而波斯特罗姆并没有。事实正好相反。波斯特罗姆才是真正问过了解AI的人们,而埃齐奥尼谁也没问过。波斯特罗姆调查了AI领域上榜的前100位研究人员。超过半数的受访者认为人类层级的机器智能对人类的影响将是”不太好的影响”或是” 极其坏的影响(事关存亡的人类大灾难)”,这样的几率很高(至少有15%的几率)。埃齐奥尼的调查则不像波斯特罗姆那样,他根本没有涵括有关人类威胁的问题。

第 4 段(可获 1.68 积分)

与事实相反,埃齐奥尼仅仅问了一个问题,那就是我们何时将达到超级智能的阶段。正如波斯特罗姆的数据预测的那样,埃齐奥尼的受访者中,有一半再多一点(67.5%)的人选择了“至少25年”达到超级智能的阶段—毕竟,波斯特罗姆有超过一半的受访者给出的数据是“25年后,仅有50%的可能性达到人类层级的人工智能”。我们中的一员(拉塞尔)在埃齐奥尼的调查中给出的回答是“至少25年”,而波斯特罗姆在自己的调查中写到:“我本人的观点是,在之后到达的日期里,专家调查里的中间人群并没有足够的概率分布。”

第 5 段(可获 1.38 积分)

目前,设计出的调查问卷让受访者有可能选择“超过25年”这一选项,埃齐奥尼陷入了他自己的陷阱:他声称25年是一个“不可预知的年限”,所以可由此推测出,无论是拉塞尔还是波斯特罗姆,他们都不认为超级智能AI对人类是个威胁。这让拉塞尔和波斯特罗姆都很讶异,可能也会让调查中许多其他的受访者也感到惊讶。(事实上,埃齐奥尼的文章标题本可以简单地起为“75%的专家认为走向超级智能AI是必然的趋势”。)因为大部分专家认为超级智能AI离我们还有至少25年之远,所以我们应该忽视它所具有的灾难性风险吗?埃齐奥尼的逻辑是我们同时也应该忽视气候变化具有的灾难性风险,顺便严惩提起这些事的人。

第 6 段(可获 1.56 积分)

还有一些人与埃齐奥尼和某些AI界人士的观点相反,他们认为AI所带来的长期性风险不等同于超级智能AI的概念,而它的伴随性风险“即将来临”。曾指出Al风险的人有很多,包括一些杰出人物,比如阿兰·图灵,诺伯特·维纳,I.J.古德和马文·闵斯基。甚至奥伦·埃齐奥尼他自己也承认了这些风险。据我们所知,还未有任何迹象表明超级智能AI即将来到我们的生活中。波斯特罗姆的《超级智能》中也没有任何的提及。

之后,埃齐奥尼再次重复了他那半信半疑的观点,他的预测前景不妙,没有考虑到AI在预防医疗事故、减少交通事故等方面的巨大潜力。对波斯特罗姆来说,埃齐奥尼的观点根本站不住脚。波斯特罗姆预计在控制AI方面的成功进展将使人类大范围地自发使用AI,而且这种使用是悲天悯人,欣欣向荣的。埃齐奥尼的观点也十分荒谬。就像是在说分析核电站爆炸可能性的核工程师“没有考虑到廉价电力的巨大潜力”,因为可能某一天,核电站就真的能够生产便宜的电了,所以我们既不能提起这件事,也不能致力于解决核电站有可能爆炸的问题。

第 7 段(可获 2.48 积分)

切尔诺贝利事件给了我们一个教训,宣称某种强大的技术毫无风险是不明智的,宣称某种强大的技术永远不会实现也是不明智的。1933年9月11日,世界上最著名的核物理学家卢瑟福勋爵认为,从原子中提取能量不过是镜中月水中花。然而,在24小时之内,利奥·西拉特就发明了中子诱发核连锁反应。几年后就出现了核反应堆和核武器的详细设计。对于人类的创造力,预估优于低估,对于风险,承认优于否认。

第 8 段(可获 1.34 积分)

许多著名的人工智能专家已经认识到,人工智能可能有存在风险。和媒体的歪曲恰恰相反,这种风险并不源自于人工智能自发形成的邪恶意识。相反,风险来自于人类在优化人工智能的过程中所产生的不可预测性和潜在的不可逆性。1960年,诺伯特·维纳很清楚地说明了这个问题,但至今仍未得到解决。我们真诚地希望读者们能支持我们不断努力解决这个问题。

艾伦·达福,耶鲁大学政治学助理教授.

斯图亚特·罗素,加利福尼亚大学的计算机科学教授。

第 9 段(可获 1.35 积分)

文章评论