文档结构  
翻译进度:已翻译     翻译赏金:0 元 (?)    ¥ 我要打赏

earth comets asteroid impacts water illustration shutterstock_155504771

一张关于彗星和行星正在撞击地球表面的插图。Shutterstock图片/美国航空航天局

人类灭绝是大多数人不想过于深究的事情,但是剑桥大学的一个团队正在致力于研究这一问题。

该大学生生存风险研究中心(CSER)的教师、律师、学者和哲学家都专注于如何最好的减轻可能导致人类灭绝和文化崩塌的风险。

CSER的学术项目经理Haydn Belfield告诉《商业报幕》杂志,他和他的同行正在对与人工智能、生物技术和环境相关的风险,以及较小的程度的自然风险。

第 1 段(可获 1.36 积分)

他对《商业报幕》杂志说道:“这些都是‘全球灾难性风险’ -- 即那些能够杀死全球至少10%的人口,或者造成同等程度的损失。”

以下是他们正在关注的领域的摘要:

1. 一颗行星正在撞击地球

An asteroid hitting Earth

美国航天航空局

地球不断受到小行星的“撞击”,但其中大部分是无害的,因为太小了。当它们通过我们的大气层时,它们会碎掉变成尘土或细小沙粒。然而,一次又一次,一个更大的小行星将与我们的星球相撞。

据Wired称,直径超过100米的小行星每隔一千年左右就会与地球接触,而直径超过10公里的小行星每隔一亿年就会撞击地球。每年都会有直径小于1米的小行星会撞击地球。

第 2 段(可获 1.81 积分)

风险种类:自然(CSER较少关心这些)

2. 一个超级大火山

A supervolcano

留尼旺岛富尔奈斯火山;摄影:Jonathan Payet(网页截图)

在美国黄石国家公园的下方静静地潜伏着一座“超级火山”,一旦爆发,它有可能会造成人类灭绝。

还有其它几个“超级火山”-爆发时能够产生超过240立方英里岩浆的火山--全球的科学家和火山学家正不断地观察,包括在印度尼西亚的多巴湖。

根据国家公园管理局(NPS)的资料显示,在过去的200万年里,黄石有三次重大的火山爆发,其中两次可能被认为是超级火山事件。NPS在其网站上写道:另一个超级火山爆发时有可能的,但在未来的一千年甚至是一万年内,这种爆发是不太可能发生的。
 

第 3 段(可获 1.69 积分)

在超级火山事件期间,从地表喷出的大量熔岩和灰烬有可能造成长时间的气候变化,从而可能引发威胁生命的冰河时代和全球气候变暖。

风险类型: 自然 (CSER较少关注这些)

3. 太阳耀斑

Solar flares

美国宇航局戈达德飞行中心

太阳表面的爆炸可能导致太阳耀斑影响地球。有时,这些太阳耀斑大到足以引发地磁风暴,使卫星不能正常运作,地面电网瘫痪。

Wirecd表示,到2020年,八分之一的灾难性太阳耀斑将会袭击地球。

第 4 段(可获 1.4 积分)

风险类型: 自然 (CSER较少关注这些)

4. 灾难性气候变化

Catastrophic climate change

 美国地质勘探局

全球气温上升可能对人类带来致命的连锁效应。

当复杂气候系统迅速向不同“模式”转变时,这种模式人类和自然系统无法适应,从而就会发生非线性的气候变化。

风险类型: 环境

5. 生态系统崩溃

Ecosystem collapse

路透社

当许多变量以正确的方式汇集在一起时,地球的生态系统才会蓬勃发展。当这些变量中的其中一个被大事件所破坏时,就有可能导致生态系统崩溃,从而降低生态系统维持生命的能力,甚至会导致大规模的灭绝。尽管,如果有合适条件存在,适应性强的生态系统可以恢复。

第 5 段(可获 1.56 积分)

风险类型: 环境

6. 地质工程意外事故

Geoengineering accident

2015年7月9日,泰国曼谷北部,一架农用飞机飞过北揽坡府,试图进行人工降雨。
路透社/萨布普拉索姆

地质工程是对地球气候系统的人工修改,通常是为了去除大气层中的二氧化碳来缓解全球变暖。

这样做的一个方法是使用可以直接从空气中去除二氧化碳并将其存储于别处的大型机器。人类也在考虑通过人工降雨来改变从云层中落下的降水量和雨水类型。

第 6 段(可获 1.24 积分)

德国赫尔姆海姆研究中心(Helmholtz Center for Ocean Research)的研究人员在《自然通讯》(Nature Communications)杂志上发表了他们的研究结果,根据他们的结果表明,“扮演上帝”并试图改变全球的天气模式可能会带来潜在的破坏性影响。

他们模拟了五种潜在的地址工程技术(造林、人造海洋上升流、海洋铁施肥、海洋硷化和太阳辐射管理),并得出结论认为,地质工程可能会给复杂且不完全明了 的天气系统造成混乱。

风险类型: 环境

第 7 段(可获 0.91 积分)

7. 核冬天

Nuclear winter

Flickr网站/James Vaughan

如果世界将以全面核战争方式结束,核冬天就会发生。发射数十枚核弹头将产生足以让世界变成炼狱的烟尘,滚滚灰黑色云层笼罩地球,使地球陷入黑暗,导致地球温度骤降。那些没有被核武器杀死的人最终会在核冬天死去。

风险类型: 环境

8. 流行病

Natural pandemic

2016年8月19日,在美国加利福尼亚州,圣迭戈圣地亚哥县官员亲手喷洒两块地区,以帮助预防由蚊子传播的寨卡病毒。
路透社/ Earnie Grafton

第 8 段(可获 1.44 积分)

流行病是一种全球性的疾病爆发,可以通过全球各地的人群迅速传播。例如天花、艾滋病、肺结核和黑死病,造成1350年有7500万人死亡,相当于当时全球人口的13%至17%左右的人口。

今天,长途航空旅行的广泛应用意味着疾病的传播速度比以往任何时候都要快。

风险类型:生物技术

9. 转基因流行病

Genetically engineered pandemic

路透社/ Abed Kontar /资料照片

微软的亿万富翁联合创始人比尔盖茨在2月份的慕尼黑安全会议的一个小组会议上警告说,一个基因工程的病毒可能会杀死数千万人。

第 9 段(可获 1.35 积分)

比尔盖茨在2015年代额《新英格兰医学》杂志上写道:“我担心生物学工具会被生物恐怖分子所利用。他还告诉《每日电讯报》:“通过结合两个版本”一种是迅速传播,一种是迅速杀死,会更容易制造出新型流感毒株。

盖茨还补充说,基因工程病毒有可能比核武器杀死更多的人,而且它们更容易制造。

风险类型:生物技术

10. 转基因农作物病害或牲畜疾病

Genetically engineered crop or livestock disease

Sandra Mu/Getty图片

可能消灭人类主要食物来源(农作物和牲畜)的人为疾病也可能会对人类构成威胁。世界各地的数百万人已经因为饥荒而处于饥饿的边缘,一种可以消灭大量食物的基因工程疾病是人类最不愿意看到的。

第 10 段(可获 1.84 积分)

风险类型: 生物技术

11. 非盈利的 '狭义' 人工智能

Non-beneficial 'narrow' AI

A24/"Ex Machina"

狭义的人工智能,也被称为弱智能,是专为学习和专注于一项特定任务的软件的组成部分。其中一个例子就是AlphaGo算法,该算法是由谷歌旗下的DeepMind的研究人员所编写,用于玩和掌握中国围棋游戏。另一个例子是苹果的私人助理Siri。

斯坦福大学法学院的互联网与社会研究中心的Ryan Calo在2011年写道:“弱或狭义的人工智能是当今的现实”“软件控制着日常生活的许多方面,在某些情况下,这种控制方式存在真正的问题,其中一个例子就是2010年5月的“闪电崩盘”,导致市场出现短暂而大幅度的下跌。

第 11 段(可获 1.51 积分)

风险类型: 人工智能

12.非盈利的超级智能

Non-beneficial superintelligence

推特/JeffBezos

尼克·博斯特罗姆(Nick Bostrom)在《超级智能》(Superintelligence)书中可怕地阐述的高度发达的自我思考机器是另一个担忧的问题。如果这些超级智能电脑超越人类智慧,并决定不再需要我们,那么我们可能会陷入麻烦。

根据未来生活研究院说法:“大多数研究人员都认为,超级人工智能不可能释放人类的情感如爱情或仇恨,而且没有理由期望人工智有意地成为善良或恶意的一方。”

第 12 段(可获 1.09 积分)

如果低程序化的超级智能机器想要,他们就可以迅速开发出各种形状和大小的尖端武器,意味着人类的终结。

风险类型:人工智能

13. 未知风险

Unknowns

Aly Weisman/《商业内幕》杂志

当然,还有我们还没有想到的未知风险。谁知道他们是什么呢。

风险类型:任何事物。

第 13 段(可获 0.75 积分)

文章评论