分享

威胁人类生存的五大事件(组图)

 昵称535749 2015-02-25
译者: Mooncraft 原作者:Anders Sandberg

发表时间:2015-02-24

可能会毁灭整个人类的重大危机……

可能会毁灭整个人类的重大危机……

威胁人类生存的五大事件

胡德良   译

当今,在人类每天所面临的各种“危机”中,我们忘记了希望世世代代要繁衍生息下去。这里的“世世代代”不是指200年之后继续生存的人们,而是指1,000年或10,000年之后仍将继续生存的人们。在这里使用“希望”这个词,是因为我们面临着风险,被称为“生存威胁”的风险——有可能毁灭整个人类的风险。这些风险不仅仅是指大型灾难,也指那些可能终结历史的灾难。

然而,不是每个人都忽略了久远的未来。像诺斯特拉德马斯那样的神秘主义者一直都在试图计算出世界的末日何时到来。在著名的《时间机器》一书中,H·G·威尔斯企图开辟一种预测科学,其中描绘了人类在久远的未来会是什么命运。其他作家描述了别样的遥远未来,有的是对人类的警告、有的是为人类提供娱乐、还有的只是一种推测。

但是,如果没有这些先驱们或未来学家们对人类未来的思考,就不会改变人类的结局。在他们那个时代,没有多少可以采取的措施,无法拯救我们脱离生存危机,甚至还会引起危机。

当今,我们处于得天独厚的地位,人类的活动正在塑造着地球的未来。尽管我们还远远无法控制自然灾害,但我们正在开发的技术会有助于减轻自然灾害,或者说至少可以对其采取应对策略。

并不完美的未来

然而,我们对这些风险的研究仍然不充分,对于这类风险总是有一种无能为力和听天由命的感觉。几千年来,人们一直在谈论世界末日,但是很少有人努力去避免世界末日的发生。此外,人类并不擅长应对那些到目前为止没有发生过的事情,部分原因是人类习惯于可得性启发法——对于所了解的事件,人们往往会过高估计类似事件的发生概率,而对于那些不易记起的事件,人们往往会过低估计其发生的概率。

如果人类灭绝的话,最起码的损失相当于失去了所有活着的人,他们的目标也无法实现了。然而,这个损失可能远远不至于此。人类灭绝意味着过去的祖祖辈辈所创造的价值不复存在,未来所有的世世代代将要诞生的生命(其数量可能是个天文数字)以及这些生命可能创造的所有价值都会损失掉。如果失去了意识和智慧,那就意味着价值本身就会在宇宙中变得荡然无存。因此,我们在道义上拥有充分的理由去努力避免生存威胁的产生,在追求这一目标的过程中,甚至连一次失败都不允许。

考虑到这一点,我选择了我认为对人类生存威胁最大的五种事件。但是,只要有警告就要谨记在心,因为该列单上的事件不是最终的定论。

在过去的那个世纪中,我们发现或创造了新的生存风险:超级火山是在20世纪70年代初期发现的;在曼哈顿计划之前,核战争是不可能发生的。因此,应该料到会有其他的风险出现。此外,随着我们对情况了解得越来越多,一些当今看起来很大的风险有可能会消失。有时,由于我们关注了这些风险,确定了这些风险是什么,风险发生的概率也会随着时间的推移而发生变化。

最终还要说明一点:如果某个事件有可能发生,而且具有潜在的危害性,这并不意味着该事件就值得我们去担忧。对于有些风险,我们是完全无计可施的,如:星系中爆炸事件所产生的伽马射线暴。但是,如果我们了解到是可以采取措施的,那么我们优先考虑的事情就会改变。例如:有了卫生设备、疫苗和抗生素,我们就知道瘟疫流行并不是上天的旨意,而是公共卫生差造成的。

1. 核战争

尽管到目前为止在战争中运用核武器的情况只有两次(二战期间投放到广岛和长崎的原子弹),而且核武器的储备比冷战时的高峰期有所下降,但是如果认为核战争是不可能发生的,那是错误的。事实上,核战争并非不可能发生。

古巴导弹危机差一点变成核战争。假如这样的事件每69年发生一次,每三起这样的事件中有一起会一直恶化下去变成核战争,那么发生这种灾难的几率就会上升到大约每二百年一次。

更糟糕的是,古巴导弹危机只是一个最著名的事例,美苏之间核威慑的历史充满了千钧一发的危机时刻和危险的错误举措。由于国际紧张局势的变化,核战争的实际概率已经发生了变化。但是,如果说核战争的概率远远不到每千年一次,那似乎是令人难以置信的。

大国之间全面的核战争将会直接地或通过随后的余波把数以亿计的人置于死地——那是一场难以想象的灾难。但是,这仍不足以使其成为一种生存威胁。

同样,放射尘的危害也常常被夸大,它在局部拥有潜在的致命性,但是从全球来讲所造成的危害相对有限。有人曾经提出,钴弹这种武器可以导致假设中的世界末日,其放射尘可以杀死任何人。然而实际上,这种武器制造起来是很困难、很昂贵的,从物理上来讲几乎不可能做到。

真正的威胁是核冬天的到来:也就是,烟灰进入平流层,造成世界上多年的低温期和干燥期。现代的气候模拟显示,核冬天会使全世界绝大部分地区在多年的时间里无法进行农耕。如果这种情况发生的话,数十亿的人将会饿死,只剩下七零八落幸存者,他们还可能会遭受其他威胁,如疾病。主要不能确定的是烟灰会表现出怎样的性质,烟灰的种类不同,结果可能也会大不相同,目前我们没有什么好办法对此作出估计。

2. 生物工程流行病

自然流行病比战争具有更大的杀伤力。然而,自然流行病不大可能成为生存威胁:总会有些人对病原体有抗性,幸存者的后代们将会拥有更强的抗性。从进化的角度来讲,也不支持寄生物种将它们的寄主全部消灭,这一点可以解释为什么随着梅毒在欧洲的传播,它从一种致命的杀手却转化为一种慢性病。

遗憾的是,我们现在可以使疾病变得更加严重。比较著名的例子之一就是,往鼠痘(老鼠的天花病毒)中加入一种额外的基因,鼠痘的致命性就增强了许多,可以感染接种过疫苗的个体。最近对禽流感的研究表明,一种疾病的传染性可以人为地得到加强。

目前,有人故意释放毁灭性东西的风险不大。但是,随着生物技术越来越高、费用也越来越低,更多的团体将能够使疾病恶化。

对生物武器的研究大都是由政府进行的,政府所寻求的是可控制的杀伤力,因为消灭全人类在军事上是没有任何意义的。但是,总有一些人想做某些事情,仅仅是因为他们有能力可以做到。一些其他人拥有更高的目标:例如,日本奥姆真理教的狂热分子企图加速世界末日的到来,他们除了使用更加有威力的神经毒气进行攻击之外,还使用生物武器。还有些人认为:如果没有人类的话,地球上的情况将会更加美好,等等。

由于生物武器的袭击和流行病爆发而死亡的人数看起来好像是呈幂律分布的——绝大多数的袭击和爆发所伤害的人数极少,而极少数的袭击和爆发所伤害的人却极多。考虑到当前掌握的数据,由生物恐怖活动造成全球流行病的风险似乎是很小的。但是比起恐怖分子,政府使用生物武器所杀的人要多得多——二战期间,可能有多达400,000人死于日本的生物战争计划——这恰恰也属于生物恐怖活动。随着未来技术的威力越来越强大,杀伤力更强的病原体也就更加容易设计了。

3. 超级智能

智慧是非常具有威力的。在解决问题的能力方面以及在团体协作方面,我们略高一筹,这使得其他猿类动物望尘莫及。现在,其他猿类动物是否能够继续存在,要靠人类的决定,而不是靠它们自己怎么做。对于人类和团体组织来说,拥有智慧的确是一种优势。因此,我们想方设法提高个人智慧和集体智慧,从提高认知能力的药物到人工智能软件,我们做出了很多努力。

问题是:有智慧的实体善于实现自己的目标;但如果目标设置不当,它们可以利用自己的威力轻而易举地实现灾难性的目标。如果认为智能本身会使某个事物表现得良好而又符合道德规范,那是没有道理的。实际上,有可能证实这一点:某种超级智能系统可能会不去遵守道德规则,即使这些规则是正确的。

更加令人担忧的是,在企图向人工智能解释情况的时候,我们遇到了深奥的实际问题和哲学问题。人的价值都是些宽泛、复杂的概念,都是些不易表达的东西。即使能够表达出来,我们可能也不会明白是否传达了我们所希望表达的所有含义。

基于软件的智能可能会很快从不如人类到变得异常强大,令人畏惧。原因在于,这种智能跟生物智能的分级方式有所不同:它在较快的计算机上运行得也会较快,各部件可以安装在更多的计算机上,不同的版本在运行之中便可以得到测试和升级,所编入的新算法能够使之在性能上产生飞跃。

有人曾经提出,当软件的性能足够卓越、其本身能够制造出更好的软件时,“智能爆炸”就成为可能。如果能够发生这种飞跃的话,那么智能体系和世界其他体系之间的潜在能力将会存在巨大的差异。很明显,如果目标设置不当,就有可能造成灾难。

有关超级智能,一件不同寻常的事情是:我们不知道迅速而强有力的智能爆炸是否有可能发生,或许我们目前的文明作为一个整体正在以最快的速度实施自我改善。但是,我们有充分的理由相信:一些技术可能会加速事态的发展,发展速度可能会远远超出预期,使当前社会各界根本无法对付。同样,我们也没有很好地掌握不同形式的超级智能所造成的危险性到底有多大,什么样的减灾策略能够真正地起作用。对于我们尚不掌握的未来技术,或者对于比我们本身更加强大的智能,我们很难推知情况到底会如何。在这份威胁列单中,这个威胁最有可能是要么规模巨大,要么仅仅是虚幻的威胁而已。

这是一个在研究上特别欠缺的领域。甚至在20世纪50年代和60年代的时候,人们对于“在一代人的时间之内”实现超级智能极有信心,但他们没有太多地关注安全问题。也许人们当时没有重视那个预测,然而人们更有可能把超级智能当成了一个遥远未来的问题。

4. 纳米技术

纳米技术利用原子或分子的精度来控制物质。纳米技术本身并不危险,相反该技术对于绝大多数应用领域来说是一则极好的消息。问题是,就像生物技术一样,威力的提高也增加了滥用的可能性,这些都是难以防范的。

一个重大的问题是,这不像邪恶的“灰色粘质”——可以吞噬一切的、能够自我复制的纳米机器。要想达到吞噬一切的目的,这种机器本身也将需要精巧的设计。让机器进行自我复制是很难的,但是生物在默认的状态下对于自我复制要擅长得多。或许会有某个疯狂之人最终能够成功地制造出这样的机器,但是在研究这项破坏性技术的过程中,也会产生许多轻而易举就可获得的成果。

最明显的风险就是精密到原子级的制造技术,这种技术对于快速、低成本地制造武器之类的东西是很理想的。如果任何政府都能够“打印”大量的自动式或半自动式武器(包括能够通过“打印”更多制造武器的设备),那么在这样的一个世界中,军备竞赛将会变得异常迅猛,因而也就增加了不稳定的因素,因为在敌人还没有获得巨大优势之前而先发制敌可能会极具诱惑力。

武器可也以成为很小、很精密的东西:“智能毒物”的作用就像神经毒气,但是可以找出侵害目标;或者,无处不在的“昆虫机器人”监视系统让人们乖乖地顺从……这些好像都是完全有可能实现的。此外,或许也有办法让任何人掌握核扩散技术和气候工程技术,无论谁想掌握都是可以做到的。

对于未来纳米技术所带来的生存威胁,我们无法判断其可能性的大小。但是,看来这种技术是具有潜在破坏性的,因为它能够为我们提供我们希望得到的一切。

5. 尚未了解的未知事项

最令人不安的可能性是:有个非常致命的事物就存在于某处,而我们对其没有掌握任何线索。

寂静的天空可能就是此类事件的证据。找不到外星人的原因是由于生命或智能极其稀少吗?或者是由于智能生命往往会被彻底消灭吗?如果真的存在一个未来的“大过滤器”,那么其他的文明肯定也注意到了。即便如此,也于事无补。

不管这种威胁是什么,一旦人们认识到它的存在时,那么就一定是几乎不可避免的,不管你是谁,也不管你是做什么的,都无回天之力。我们还不了解任何这样的威胁,列表中的其他威胁都不是像这样运行的,但是这种威胁或许是存在的。

请注意,我们对某个威胁尚不了解,并不意味着我们对此无法推知。在一篇引起广泛关注的论文中,马克斯·泰格马克和尼克·博斯特罗姆根据地球的相对年龄证实,发生某种系列风险的几率肯定不到每十亿年一次。

你会感到纳闷:为何气候变化和流星撞击没有进入这个列单呢?无论多么可怕的气候变化,都不可能使得整个地球成为无法居住的地方。但是如果我们的防御措施失利的话,那么气候变化还会加剧其他的威胁。流星肯定有可能彻底摧毁我们,但是那一定是在我们极其不幸的情况下发生的。普通的哺乳动物物种生存了大约一百万年,因此其自然背景灭绝率大约为每年百万分之一。这比核战争的威胁要低得多,而核战争在70年之后仍然是人类继续生存的最大威胁。

可得性启发法使我们过高地估计了通常出现于媒体中的风险,而对于史无前例的风险则产生了低估。如果人类要想在一百万年以后仍然生活在地球上,那么我们就要纠正这些错误的估计。

译自:美国《大众科学》杂志(05.29.2014 at 11:00 am)

原著:Anders Sandberg

作者简介:安德斯·桑德伯格出生于1972年7月,获斯德哥尔摩大学计算神经科学博士学位,现任牛津大学人类未来研究所研究员,是一位科学辩论家、未来学家、人类提高学家兼作家。他在人类未来研究所的研究工作集中于低概率高冲击的风险管理、围绕人类提高和新技术所产生的社会和伦理问题、以及对未来技术能力的评估等领域。桑德伯格博士特别感兴趣的课题涉及全球性的灾难风险、认知偏差、认知提高、集体智慧、神经伦理学和公共政策等领域。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多