APP下载

生存还是毁灭,这五件事给人类出了一道题

2015-03-13胡德良

科学大众(中学) 2015年2期
关键词:核战争威胁智慧

胡德良

当今,在人类每天所面临的各种“危机”中,我们忘记了希望世世代代要繁衍生息下去。这里的“世世代代”不是指200年之后继续生存的人们,而是指1 000年或10 000年之后仍将继续生存的人们。在这里使用“希望”这个词,是因为我们面临着风险,被称为“生存威胁”的风险——有可能毁灭整个人类的风险。这些风险不仅仅是指大型灾难,也指那些可能终结历史的灾难。

几千年来,人们一直在谈论世界末日,但是很少有人努力去避免世界末日的发生。此外,人类并不擅长应对那些到目前为止没有发生过的事情,部分原因是人类习惯于可得性启发法—— 对于所了解的事件,人们往往会过高估计类似事件的发生概率,而对于那些不易记起的事件,人们往往会过低估计其发生的概率。

英国牛津大学人类未来研究所的研究员安德斯·桑德伯格在美国《大众科学》网站撰文,为我们梳理出了对人类生存威胁最大的五种事件。但是,有一句话要谨记在心—— 这张单子上列出的不是最终定论。

尽管到目前为止,在战争中运用核武器的情况只有两次(二战期间投放到广岛和长崎的原子弹),而且核武器的储备比冷战时的高峰期有所下降,但是如果认为核战争是不可能发生的,那是错误的。事实上,核战争并非不可能发生。

大国之间全面的核战争,将会直接或间接地把数以亿计的人置于死地,但这仍不足以使其成为一种生存威胁。真正的威胁是核冬天的到来,也就是爆炸产生的烟灰进入平流层,造成世界上多年的低温期和干燥期。现代的气候模拟显示,核冬天会使全世界绝大部分地区在多年的时间里无法进行农耕。如果这种情况发生的话,数十亿的人将会饿死,只剩下七零八落的幸存者,他们可能还会遭受其他威胁,如疾病。主要不能确定的是烟灰会表现出怎样的性质,烟灰的种类不同,结果可能也会大不相同,目前科学家没有什么好办法对此作出估计。

从历史的情况来看,自然产生的流行病杀死的人比战争夺去的生命还多。然而,这些自然产生的流行病不大可能成为生存威胁:总会有些人对病原体有抗性,幸存者的后代们将会拥有更强的抗性。从进化的角度来讲,也不支持寄生物种将它们的寄主全部消灭,这一点可以用来解释为什么随着梅毒在欧洲的传播,它却从一种致命的杀手慢慢转化为一种慢性病。

遗憾的是,我们现在可以使疾病变得更加严重。比较著名的一个例子就是往鼠痘(老鼠的天花病毒)中加入一种额外的基因,鼠痘的致命性就增强了许多,可以感染接种过疫苗的个体。最近对禽流感的研究也表明,一种疾病的传染性可以人为地得到加强。

目前,有人故意释放毁灭性东西的风险不大。但是,随着生物技术越来越高、费用也越来越低,或许有人会使疾病变得更致命。

智慧是非常具有威力的。在解决问题的能力方面以及在团体协作方面,我们略高一筹,这使得其他猿类动物望尘莫及。现在,其他猿类动物是否能够继续存在,要靠人类的决定,而不是靠它们自己怎么做。对于人类来说,拥有智慧的确是一种优势。因此,我们想方设法提高个人智慧和集体智慧,从提高认知能力的药物到人工智能软件,我们做出了很多努力。

但是,基于软件的智能也可能会很快从不如人类到变得异常强大。原因在于,这种智能跟生物智能的升级方式有所不同:它在较快的计算机上运行得也会较快,各部件可以安装在更多的计算机上,不同的版本在运行之中便可以得到测试和升级,所编入的新算法能够使之在性能上产生飞跃。

有人曾经提出,当软件的性能足够卓越、其本身能够制造出更好的软件时,“智能爆炸”就成为可能。如果能够发生这种飞跃的话,那么智能体系和世界其他体系之间的潜在能力将会存在巨大的差异。

问题是,有智慧的实体善于实现自己的目标,但如果目标设置不当,它们可以利用自己的能力轻而易举地实现灾难性的目标。如果认为智能本身会使某个事物表现得良好而又符合道德规范,那是没有道理的。实际上,有可能出现这种情况:某种超级智能系统可能会不去遵守道德规则,即使这些规则是正确的。

更加令人担忧的是,在企图向人工智能解释情况的时候,我们遇到了深奥的实际问题和哲学问题。人的价值都是些宽泛、复杂的概念,都是些不易表达的东西。即使能够表达出来,我们可能也不清楚是否传达了我们的本意。

纳米技术利用原子或分子的精度来控制物质。纳米技术本身并不危险,相反该技术对于绝大多数应用领域来说是一则极好的消息。问题是,就像生物技术一样,威力的提高也增加了滥用的可能性。

最大的问题不在于人们经常说的“灰色粘质”,这是科学家设想出来的一种可以吞噬一切、能够自我复制的纳米机器。要想达到吞噬一切的目的,这种机器本身也将需要精巧的设计,很难被制造出来。但是在研究这项破坏性技术的过程中,也会有很多额外的收获。

最明显的风险就是精密到原子级的制造技术,这种技术对于快速、低成本地制造武器之类的东西是很理想的。如果任何政府都能够“打印”大量的武器,那么在这样的一个世界中,军备竞赛将会变得异常迅猛。

对于未来纳米技术所带来的生存威胁,我们无法判断其可能性的大小。但是,看来这种技术是具有潜在破坏性的,因为它能够为我们提供我们希望得到的一切。

最令人不安的可能性是:有个非常致命的事物就存在于某处,而我们对其没有掌握任何线索。

寂静的天空可能就是此类事件的证据。找不到外星人是由于生命或智能极其稀少吗?或者是由于智能生命往往会被彻底消灭吗?如果真的存在一个未来的“大过滤器”,那么其他的文明肯定也注意到了。即便如此,也于事无补。

不管这种威胁是什么,一旦人们认识到它的存在时,那么就一定是几乎不可避免的,不管你是谁,也不管你做什么,都无回天之力。我们还不了解任何这样的威胁,列表中的其他威胁都不是像这样运行的,但是这种威胁或许是存在的。

请注意,我们对某个威胁尚不了解,并不意味着我们对此无法推知。在麻省理工学院的物理学家马克斯·泰格马克和牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆联合发表的一篇著名的文章中,他们根据地球的相对年龄证实,发生某种系列风险的几率肯定不到每10亿年一次。

你也许会感到纳闷:为何气候变化和流星撞击没有进入这个列单呢?无论多么可怕的气候变化,都不可能使得整个地球成为无法居住的地方。但是如果我们的防御措施失利的话,那么气候变化还会加剧其他的威胁。流星肯定有可能彻底摧毁我们,但是那一定是在我们极其不幸的情况下发生的。普通的哺乳动物物种生存了大约100万年,因此其自然背景灭绝率大约为每年百万分之一。这比核战争的威胁要低得多,而核战争在70年之后仍然是人类继续生存的最大威胁。

猜你喜欢

核战争威胁智慧
本期导读
人类的威胁
“末日钟”拨快
俄媒警惕美在欧演练“核战争”
搞笑图片
有智慧的羊
智慧派
智慧决定成败
智慧往前冲,统计百分百(1)