全球災難危機
全球災難危機(英語:)是一個假設人類於未來將遭逢全球災難性的事件,導致現代文明毀滅、倒退或衰落的概念,又稱為世界末日。[2][3] 而任何能讓人類滅絕或永久減損人類發展性的事件,都可稱為人類的生存危機。[4]
潛在的全球災難危機包括各種天災與人禍。其中,天災包括小行星撞擊、超級火山爆發、伽瑪射線暴、氣候變遷、磁暴、瘟疫發生或是全球的電子設備被摧毀等;甚至是外星生命入侵地球,這些事件都可能導致人類滅絕。 另外,隨著人類科技發展,例如:人工智慧叛變、生物技術危機、奈米科技武器等諸多新科技也都可能引發技術危機。而無能的全球治理政策則可能導致人類社會、政治、經濟等全球系統出現危機,例如:第三次世界大戰爆發,帶來核子大屠殺、生物恐怖主義、網路恐怖主義,摧毀各種維生管線(如輸電網絡),同時毀壞人類文明。全球暖化、環境退化、人口過剩等環境、氣候危機,則因全球生態環境系統崩壞而出現,帶來物種滅絕與饑荒。
可能性
一些風險是基於地球過去發生的現象並留下地質記錄所致。結合當代觀察,可以對此類事件將來發生的可能性進行估算。例如,據估計2100年之前發生一次滅絕級彗星或小行星撞擊事件的機率為百萬分之一。[5][6]超級火山是另一個例子。有幾種已知的超級火山,包括多巴山。依據多峇巨災理論,該火山在上一次噴發時幾乎消滅了人類。地質記錄表明,這種特殊的超級火山大約每50,000年爆發一次。[7][8]
2008年,在牛津大學舉行的全球巨災風險會議上,針對不同全球巨災風險的專家進行的非正式調查顯示:到2100年,人類滅絕的可能性為19%。大會報告警告說,研究結果並不意味著要承擔所有重大風險,也不包括氣候變化之類的結果,並且該結果可能反映了會議參與者的許多認知偏見。[9]
潛在的風險來源
人為因素
劍橋大學的「劍橋計劃」指出:對人類的“最大威脅”是人為的;它們是人工智慧、全球暖化、核子戰爭和有害生物技術。[11]牛津大學人類未來研究所還指出:人類滅絕更可能是由於人為原因而不是自然原因造成的。[12][13]
人工智慧
在未來,學習迅速成為超級智能的計算機可能會採取無法預料的動作,或者機器人將在人類的競爭中勝出(一種技術奇點的情況)。[14]由於其卓越的調度能力和組織能力以及可開發的新技術範圍,第一個出現的地球超級智能可能會迅速變得無與倫比:可以想像,它將能夠帶來幾乎任何可能的結果,並且能夠幾乎可以阻止任何可能阻止其實現目標的嘗試。[15]如果它選擇,它可以消除任何其他具有挑戰性的競爭對手的智慧;或者,它可能操縱或說服人們改變自己的行為以符合它自己的利益,或者可能只是阻礙他們進行干預的嘗試。[15]在Bostrom的書《超級智能:路徑、危險、策略》中,他將其定義為控制問題。物理學家斯蒂芬·霍金、微軟創始人比爾·蓋茨和SpaceX創始人埃隆·馬斯克都回應了這些擔憂,霍金將這種人工智能理論推向了現實。可能“預示著人類的滅亡”。[16]
生物技術
生物技術可能以生物工程生物(病毒、細菌、真菌、植物或動物)的形式構成全球性的災難性風險。在許多情況下,該生物體將是人類、牲畜、農作物或我們依賴的其他生物體(例如傳粉媒介或腸道菌群)的病原體。
網路攻擊
網路攻擊有可能破壞從個人數據到電網的所有事物。前瞻性研究所的聯合創始人兼前任總裁克里斯蒂娜·彼得森認為,對電網的網絡攻擊可能會帶來災難性的風險。[17]
環境災難
當前人口過剩,經濟發展和不可持續農業的趨勢可能引發環境或生態災難,例如世界作物歉收和生態系統服務崩潰。
實驗技術事故
尼克·博斯特倫認為,在追求知識時,人類可能會無意中創造出一種可以摧毀地球和太陽系的裝置。[18]核物理和高能物理的研究可能會導致異常情況,並帶來災難性後果。例如,科學家曾經擔心第一次核試驗會點燃大氣。[19][20]其他人擔心,RHIC 或大型強子對撞機可能引發包括黑洞、奇異夸克團或虛假真空狀態的連鎖反應全球災難。這些特殊的關注已被駁回,[21][22][23][24]但總體關注仍然存在。
全球暖化
人为因素造成大气成分改变,造成的气候变化将不同于地球的自然的气候周期,有可能产生无法恢复的灾难。
礦產資源枯竭
由於目前正在開採和使用地球上有限的礦產資源;因此,整個世界經濟正在走向不可避免的未來崩潰,導致人類文明本身的滅亡。[25] :303f生態經濟學家和穩態理論家赫爾曼·戴利(Herman Daly)認為,世界經濟整體將走向不可避免的未來崩潰,從而導致人類文明本身的消亡。通過主張“……我們所能做的就是避免浪費有限的創造能力來支持地球上現在和未來的生活”來提出同樣的論點。[26]:370
戰爭與大規模破壞
人們最常探索的場景是核戰爭和終極武器。錯誤的警報導致發動核攻擊是一種可能的情況。這幾乎發生在1983年蘇聯核警報誤報事件期間。儘管每年發生核戰爭的可能性很小,但從長遠來看,馬丁·赫爾曼教授卻認為這是不可避免的。除非可能性接近零,否則不可避免地會有一天,文明的運氣就會耗盡。[27]在古巴飛彈危機期間,美國總統估計,核戰爭的機率“在三分之二到二分之一之間”。[28]美國和俄羅斯總共擁有14,700枚核武器,[29]估計全世界共有15,700枚核武器。[29]除了核武器之外,對人類的其他軍事威脅包括生物戰(BW)。相比之下,化學戰雖然能夠造成多種局部災難,卻不太可能造成全球性災難。
世界人口與農業危機
由於醫學的發展和農業生產率的大幅度提高,20世紀人口迅速增加。在1950年至1984年之間,隨著綠色革命改變了全球農業,世界穀物產量增長了250%。農業的綠色革命幫助糧食生產跟上了世界人口增長的步伐,或實際上促進了人口增長。綠色革命的能源是通過化石燃料以肥料(天然氣)、農藥(石油)和碳氫化合物灌溉的形式提供的。[30]康奈爾大學生態與農業教授David Pimentel和美國國家食品與營養研究院(INRAN)的高級研究員Mario Giampietro在1994年的《食物、土地、人口和美國經濟》研究中,推算美國可持續經濟的最大人口為2億。該研究稱,為了實現可持續經濟並避免災害,美國必須至少減少三分之一的人口,而世界人口將必須減少三分之二。[31]
小行星撞擊
地球上曾经发生了多次重大的生物灭绝过程,特别是七千万年前的恐龙灭绝(第二大灭绝事件,终结了中生代),被认为起因于一次严重的小行星撞击;而现在占主导的地-月系起源学说也认为月球是来源于一次巨大的星体撞出的地幔碎片重新凝聚而成。因此如果地球遭受类似的撞击,轻者地球表面严重损毁,重者整个地球结构将重组甚至解体。
宇宙威脅
近距离的超新星爆发會產生强大的光辐射和粒子流,因而影響到地球的安全。银河系的超新星爆发并不多,而近距离发生的概率更小。但是,据认为一颗近接地球的超新星引起的伽玛射线暴有可能是造成奥陶纪-志留纪灭绝事件的原因。此外,超新星爆发的位置也与其毁灭范围密切相关,只有发生在天球赤道面附近的超新星才会产生全球性照射,否则会在南极或北极附近出现一个射线轰击的盲区(在天极附近的超新星的盲区可达半个地球)。
外太空除了明亮的恒星,还有大量看不见的游移的褐矮星或木星级别的天体,如果其中一个穿过太阳系会造成巨大的引力扰动,如果它幸运地没引起星球撞击,也有可能造成地球轨道的变更,无论是更接近太阳还是更远离太阳都会引起可怕的气候灾难。由于目前对这种不发光的游星发现困难,因此对其真实数目了解有限。按目前的知识估算,其发生概率微乎其微。
虽然太阳违背数十亿年的规律发生异常喷发或爆炸等情况出现的几率几乎为零(地球历史上未曾发生),但是随着太阳走向衰老,会逐渐变热变大,最终吞噬内轨行星,而在这一过程中,地球将变得酷热难当而不适宜生物生存。十多亿年后就会达到毁灭性的酷热,而吞噬行星将发生于几十亿年后。
當地球自轉的切線速率接近光速時,地球自然被轉開來。然而,地球的自轉呈現減速趨勢[32],這個災難發生的機率非常之微小。
地磁消失或翻转将使地球表面失去磁保护层,直接暴露在太阳粒子辐射的轰击之下。不过这是否会造成如同某些影视作品描述的世界末日仍值得怀疑,因为地球历史上曾经发生过多次地磁翻转,但历史上曾出现的大小灭绝事件的时间与之并不重合。地磁骤变如果要造成毁灭性的破坏还需要与太阳爆发超级耀斑相配合,因此发生的概率极低。
外星人入侵
聰明的外星生命(如果存在的話)可能會入侵地球,[33]以滅絕和取代人類的生命,在殖民體系下奴役人類,竊取地球的資源,或徹底摧毀地球。
儘管從未獲得過外星生命的證據,但卡爾·薩根等科學家推測,存在外星生命的可能性很高。1969年,針對阿波羅計劃造成的生物污染可能性,將《地球外照射法》添加到了美國聯邦法規中。1991年將其刪除。[34]科學家認為這種情況在技術上是可行的,但可能性不大。[35]
全球性瘟疫
在2014年,聯合國暫緩了對於甲型流感、MERS,和SARS的研究。[36]有科學家對這種暫緩提出質疑,認為這種暫緩政策會導致人類在對抗病毒研究上的延誤並造成嚴重後果。(例如:2019-2020嚴重特殊傳染性肺炎疫情。)[37]
自然气候变化
地质历史上的气候变化,曾多次导致寒冷的冰期和全球暖化,有时候还导致海水缺氧或全球干旱,这些气候灾难被认为曾引起五大生物灭绝事件中相对较弱的三次,但比起完全改变地球生物圈的另两次(从古生代到中生代的转折和中生代向新生代的转折),没有造成全球性的毁灭,因此并不一定会造成完全意义上的世界末日。
超级火山爆发
超级火山爆发有可能产生遮蔽全球阳光的效果,造成连续数十年的全球寒冬,全球性粮食绝收。形成西伯利亚暗色岩的火山爆发,是过去50亿年来,已知最大型的火山爆发之一,与二叠纪-三叠纪灭绝事件的时期相符合。该次灭绝事件造成90%的物种消失,是生物史上最严重的灭绝事件,终结了中生代。
參考文獻
- Schulte, P.; et al. . 科学 (期刊). 5 March 2010, 327 (5970): 1214–1218. Bibcode:2010Sci...327.1214S. PMID 20203042. doi:10.1126/science.1177265 (美国英语).
- [[尼克·博斯特罗姆|Nick Bostrom]]. (PDF). Oxford University Press. 2008: 1 [2018-01-22]. (原始内容存档 (PDF)于2019-12-24) (英语).
- . BioScience. 13 November 2017 [2018-01-22]. doi:10.1093/biosci/bix125. (原始内容存档于2017-11-16) (英语).
- Bostrom, Nick. . Journal of Evolution and Technology. March 2002, 9 [2018-01-22]. (原始内容存档于2011-04-27) (美国英语).
- Matheny, Jason Gaverick. (PDF). Risk Analysis. 2007, 27 (5): 1335–1344 [2019-11-05]. PMID 18076500. doi:10.1111/j.1539-6924.2007.00960.x. (原始内容存档 (PDF)于2014-08-27).
- Asher, D.J.; Bailey, M.E.; Emel'yanenko, V.; Napier, W.M. (PDF). The Observatory. 2005, 125: 319–322 [2019-11-05]. Bibcode:2005Obs...125..319A. (原始内容 (PDF)存档于2015-07-25).
- Ambrose 1998 ; Rampino & Ambrose 2000 , pp. 71, 80.
- Rampino, M.R.; Ambrose, S.H. (PDF). Icarus. 2002, 156 (2): 562–569 [2019-11-05]. Bibcode:2002Icar..156..562R. doi:10.1006/icar.2001.6808. (原始内容存档 (PDF)于2015-09-24).
- Global Catastrophic Risks Survey, Technical Report, 2008 (页面存档备份,存于), Future of Humanity Institute
- Global Catastrophic Risks Survey, Technical Report, 2008, Future of Humanity Institute
- . Fox News. 2012-11-26 [2019-11-05]. (原始内容存档于2013-06-16).
- Bostrom, Nick. (PDF). Global Policy. 2013, 4 (1): 15–3 [2019-11-07]. doi:10.1111/1758-5899.12002. (原始内容 (PDF)存档于2014-07-14) –Existential Risk.
- . Existential Risk. Future of Humanity Institute. [26 July 2013]. (原始内容存档于2013-08-31).
- Bill Joy, Why the future doesn't need us (页面存档备份,存于). Wired magazine.
- Nick Bostrom 2002 "Ethical Issues in Advanced Artificial Intelligence" (页面存档备份,存于)
- Rawlinson, Kevin. . BBC News. 2015-01-29 [30 January 2015]. (原始内容存档于2015-01-29).
- UCLA Engineering. . UCLA. June 28, 2017 [June 30, 2017]. (原始内容存档于2017-07-01).
- Bostrom 2002, section 4.8
- Richard Hamming. . The American Mathematical Monthly. 1998, 105 (7): 640–650. JSTOR 2589247. doi:10.1080/00029890.1998.12004938.
- (PDF). [2011-10-19]. (原始内容存档 (PDF)于2020-03-31).
- Konopinski, E. J; Marvin, C.; Teller, Edward. (PDF) (Declassified February 1973) (LA–602). Los Alamos National Laboratory. 1946 [23 November 2008]. (原始内容存档 (PDF)于2020-03-31).
- (PDF). [2019-11-06]. (原始内容存档 (PDF)于2009-10-24).
- . [2008-06-18]. (原始内容存档于2008-05-13).
- J. Blaizot et al., "Study of Potentially Dangerous Events During Heavy-Ion Collisions at the LHC", CERN library record (页面存档备份,存于) CERN Yellow Reports Server (PDF)
- Georgescu-Roegen, Nicholas. (Full book accessible in three parts at Scribd). Cambridge, Massachusetts: Harvard University Press. 1971. ISBN 978-0674257801.
- Daly, Herman E. (编). (PDF contains only the introductory chapter of the book) 2nd. San Francisco: W.H. Freeman and Company. 1980 [2019-11-07]. ISBN 978-0716711780. (原始内容存档 (PDF)于2016-03-05).
- Hellman, Martin. . Houston Post (Houston, Texas: MediaNews Group). April 29, 1985 [2019-11-07]. (原始内容存档于2014-10-20).
- Cohen, Avner; Lee, Steven. . Lanham, Maryland: Rowman & Littlefield. 1986: 237. ISBN 978-0847672585. gYmPp6lZqtMC.
- Federation of American Scientists. . Federation of American Scientists. 28 April 2015 [4 June 2015]. (原始内容存档于2015-06-18).
- . 2009-05-27 [2012-01-31]. (原始内容存档于2009-05-27).
- . EnergyBulletin.net. 2003-10-02 [2012-01-31]. (原始内容存档于2012-02-12).
- Williams, George E. . Reviews of Geophysics. 1 February 2000, 38 (1): 37–59 [2019-01-09]. Bibcode:2000RvGeo..38...37W. ISSN 1944-9208. doi:10.1029/1999RG900016. (原始内容存档于2018-01-22) (英语).
- Twenty ways the world could end suddenly (页面存档备份,存于), Discover Magazine
- Urban Legends Reference Pages: Legal Affairs (E.T. Make Bail)
- Bostrom 2002, section 7.2
- Kaiser, Jocelyn; Malakoff, David. . Science. 17 October 2014 [28 July 2016]. (原始内容存档于2019-01-09).
- Kaiser, Jocelyn. . Science. 22 October 2014 [28 July 2016]. (原始内容存档于2019-01-09).