英国理论物理学家斯蒂芬·霍金本月初提出要警惕人工智能科技的过度发展,防止人工智能科技失控并超越人类智慧,最终破坏整个星球。一时间,有关地球毁灭的推测等相关话题再次被一些媒体炒热。
事实上,这一话题并非只出现在荧幕中或网络上。科学家对毁灭地球的各种可能性都有科学研究与推算。相比一些网路言论的危言耸听,学界用理性思维和数据验证讲述各种可能性和发生率。以下是关于地球灾难七大可能。
全球变暖
几乎所有科学家眼下都承认,温室气体排放正在对地球气候产生负面影响。政府间气候变化问题研究小组几乎肯定地预测出全球变暖的趋势,虽然这并不意味着地球末日,但却会非常现实地影响大批人口。海平面上升、冰川融化,不仅会对人类赖以生存的家园产生毁灭性影响,还会使人类文明、经济、农业等领域产生转折性变化。
可能性:全球变暖几乎是正在发生并且肯定会持续相当长时间的现实。但与其他灾难不同,至少人类有机会去做些什么来阻止这种灾难。
小行星撞地球
太阳系内分散着数以亿计残片碎块,小至鹅卵石大小,大至直径上千公里。客观事实是,这些星体隔三差五就会撞击地球,当然,“三”和“五”可能是几百年、几千年甚至几亿年。恐龙灭绝的原因据信是大约6500万年前,一个星体坠落在墨西哥海岸,在全球范围引发寒冬;而1908年导致俄罗斯西伯利亚数以百计平方公里森林毁灭的通古斯大爆炸,据信也是一个小星体撞击的结果。
可能性:在我们的有生之年,可能性极低,但总有一天会发生。小行星撞击地球并毁灭地球所有生命发生的频率大概是30亿年一次,不过,但凡遭遇一次与毁灭恐龙那次规模相当的小行星撞击事件,人类文明甚至人这一物种都可能被彻底消灭。
人工智能超越人类
按照霍金的说法,人工智能科技在初级发展阶段的确为人类生活带来便利,不过要警惕其过度发展,因为得到充分发展的人工智能或许预示着人类最终被超越。他说,某一天,机器将可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。“短期来看,人工智能产生何种影响取决于谁在控制它。而长期来看,这种影响将取决于我们还能否控制它。”在霍金之前,一些科学家就指出,在数十年后,人类就可能遭遇这种情况。科学界把这种人工智能超越人类智慧的转折点命名为“奇点”。
可能性:不详。但或许某一天,智能化的机器会产生思维,从“人类让它干什么它就干什么”转变为“它自己主动想干什么”。可以乐观推断,即便到了那一天,机器恐怕也不想毁灭它自己也赖以生存的地球。
基因变异疫情暴发
基因变异引发全球疫情并威胁全人类,这种可能性可能是所有威胁中最有可能在短期内发生的情况,因为它最合乎情理。以埃博拉疫情为例,之所以没有在全球范围内传播开,是因为埃博拉病毒的传播能力有限。而一旦这种病毒发生变异,无论是自然变异还是人工变异,都有可能加速病毒传播。如果病毒可以经空气传播,可以潜伏在病体内数周时间并不表现出任何症状,其杀伤力将成倍增加。如果这类病毒被恐怖组织利用,则可导致人类劫难。
可能性:基因变异存在引发疫情全球大流行的可能性。如果有人刻意利用,可能性会成倍增加。
核大战
尽管有相关军备控制条约,现阶段仍有超过1.5万枚核弹头掌握在大约9个国家手中。从理论上讲,这些核弹头可以把地球上的现有人口毁灭多次。即便是小规模核战争,也可能引发大范围破坏。2011年,美国国家航空航天局模拟研究印度与巴基斯坦发生地区核战争对全球的影响,结论显示,如果在南亚引爆一枚爆炸力100倍于广岛“小男孩”原子弹的核弹,将使全球气温下降1.2摄氏度并持续10年。
可能性:无法预测发生核战争的可能性,但一旦发生,其影响力势必超越战争的范围。一旦动用核武器,战争的规模将远远超越战争的边界,并且会对经济、气候、人口等人类文明和地球自然的诸多方面产生绵延多年持续影响。
粒子对撞机撞出黑洞
粒子对撞机灾难理论由德国科学家奥托·勒斯勒尔提出,他认为,虽然粒子对撞实验室的研究对医学等多领域有积极意义,但一旦误操作,可能引发灾难。在理论上,如果用金属粒子以接近光速的速度对撞,可能产生类似黑洞的高密度物质,这种黑洞可以在瞬间吞噬实验室乃至整个地球。
可能性:理论上存在,但实际可能性几乎为零。
被超智慧控制
“模拟理论”是由英国牛津大学人类未来研究院院长、哲学家尼克·博斯特罗姆新近提出的一套学说。这套理论提出,人类到底是生存在一个真实的“现实”中,还是模拟出来的“现实”中?换言之,人类现在的所有意识、行为、活动都处于另一个超人类智慧的控制下。
可能性:不详。依照“模拟理论”,人类可能生存在另一种智慧的控制下,就像是那种智慧正在玩的电脑游戏。如果某一天那种智慧不想玩了,人类也无能为力。
凌朔(新华社供本报特稿)
友情链接 |
国家互联网信息办公室 | 上海静安 | 上海秀群 |