輪椅上的斯蒂芬·霍金終于離開了地球,可以和愛因斯坦、牛頓他們一起打打牌了。在過去的二十年里,霍金是明星,除了繼續(xù)探索宇宙理論,他也
輪椅上的斯蒂芬·霍金終于離開了地球,可以和愛因斯坦、牛頓他們一起打打牌了。
在過去的二十年里,霍金是明星,除了繼續(xù)探索宇宙理論,他也出現(xiàn)在各種場(chǎng)合,為所有關(guān)切人類命運(yùn)的主題發(fā)聲。而在他去世前的這幾年中,霍金最關(guān)注的話題就是:離開地球和警惕人工智能。
現(xiàn)在我們就梳理下霍金通過各種渠道談?wù)撨@兩個(gè)話題的言論。
關(guān)于離開地球,早在2011年霍金在接受美國(guó)視頻共享網(wǎng)站BigThink訪談時(shí)就稱地球?qū)⒃趦砂倌陜?nèi)毀滅,人類要想活命只能移民外星球。
2017年11月5日,霍金通過視頻指出了人類移民太空的原因所在:一個(gè)原因是,對(duì)我們來說,地球變得太小了。在過去二百年中,人口增長(zhǎng)率是指數(shù)級(jí)的,即每年人口以相同比例增長(zhǎng)。目前這一數(shù)值約為1.9%。 這聽起來可能不是很多,但它意味著,每四十年世界人口就會(huì)翻一番。 2022年,我將慶祝自己80歲的生日,而在我人生的這段歷程中,世界人口比我出生時(shí)膨脹了四倍。這樣的指數(shù)增長(zhǎng)不能持續(xù)到下個(gè)千年。 到2600年,世界將擁擠得 “摩肩擦踵”,電力消耗將讓地球變成“熾熱”的火球。這是岌岌可危的。然而我是個(gè)樂觀主義者,我相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。
而在2017年7月,霍金就痛批美國(guó)總統(tǒng)特朗普退出氣候問題《巴黎協(xié)定》的決定,可能將導(dǎo)致不可逆轉(zhuǎn)的氣候變化,警告稱此舉或?qū)⒆尩厍蜃兂梢粋€(gè)金星一樣的溫室星球?;艚鹪诮邮蹷BC專訪時(shí)表示,我們正在接近全球變暖不可逆轉(zhuǎn)的臨界點(diǎn),特朗普的決定可能將地球推過這個(gè)臨界點(diǎn),變成像金星一樣的星球,溫度高達(dá)250度,并且下著硫酸雨。
也是在2017年6月播放的紀(jì)錄片《遠(yuǎn)征新地球》(Expedition New Earth)中,霍金說,在未來一百年內(nèi),人類為生存必須離開地球,在太空尋求新家。
離開地球,霍金也不是光嘴皮子嚇唬嚇唬大家,2016年4月12日在紐約宣布啟動(dòng)“突破射星”計(jì)劃,將同俄羅斯商人尤里·米爾納(Yuri Milner),以及美國(guó)社交網(wǎng)站面簿創(chuàng)始人兼總裁扎克伯格(Mark Zuckerberg)合作建造能以五分之一光速飛往比鄰星的微型星際飛船。
除了地球即將面臨的各種風(fēng)險(xiǎn),霍金更關(guān)切人類正在創(chuàng)造一個(gè)毀滅自己的怪物:人工智能(AI)。
2017年3月,霍金在接受英國(guó)《泰晤士報(bào)》采訪時(shí)再次發(fā)出警告,“人類需要控制以人工智能為代表的新興科技,以防止它們?cè)谖磥砜赡軐?duì)人類生存帶來的毀滅性威脅。”他還說,“自從人類文明開始以來,侵略便一直存在,往往出現(xiàn)在相對(duì)具有生存能力優(yōu)勢(shì)的不同群體之間,而未來人工智能進(jìn)一步發(fā)展便可能具備這種‘優(yōu)勢(shì)’”,霍金解釋自己的警告時(shí)說道,“他們本身也是生根于達(dá)爾文的進(jìn)化論之中。因此人類需要利用邏輯和理性去控制未來可能發(fā)生的威脅。”
2016年10月19日,劍橋大學(xué)“萊弗休姆的未來智能中心(LCFI)”正式投入使用?;艚鹪趹c祝典禮上發(fā)表了演講?;艚鹪谘葜v中批評(píng)了人工智能的無節(jié)制發(fā)展,他認(rèn)為,人工智能技術(shù)的確有希望帶來巨大的福利,比如根除疾病和貧困,但是它同樣也可能帶來危險(xiǎn),比如強(qiáng)大的自主式武器,或者幫助少數(shù)人壓迫多數(shù)人。“我們花了大量的時(shí)間來學(xué)習(xí)歷史。”霍金說,“讓我們面對(duì)現(xiàn)實(shí),大部分的歷史是愚蠢的。所以對(duì)于那些學(xué)習(xí)未來智能的人應(yīng)該表示歡迎。” “我們生活的每一個(gè)方面都會(huì)改變??傊?,創(chuàng)造AI的成功可能是我們文明歷史上最大的事件。”霍金說。
2016年1月26日和2月2日在BBC電臺(tái)第四頻道播出霍金瑞思系列演講(Reith Lectures),在演講中他直言,科學(xué)技術(shù)的進(jìn)一步發(fā)展會(huì)惹出更多的新麻煩。同樣在這個(gè)演講中,霍金依舊認(rèn)為科技進(jìn)步是人類的新威脅。他甚至提及若人類最終得以在其他星球建立家園,或許還能幸存下來。
“盡管地球在某一年遭受滅頂之災(zāi)的可能性很低,但隨著時(shí)間的推移,在未來幾千或幾萬年,這會(huì)是可以預(yù)見的事情。那時(shí),我們應(yīng)該已經(jīng)進(jìn)入太空、住到其他星球上。所以地球上的毀滅并不意味著人類的終結(jié)。”“然而,至少在未來數(shù)百年里我們還無法在太空世界建起人類的地盤。所以我們現(xiàn)在必須非常小心。”
2015年,霍金曾聯(lián)合思想家喬姆斯基馬斯克等數(shù)千名知識(shí)分子發(fā)表聯(lián)名公開信中警告:必須取締“機(jī)器人殺手”的研發(fā)和應(yīng)用,人工智能方面的軍備競(jìng)賽可能是人類的災(zāi)難,它將助長(zhǎng)戰(zhàn)爭(zhēng)和恐怖主義,加劇世界動(dòng)蕩局勢(shì)。
這封公開信由未來生活研究所(Future of Life Institute)發(fā)起,這個(gè)團(tuán)體致力于緩解“人類面臨的生存風(fēng)險(xiǎn)”,警告人們啟動(dòng)“人工智能軍備競(jìng)賽”的危險(xiǎn)。公開信中談到“人工智能技術(shù)已經(jīng)達(dá)到了這樣一個(gè)地步:如果沒有法律限制,那么這種系統(tǒng)的部署在未來幾年中就可以實(shí)現(xiàn),并不需要等待幾十年。”
而早在2014年12月,霍金接受英國(guó)廣播公司(BBC)采訪時(shí)就明確表示:“制造能夠思考的機(jī)器無疑是對(duì)人類自身存在的巨大威脅。當(dāng)人工智能發(fā)展完全,就將是人類的末日。”
霍金也許對(duì)人類和科技的未來是悲觀的,他并不信任人類真的能控制科技這個(gè)怪物,但令人諷刺的是,一旦人類用科技?xì)У袅诉@個(gè)星球,他所能仰賴的也只有科技能幫這個(gè)種族在外星球繼續(xù)繁衍。
讓我們別忘記霍金的預(yù)言和警告。