已故的物理學家和作家史蒂芬霍金做出了大膽的預測,一群超人會接管地球,他們利用基因工程來超越現有的人類。
本周二即將出版史蒂芬霍金的一本新書《關於大問題的簡要回答》,《星期日泰晤士報》周日進行了節選發表,霍金毫不客氣地對諸如智能機器接管、地球上最大的威脅、以及太空智能生命的可能性等課題進行了驚人預測。
霍金認為,地球面臨的第一個威脅是小行星撞擊,這個威脅人類無法防禦。第二個威脅是氣候變化,海洋溫度升高,二氧化碳釋放。而霍金認為核聚變是最好的應對方法,可以為我們提供清潔能源,不會導致汙染和全球變暖。
關於基因編輯、超人和地球黯淡的未來,霍金的說法非常大膽:在接下來的一千年中的某個時刻,核戰爭或環境災難將削弱地球,然而到那時,「人類作為獨創性的種族將找到一種方法來消除地球的束縛,並因此生存下來。但是地球的其他物種可能沒法躲避災難」。
「一旦這樣的超人出現,未經改良的人類將面臨重大的問題,現有人類將無法參與競爭。據推測現有人類會死亡,或變得不重要。相反,會有一群自我設計的生物以不斷增長的速度提高自己。如果人類種族設法重新設計自己,人類文明可能會擴散到其他行行星和恆星並且進行殖民」。
霍金的說法引起了軒然大波,這意味著也許一個新的超人種族可能會從選擇編輯DNA的富人中發展出來。文中這樣說,「沒有時間等待達爾文進化論讓我們變地更聰明、更善良。我們現在正進入一個稱為自我設計進化的新階段,我們將能夠改變和改良我們的DNA。我們現在已經繪製了DNA,這意味著我們已經閱讀了「生命之書」,因此我們可以開始編輯更正。」
「起初這些變化將局限於遺傳缺陷的修復 - 例如囊性纖維化和肌營養不良,這些缺陷由單個基因控制,因此相當容易識別和糾正。其他特性,如智力等,可能受到大量基因的控制,找到它們並發現它們彼此之間的關係會更加困難。儘管如此,我相信在本世紀,人們會發現如何改變智商和人性本能(如侵略性,貪婪等)。法律可能會反對人類的基因工程。但是有些人無法抗拒改善人類特質的誘惑,例如記憶力,抗病能力和生命長度。」
關於人工智慧的重要性,霍金同樣發出警告,並指出「未來人工智慧可以發展自己的意志,這種意志與我們人類的意願相衝突。應該停止對自主武器的軍備競賽」,
簡而言之,超級人工智慧的出現將是人類有史以來最好或最壞的事情。人工智慧的真正風險不是惡意,而是能力。超級聰明的AI將非常善於實現其目標,如果這些目標與我們的目標不一致,我們就會陷入困境。人類踩到螞蟻並非出於惡意,但如果你負責一個水電綠色能源項目,那麼蟻丘將會被洪水淹沒,對螞蟻來說太糟糕了。超級人工智慧可能將人類置於那些螞蟻的位置。