霍金:人工智慧可能是人類文明的終結者

2021-02-25 澎湃新聞

澎湃新聞記者 王心馨 綜合報導

4月27日,著名物理學家史蒂芬·霍金在北京舉辦的全球移動網際網路大會上做了視頻演講。


視頻來源:網絡 (27:20)

在演講中,霍金重申人工智慧崛起要麼是人類最好的事情,要麼就是最糟糕的事情。他認為,人類需警惕人工智慧發展威脅。因為人工智慧一旦脫離束縛,以不斷加速的狀態重新設計自身,人類由於受到漫長的生物進化的限制,將無法與之競爭,從而被取代。


以下為霍金演講內容:


在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智慧的崛起。簡單來說,我認為強大的人工智慧的崛起,要麼是人類歷史上最好的事,要麼是最糟的。我不得不說,是好是壞我們仍不確定。但我們應該竭盡所能,確保其未來發展對我們和我們的環境有利。我們別無選擇。我認為人工智慧的發展,本身是一種存在著問題的趨勢,而這些問題必須在現在和將來得到解決。


人工智慧的研究與開發正在迅速推進。也許我們所有人都應該暫停片刻,把我們的研究重複從提升人工智慧能力轉移到最大化人工智慧的社會效益上面。基於這樣的考慮,美國人工智慧協會(AAAI)於 2008至2009年,成立了人工智慧長期未來總籌論壇,他們近期在目的導向的中性技術上投入了大量的關注。但我們的人工智慧系統須要按照我們的意志工作。跨學科研究是一種可能的前進道路:從經濟、法律、哲學延伸至計算機安全、形式化方法,當然還有人工智慧本身的各個分支。


文明所提產生的一切都是人類智能的產物,我相信生物大腦可以達到的和計算機可以達到的,沒有本質區別。因此,它遵循了「計算機在理論上可以模仿人類智能,然後超越」這一原則。但我們並不確定,所以我們無法知道我們將無限地得到人工智慧的幫助,還是被藐視並被邊緣化,或者很可能被它毀滅。的確,我們擔心聰明的機器將能夠代替人類正在從事的工作,並迅速地消滅數以百萬計的工作崗位。


在人工智慧從原始形態不斷發展,並被證明非常有用的同時,我也在擔憂創造一個可以等同或超越人類的事物所導致的結果:人工智慧一旦脫離束縛,以不斷加速的狀態重新設計自身。人類由於受到漫長的生物進化的限制,無法與之競爭,將被取代。這將給我們的經濟帶來極大的破壞。未來,人工智慧可以發展出自我意志,一個與我們衝突的意志。儘管我對人類一貫持有樂觀的態度,但其他人認為,人類可以在相當長的時間裡控制技術的發展,這樣我們就能看到人工智慧可以解決世界上大部分問題的潛力。但我並不確定。


在人工智慧從原始形態不斷發展,並被證明非常有用的同時,我也在擔憂創造一個可以等同或超越人類的事物所導致的結果:人工智慧一旦脫離束縛,以不斷加速的狀態重新設計自身。人類由於受到漫長的生物進化的限制,無法與之競爭,將被取代。這將給我們的經濟帶來極大的破壞。未來,人工智慧可以發展出自我意志,一個與我們衝突的意志。儘管我對人類一貫持有樂觀的態度,但其他人認為,人類可以在相當長的時間裡控制技術的發展,這樣我們就能看到人工智慧可以解決世界上大部分問題的潛力。但我並不確定。


2015 年 1 月份,我和科技企業家埃隆·馬斯克,以及許多其他的人工智慧專家籤署了一份關於人工智慧的公開信,目的是提倡就人工智慧對社會所造成的影響做認真的調研。在這之前,埃隆·馬斯克就警告過人們:超人類人工智慧可能帶來不可估量的利益,但是如果部署不當,則可能給人類帶來相反的效果。

我和他同在「生命未來研究所」的科學顧問委員會,這是一個為了緩解人類所面臨的存在風險的組織,而且之前提到的公開信也是由這個組織起草的。這個公開信號召展開可以阻止潛在問題的直接研究,同時也收穫人工智慧帶給我們的潛在利益,同時致力於讓人工智慧的研發人員更關注人工智慧安全。此外,對於決策者和普通大眾來說,這封公開信內容翔實,並非危言聳聽。人人都知道人工智慧研究人員們在認真思索這些擔心和倫理問題,我們認為這一點非常重要。比如,人工智慧是有根除疾患和貧困的潛力的,但是研究人員必須能夠創造出可控的人工智慧。那封只有四段文字,題目為《應優先研究強大而有益的人工智慧》的公開信,在其附帶的十二頁文件中對研究的優先次序作了詳細的安排。


在過去的20年裡,人工智慧一直專注於圍繞建設智能代理所產生的問題,也就是在特定環境下可以感知並行動的各種系統。在這種情況下,智能是一個與統計學和經濟學相關的理性概念。通俗地講,這是一種做出好的決定、計劃和推論的能力。基於這些工作,大量的整合和交叉孕育被應用在人工智慧、機器學習、統計學、控制論、神經科學、以及其它領域。共享理論框架的建立,結合數據的供應和處理能力,在各種細分的領域取得了顯著的成功。例如語音識別、圖像分類、自動駕駛、機器翻譯、步態運動和問答系統。


隨著這些領域的發展,從實驗室研究到有經濟價值的技術形成良性循環。哪怕很小的性能改進,都會帶來巨大的經濟效益,進而鼓勵更長期、更偉大的投入和研究。目前人們廣泛認同,人工智慧的研究正在穩步發展,而它對社會的影響很可能擴大,潛在的好處是巨大的,既然文明所產生的一切,都是人類智能的產物;我們無法預測我們可能取得什麼成果,當這種智能是被人工智慧工具放大過的。但是,正如我說過的,根除疾病和貧窮並不是完全不可能,由於人工智慧的巨大潛力,研究如何(從人工智慧)獲益並規避風險是非常重要的。


現在,關於人工智慧的研究正在迅速發展。這一研究可以從短期和長期來討論。一些短期的擔憂在無人駕駛方面,從民用無人機到自主駕駛汽車。比如說,在緊急情況下,一輛無人駕駛汽車不得不在小風險的大事故和大概率的小事故之間進行選擇。另一個擔憂在致命性智能自主武器。他們是否該被禁止?如果是,那麼「自主」該如何精確定義。如果不是,任何使用不當和故障的過失應該如何問責。還有另外一些擔憂,由人工智慧逐漸可以解讀大量監控數據引起的隱私和擔憂,以及如何管理因人工智慧取代工作崗位帶來的經濟影響。

長期擔憂主要是人工智慧系統失控的潛在風險,隨著不遵循人類意願行事的超級智能的崛起,那個強大的系統威脅到人類。這樣錯位的結果是否有可能?如果是,這些情況是如何出現的?我們應該投入什麼樣的研究,以便更好的理解和解決危險的超級智能崛起的可能性,或智能爆發的出現?


當前控制人工智慧技術的工具,例如強化學習,簡單實用的功能,還不足以解決這個問題。因此,我們需要進一步研究來找到和確認一個可靠的解決辦法來掌控這一問題。


近來的裡程碑,比如說之前提到的自主駕駛汽車,以及人工智慧贏得圍棋比賽,都是未來趨勢的跡象。巨大的投入傾注到這項科技。我們目前所取得的成就,和未來幾十年後可能取得的成就相比,必然相形見絀。而且我們遠不能預測我們能取得什麼成就,當我們的頭腦被人工智慧放大以後。也許在這種新技術革命的輔助下,我們可以解決一些工業化對自然界造成的損害。關乎到我們生活的各個方面都即將被改變。簡而言之,人工智慧的成功有可能是人類文明史上最大的事件。


但是人工智慧也有可能是人類文明史的終結,除非我們學會如何避免危險。我曾經說過,人工智慧的全方位發展可能招致人類的滅亡,比如最大化使用智能性自主武器。今年早些時候,我和一些來自世界各國的科學家共同在聯合國會議上支持其對於核武器的禁令。我們正在焦急的等待協商結果。目前,九個核大國可以控制大約一萬四千個核武器,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積汙染農田,最可怕的危害是誘發核冬天,火和煙霧會導致全球的小冰河期。這一結果使全球糧食體系崩塌,末日般動蕩,很可能導致大部分人死亡。我們作為科學家,對核武器承擔著特殊的責任,因為正是科學家發明了它們,並發現它們的影響比最初預想的更加可怕。


現階段,我對災難的探討可能驚嚇到了在座的各位。很抱歉。但是作為今天的與會者,重要的是,你們要認清自己在影響當前技術的未來研發中的位置。我相信我們團結在一起,來呼籲國際條約的支持或者籤署呈交給各國政府的公開信,科技領袖和科學家正極盡所能避免不可控的人工智慧的崛起。


去年10月,我在英國劍橋建立了一個新的機構,試圖解決一些在人工智慧研究快速發展中出現的尚無定論的問題。「利弗休姆智能未來中心」是一個跨學科研究所,致力於研究智能的未來,這對我們文明和物種的未來至關重要。我們花費大量時間學習歷史,深入去看——大多數是關於愚蠢的歷史。所以人們轉而研究智能的未來是令人欣喜的變化。雖然我們對潛在危險有所意識,但我內心仍秉持樂觀態度,我相信創造智能的潛在收益是巨大的。也許藉助這項新技術革命的工具,我們將可以削減工業化對自然界造成的傷害。


我們生活的每一個方面都會被改變。我在研究所的同事休·普林斯承認,「利弗休姆中心」能建立,部分是因為大學成立了「存在風險中心」。後者更加廣泛地審視了人類潛在問題,「利弗休姆中心」的重點研究範圍則相對狹窄。


人工智慧的最新進展,包括歐洲議會呼籲起草一系列法規,以管理機器人和人工智慧的創新。令人感到些許驚訝的是,這裡面涉及到了一種形式的電子人格,以確保最有能力和最先進的人工智慧的權利和責任。歐洲議會發言人評論說,隨著日常生活中越來越多的領域日益受到機器人的影響,我們需要確保機器人無論現在還是將來,都為人類而服務。向歐洲議會議員提交的報告,明確認為世界正處於新的工業機器人革命的前沿。報告中分析的是否給機器人提供作為電子人的權利,這等同於法人(的身份),也許有可能。報告強調,在任何時候,研究和設計人員都應確保每一個機器人設計都包含有終止開關。

在庫布裡克的電影《2001太空漫遊》中,出故障的超級電腦哈爾沒有讓科學家們進入太空艙,但那是科幻。我們要面對的則是事實。奧斯本·克拉克跨國律師事務所的合伙人,洛納·布拉澤爾在報告中說,我們不承認鯨魚和大猩猩有人格,所以也沒有必要急於接受一個機器人人格。但是擔憂一直存在。報告承認在幾十年的時間內,人工智慧可能會超越人類智力範圍,人工智慧可能會超越人類智力範圍,進而挑戰人機關係。報告最後呼籲成立歐洲機器人和人工智慧機構,以提供技術、倫理和監管方面的專業知識。如果歐洲議會議員投票贊成立法,該報告將提交給歐盟委員會。它將在三個月的時間內決定要採取哪些立法步驟。


我們還應該扮演一個角色,確保下一代不僅僅有機會還要有決心,在早期階段充分參與科學研究,以便他們繼續發揮潛力,幫助人類創造一個更加美好的的世界。這就是我剛談到學習和教育的重要性時,所要表達的意思。我們需要跳出「事情應該如何」這樣的理論探討,並且採取行動,以確保他們有機會參與進來。我們站在一個美麗新世界的入口。這是一個令人興奮的、同時充滿了不確定性的世界,而你們是先行者。我祝福你們。

本期編輯 彭煒軒

相關焦點

  • 霍金留給人類的三大警告,其中一個與日本有關,比外星人還可怕!
    霍金的逝世對於世界科學界,人類世界都是一個損失,霍金畢業於牛津大學,從小便展現出與眾不同的聰明和想像力,從事科學研究之後更是常常語出驚人,提出遠超人類目前認知的理論和預言,其所著的《時間簡史》在世界上廣為流傳。霍金去世前留下三個警告值得人們的深省和注意。一、 徹底開發人工智慧可能會導致人類毀滅。
  • 人類永遠不會走進《終結者》裡的末世
    在很多人看來,「矩陣」就是人工智慧的象徵 /《黑客帝國》幾十過去了,科幻電影仍然迷戀著這樣的主題:人類創造出的人工智慧,成了人類最大的敵人。正在熱映的《終結者:黑暗命運》,講述的也是這麼熟悉的故事:全新進化的液態金屬終結者負責追殺幾個關鍵人物,人類只有戰勝了人工智慧,才能有未來。
  • 霍金對話中國大咖:人工智慧失控可能導致人類滅亡
    跨學科研究是一種可能的前進道路:從經濟、法律、哲學延伸至計算機安全、形式化方法,當然還有人工智慧本身的各個分支。文明所提產生的一切都是人類智能的產物,我相信生物大腦可以達到的和計算機可以達到的,沒有本質區別。因此,它遵循了「計算機在理論上可以模仿人類智能,然後超越」這一原則。
  • 霍金:AI 或許能根除疾病和貧窮,但也可能摧毀人類
    跨學科研究是一種可能的前進道路:從經濟、法律、哲學延伸至計算機安全、形式化方法,當然還有人工智慧本身的各個分支。潛在的威脅:計算機智能與我們沒有本質區別文明所提產生的一切都是人類智能的產物,我相信生物大腦可以達到的和計算機可以達到的,沒有本質區別。因此,它遵循了 「計算機在理論上可以模仿人類智能,然後超越」 這一原則。
  • 霍金認為人工智慧可能終結人類文明,其他科學家怎麼看?
    終其一生,他除了致力於宇宙論和黑洞研究,也出現在各種場合,為所有關切人類命運的主題發聲。而在他去世前的幾年,霍金最關注的話題之一便是:警惕人工智慧。在他逝世的日子,我們分享一篇德國作者彼得·格拉澤最新撰寫的關於人工智慧的文章《給出答案的那位:關於人類與機器之間不可逾越的界限》,以期將對於人類命運的探討繼續進行下去。
  • 霍金再次警告,人工智慧可能終結人類文明,我們無法抗爭竟因為這個
    ·威廉·霍金在移動領袖峰會上發表了題為《讓人工智慧造福人類極其賴以生存的家園》。霍金指出人工智慧的成功必然會載入人類文明發展的史冊中,但是它也有可能會對人類文明發展造成傷害。 人工智慧具有消除貧窮和疾病的潛力,但在研究中應該警惕如何規避超級智能會帶來的風險。 過去十幾年裡,在語音識別、機器翻譯、圖像識別、問答系統等領域取得了重大發展。
  • 霍金超級人類預言:貧窮的普通人將被淘汰......
    報導稱,儘管這類方法可能促進醫學發展,但是一些批評者擔心它也可能導致優生學式的運動,弱勢者將被社會淘汰。人工智慧:別讓人類陷入「螞蟻窘境」報導稱,霍金對規範管理人工智慧的重要性提出了嚴重警告,指出「未來人工智慧可能形成自己的意志,與我們人類相衝突的意志」。
  • 霍金去世前的警告,這件武器可能會毀滅人類,並已滲入我們的生活
    2018年3月14日,科學巨匠霍金永遠離開了人世,霍金史蒂芬·霍金是英國著名的天文物理學家和宇宙學家。
  • 霍金曾多次警告人類會遭滅頂之災,預言到底準不準
    智能機器是真正人類「終結者」:雖然人工智慧的發展,確實是會促進人類社會的發展,甚至能夠解決很多以前沒法解決的問題,但是霍先生認為如果人工智慧的發展不受控制,那就可能會帶給我們人類一些威脅。霍先生認為未來的機器人可能會獲得重新設計自己的能量,而它們的速度可能會非常快,相比之下,我們人類進化的速度是沒法與之相比擬的,所以霍先生擔心未來人工智慧可能會超越人類,進而取代我們。
  • 霍金:閃耀星辰隕落,卻早已為人類寫下結局?|艾問人物
    預見未來之「人工智慧終結者」當人們在熱烈地追逐著人工智慧技術的時候,他認為這一研究可以從短期和長期來討論。短期,會引起三個問題。第一,是無人駕駛,緊急情況下,一輛無人駕駛汽車不得不做出一個選擇,要麼選小概率的大事故,要麼選大概率的小事故。導致故障和過失該如何問責?
  • 霍金給人類留下三個警告,其中一個與日本有關,比外星人可怕!
    霍金一生,充滿了科學家的睿智和想像力,常常語不驚人死不休。他一生給全人類留下了三個警告:第一:「徹底開發人工智慧可能導致人類滅亡」。當前,人工智慧科技的確會為人類生活帶來便利,也是科技發展的必經之路,然而,有一個很大的隱患,就是機器將不斷加快速度重新設計自己,而人類則因為肉體和智能的束縛,無法進化,最終為導致人類被人工智慧機器人取代,霍金把這種人工智慧超越人類智慧的轉折點命名為「奇點」。2003年美國科幻電影《機器人戰爭:人類末日》便描述了這一場景。
  • 人工智慧會取代人類嗎?終結者中的AI統治地球會成為現實嗎?
    自1956年,「人工智慧(Artificial Intelligence,縮寫為AI)」一詞首次在達特茅斯會議上被提出後,它便一發不可收拾的成為人類一直研究的重大課題,同時也成為眾多科幻作品熱衷的話題。勤奮的科學家們一直致力於讓人工智慧可以分擔人工簡單、重複性勞作,從而可以讓人類過得更舒適,不僅是在辦公效率與體驗,日常生活上也可以得到諸多便利。
  • 霍金留給人類的最後警告:新書預言超級智能和超人會降臨
    人們很容易把高度智能機器的概念當作科幻小說來看待,但這將是一個錯誤,而且可能是我們有史以來犯的最嚴重的錯誤。霍金認為,當AI在人工智慧設計領域變得比人類更優秀,以至於它可以在沒有人類幫助的情況下遞歸地自我改進時,我們可能會面臨一場智能爆炸,最終導致機器的智能遠遠超出我們。
  • 霍金擔憂未來出現「超級人類」,引發人類危機?
    據英國媒體報導,霍金的遺作中表現出對人類發展的一些擔憂,他認為未來人類中可能有部分人利用基因技術,對自己的身體進行改造,成為少生病、長壽命、智力高的類型,相比一般人,這種人就可以成為「超級人類」。問題是這樣的改造技術不是所有人都可以承受的,最起碼得有錢。
  • ...月球建立基地、人工智慧可能毀了人類…歷數霍金那些「仰望星空...
    宇宙起源2006年霍金曾表示,愛因斯坦的廣義相對論無法解釋宇宙如何由大爆炸形成,如果把廣義相對論和量子論相結合,就有可能解釋宇宙是如何起始的,「這是回答我們為何在此,我們從何而來的宇宙學核心問題」。他和物理學家羅傑彭羅斯一起證明了奇點定理,認為宇宙起源於一個時間和空間消失、物質密度無限大的奇點。在霍金想像中,宇宙起源有點像沸騰水中的「泡泡」。
  • Master可能會成為消滅人類的「魔鬼終結者」
    面對AI的挑戰,是棋手的噩夢還是人類的噩夢Master在過去一周成了所有圍棋手的噩夢,它一路攻城掠地,銳不可當,讓「守住人類棋手最後的尊嚴」的屏障,輕易地被攻陷了,人類數千年的實戰演練進化,卻在人工智慧面前顯得不堪一擊。這不僅引起了棋壇的震動和人們的高度關注,同時也印證了霍金的預言是正確的。
  • 人工智慧自己寫出一篇文章:我不想消滅人類,霍金擔憂或許是對的
    人工智慧被人類開發出來是為了方便我們人類的生活,幫助人類處理一些事物,它的優點在於其擁有龐大的資料庫,可以在網上調取大量的資源為其所用,運算能力快,能夠在短時間內完成一個人很長時間的工作量。人工智慧目前現在已經走進了千家萬戶,例如智能家居,物聯網。在我們手機裡也能看見它的蹤影,它可以捕捉我們的生活習慣、活動軌跡,為我們智能的推送一些相關的服務。
  • AI機器人突然自己寫出一篇文章:我不想消滅人類,霍金的擔憂或將成真?
    人工智慧被人類開發出來是為了方便我們人類的生活,幫助人類處理一些事物,它的優點在於其擁有龐大的資料庫,可以在網上調取大量的資源為其所用,運算能力快,能夠在短時間內完成一個人很長時間的工作量。人工智慧目前現在已經走進了千家萬戶,例如智能家居,物聯網。在我們手機裡也能看見它的蹤影,它可以捕捉我們的生活習慣、活動軌跡,為我們智能的推送一些相關的服務。
  • 76歲的英國物理學家霍金去世 霍金對人類的貢獻以及他的生命意義論
    霍金通過視頻指出了人類移民太空的原因所在:一個原因是,對我們來說,地球變得太小了。在過去二百年中,人口增長率是指數級的,即每年人口以相同比例增長。目前這一數值約為1.9%。 這聽起來可能不是很多,但它意味著,每四十年世界人口就會翻一番。 「到2600年,世界將擁擠得摩肩擦踵,電力消耗將讓地球變成熾熱的火球。這是岌岌可危的。
  • 特斯拉CEO馬斯克:人工智慧可能 5 年內超越人類,人類的生存就要受到威脅
    早在2016年,特斯拉公司創始人馬斯克就曾說過:人類最大的威脅是人工智慧。霍金教授也曾經在一次專訪中提到,「人工智慧會在未來很大可能在人類中成長,並成為新物種。」這句話言外之意便是「取代」細思極恐。當地時間7月29日,據美國媒體CNBC報導,特斯拉執行長(CEO)埃隆·馬斯克(Elon Musk)近日在接受紐約時報採訪時表示,谷歌旗下人工智慧公司Deep MInd所構建的人工智慧的本質就是在所有遊戲中都戰勝全部人類。DeepMind成立於2010年9月,馬斯克是其首批投資人。