霍金:人工智慧或終結人類文明,但讓人類滅絕的,遠不止它

2021-01-19 正和島

4月27日,GMIC 2017北京大會拉開帷幕,英國劍橋大學著名物理學家史蒂芬·威廉·霍金遠程發表了主題演講。演講中,霍金仍保持了其對人工智慧一貫的謹慎性,提醒AI科研者們在利用AI造福人類的同時,還需注意消除可能的威脅。


口  述 | 霍金

來  源 | 雷鋒網



在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智慧的崛起。簡單來說,我認為強大的人工智慧的崛起,要麼是人類歷史上最好的事,要麼是最糟的。我不得不說,是好是壞我們仍不確定。但我們應該竭盡所能,確保其未來發展對我們和我們的環境有利。我們別無選擇。我認為人工智慧的發展,本身是一種存在著問題的趨勢,而這些問題必須在現在和將來得到解決。


人工智慧的研究與開發正在迅速推進。也許我們所有人都應該暫停片刻,把我們的研究重複從提升人工智慧的能力轉移到最大化人工智慧的社會效益上面。


基於這樣的考慮,美國人工智慧協會(AAAI)於2008至2009年成立了人工智慧長期未來總籌論壇,他們近期在目的導向的中性技術上投入了大量的關注。但我們的人工智慧系統須要按照我們的意志工作。跨學科研究是一種可能的前進道路:從經濟、法律、哲學延伸至計算機安全、形式化方法,當然還有人工智慧本身的各個分支。


潛在的威脅:計算機智能與我們沒有本質區別


文明所提產生的一切都是人類智能的產物,我相信生物大腦可以達到的和計算機可以達到的,沒有本質區別。因此,它遵循了「計算機在理論上可以模仿人類智能,然後超越」這一原則。但我們並不確定,所以我們無法知道我們將無限地得到人工智慧的幫助,還是被藐視並被邊緣化,或者很可能被它毀滅。的確,我們擔心聰明的機器將能夠代替人類正在從事的工作,並迅速地消滅數以百萬計的工作崗位。


在人工智慧從原始形態不斷發展,並被證明非常有用的同時,我也在擔憂創造一個可以等同或超越人類的事物所導致的結果:人工智慧一旦脫離束縛,以不斷加速的狀態重新設計自身,人類由於受到漫長的生物進化的限制,無法與之競爭,將被取代。這將給我們的經濟帶來極大的破壞。


未來,人工智慧可以發展出自我意志,一個與我們衝突的意志。儘管我對人類一貫持有樂觀的態度,但其他人認為,人類可以在相當長的時間裡控制技術的發展,這樣我們就能看到人工智慧可以解決世界上大部分問題的潛力。但我並不確定。


2015年1月份,我和科技企業家埃隆·馬斯克,以及許多其他的人工智慧專家籤署了一份關於人工智慧的公開信,目的是提倡就人工智慧對社會所造成的影響做認真的調研。在這之前,埃隆·馬斯克就警告過人們:超人類人工智慧可能帶來不可估量的利益,但是如果部署不當,則可能給人類帶來相反的效果。我和他同在「生命未來研究所(Future of Life Institute)」的科學顧問委員會。


這是一個為了緩解人類所面臨的存在風險而設立的組織,而且之前提到的公開信也是由這個組織起草的。這個公開信號召大家展開可以阻止潛在問題的直接研究,同時也收穫人工智慧帶給我們的潛在利益,並致力於讓人工智慧的研發人員更關注人工智慧安全。此外,對於決策者和普通大眾來說,這封公開信內容翔實,並非危言聳聽。


人人都知道人工智慧研究人員們在認真思索這些擔心和倫理問題,我們認為這一點非常重要。比如,人工智慧是有根除疾患和貧困的潛力的,但是研究人員必須能夠創造出可控的人工智慧。那封只有四段文字,題目為《應優先研究強大而有益的人工智慧》(「Research Priorities for Robust and Beneficial Artificial Intelligence」)的公開信,在其附帶的十二頁文件中對研究的優先次序作了詳細的安排。


如何從人工智慧中獲益並規避風險


在過去的20年裡,人工智慧一直專注於圍繞建設智能代理所產生的問題,也就是在特定環境下可以感知並行動的各種系統。在這種情況下,智能是一個與統計學和經濟學相關的理性概念。通俗地講,這是一種做出好的決定、計劃和推論的能力。


基於這些工作,大量的整合和交叉被應用在人工智慧、機器學習、統計學、控制論、神經科學、以及其它領域。共享理論框架的建立,結合數據的供應和處理能力,在各種細分的領域取得了顯著的成功,例如語音識別、圖像分類、自動駕駛、機器翻譯、步態運動和問答系統。


隨著這些領域的發展,從實驗室研究到有經濟價值的技術形成良性循環。哪怕很小的性能改進,都會帶來巨大的經濟效益,進而鼓勵更長期、更偉大的投入和研究。


目前人們廣泛認同,人工智慧的研究正在穩步發展,而它對社會的影響很可能擴大,潛在的好處是巨大的,既然文明所產生的一切,都是人類智能的產物。由於這種智能是被人工智慧工具放大過的,我們無法預測我們可能取得什麼成果。但是,正如我說過的那樣,根除疾病和貧窮並不是完全不可能,由於人工智慧的巨大潛力,研究如何(從人工智慧中)獲益並規避風險是非常重要的。


現在,關於人工智慧的研究正在迅速發展,這一研究可以從短期和長期兩個方面來討論。


短期的擔憂主要集中在無人駕駛方面,包括民用無人機、自動駕駛汽車等。比如說,在緊急情況下,一輛無人駕駛汽車不得不在小概率的大事故和大概率的小事故之間進行選擇。另一個擔憂則是致命性的智能自主武器。他們是否該被禁止?如果是,那麼「自主」該如何精確定義;如果不是,任何使用不當和故障的過失應該如何問責。此外還有一些隱憂,包括人工智慧逐漸可以解讀大量監控數據引起的隱私問題,以及如何掌控因人工智慧取代工作崗位帶來的經濟影響。


長期擔憂主要是人工智慧系統失控的潛在風險。隨著不遵循人類意願行事的超級智能的崛起,那個強大的系統會威脅到人類。這樣的結果是否有可能?如果有可能,那麼這些情況是如何出現的?我們又應該怎樣去研究,以便更好地理解和解決危險的超級智能崛起的可能性?


當前控制人工智慧技術的工具(例如強化學習)以及簡單實用的功能,還不足以解決這個問題。因此,我們需要進一步研究來找到和確認一個可靠的解決辦法來掌控這一問題。


近來(人工智慧領域的)裡程碑,比如說之前提到的自動駕駛汽車,以及人工智慧贏得圍棋比賽,都是未來趨勢的跡象。巨大的投入正在傾注到這一領域。我們目前所取得的成就,和未來幾十年後可能取得的成就相比,必然相形見絀。而且當我們的頭腦被人工智慧放大以後,我們更不能預測我們能取得什麼成就。


也許在這種新技術革命的輔助下,我們可以解決一些工業化對自然界造成的損害問題,關乎到我們生活的各個方面也即將被改變。簡而言之,人工智慧的成功有可能是人類文明史上最大的事件。但是人工智慧也有可能是人類文明史的終結,除非我們學會如何避免危險。


我曾經說過,人工智慧的全方位發展可能招致人類的滅亡,比如最大化使用智能性自主武器。今年早些時候,我和一些來自世界各國的科學家共同在聯合國會議上支持其對於核武器的禁令,我們正在焦急地等待協商結果。


目前,九個核大國可以控制大約一萬四千個核武器,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積汙染農田,而最可怕的危害是誘發核冬天,火和煙霧會導致全球的小冰河期。這一結果將使全球糧食體系崩塌,末日般動蕩,很可能導致大部分人死亡。我們作為科學家,對核武器承擔著特殊的責任,因為正是科學家發明了它們,並發現它們的影響比最初預想的更加可怕。


現階段,我對災難的探討可能驚嚇到了在座的各位,很抱歉。但是作為今天的與會者,重要的是,你們要認清自己在影響當前技術的未來研發中的位置。我相信我們會團結在一起,共同呼籲國際條約的支持或者籤署呈交給各國政府的公開信,科技領袖和科學家正極盡所能避免不可控的人工智慧的崛起。


去年10月,我在英國劍橋建立了一個新的機構,試圖解決一些在人工智慧研究快速發展中出現的尚無定論的問題。


「利弗休姆智能未來中心(The Leverhulme Centre for the Future of Intelligence)」是一個跨學科研究所,致力於研究智能的未來,這對我們文明和物種的未來至關重要。


我們花費大量時間學習歷史,深入去看,大多數是關於愚蠢的歷史,所以人們轉而研究智能的未來是令人欣喜的變化。雖然我們對潛在危險有所意識,但我內心仍秉持樂觀態度,我相信創造智能的潛在收益是巨大的。也許藉助這項新技術革命的工具,我們將可以削減工業化對自然界造成的傷害。


確保機器人為人類服務


我們生活的每一個方面都會被改變。我在研究所的同事休·普林斯(Huw Price)承認,「利弗休姆中心」能建立,部分是因為大學成立了「存在風險中心(Centre for Existential Risk)」。後者更加廣泛地審視了人類潛在問題,「利弗休姆中心」的重點研究範圍則相對狹窄。


人工智慧的最新進展,包括歐洲議會呼籲起草一系列法規,以管理機器人和人工智慧的創新。令人感到些許驚訝的是,這裡面涉及到了一種形式的電子人格,以確保最有能力和最先進的人工智慧的權利和責任。


歐洲議會發言人評論說,隨著日常生活中越來越多的領域日益受到機器人的影響,我們需要確保機器人無論現在還是將來,都為人類而服務。


一份向歐洲議會議員提交的報告明確認為,世界正處於新的工業機器人革命的前沿。報告分析了是否給機器人提供作為電子人的權利,這等同於法人(的身份)。報告強調,在任何時候,研究和設計人員都應確保每一個機器人設計都包含有終止開關。


在庫布裡克的電影《2001太空漫遊》中,出故障的超級電腦哈爾沒有讓科學家們進入太空艙,但那是科幻,我們要面對的則是事實。奧斯本·克拉克(Space Odyssey)跨國律師事務所的合伙人——洛納·布拉澤爾(Lorna Brazell)在報告中說,我們不承認鯨魚和大猩猩有人格,所以也沒有必要急於接受一個機器人人格,但是擔憂一直存在。報告承認在幾十年的時間內,人工智慧可能會超越人類智力範圍,進而挑戰人機關係。報告最後呼籲成立歐洲機器人和人工智慧機構,以提供技術、倫理和監管方面的專業知識。如果歐洲議會議員投票贊成立法,該報告將提交給歐盟委員會,它將在三個月的時間內決定要採取哪些立法步驟。


我們還應該扮演一個角色,確保下一代不僅僅有機會還要有決心,能夠在早期階段充分參與科學研究,以便他們繼續發揮潛力,並幫助人類創造一個更加美好的的世界。這就是我剛談到學習和教育的重要性時所要表達的意思。


我們需要跳出「事情應該如何(how things should be)」這樣的理論探討,並且採取行動,以確保他們有機會參與進來。我們站在一個美麗新世界的入口,這是一個令人興奮的、同時充滿了不確定性的世界,而你們是先行者,我祝福你們。謝謝!

創新工場的CEO李開復:網際網路巨頭擁有巨量的數據,而這些數據會給他們各種以用戶隱私和利益換取暴利的機會。在巨大的利益誘惑下,他們是無法自律的,而且這種行為也會導致小公司和創業者更難創新。您常談到如何約束人工智慧,但更難的是如何約束人本身。您認為我們應該如何約束這些巨頭?


霍金:據我了解,許多公司僅將這些數據用於統計分析,但任何涉及到私人信息的使用都應該被禁止。如果網際網路上所有的信息均通過基於量子技術加密,這樣網際網路公司在一定時間內便無法破解,這會有助於保護隱私,但安全部門會反對這個做法。


獵豹移動CEO傅盛:靈魂會不會是量子的一種存在形態?或者是高維空間裡的另一個表現?


霍金:我認為近來人工智慧的發展,比如電腦在西洋棋和圍棋的比賽中戰勝人腦,都顯示出人腦和電腦並沒有本質差別。這點上我和我的同事羅傑·彭羅斯正好相反。會有人認為電腦有靈魂嗎?對我而言,靈魂這個說法是一個基督教的概念,它和來世聯繫在一起。我認為這是一個童話故事。


百度總裁張亞勤:人類觀察和抽象世界的方式不斷演進,從早期的觀察和估算,到牛頓定律和愛因斯坦方程式,到今天數據驅動的計算和人工智慧,下一個會是什麼?


霍金:我們需要一個新的量子理論,將重力和其他自然界的其它力量整合在一起。許多人聲稱這是弦理論,但我對此表示懷疑,目前唯一的推測是,時空有十個維度。


史丹福大學物理學教授張首晟:如果讓您告訴外星人我們人類取得的最高成就,並寫在一張明信片的背面,您會寫什麼?


霍金:告訴外星人關於美,或者任何可能代表最高藝術成就的藝術形式都是無益的,因為這是人類特有的。我會告訴他們哥德爾不完備定理和費馬大定理。這才是外星人能夠理解的事情。


音樂人、投資者胡海泉:如果星際移民技術的成熟窗口期遲到,有沒有完全解決不了的內發災難導致人類滅絕?


霍金:是的。人口過剩、疾病、戰爭、饑荒、氣候變化和水資源匱乏, 人類有能力解決這些危機。但很可惜,這些危機還嚴重威脅著我們在地球上的生存。這些危機都是未來可以解決但目前還未解決的。


:我們希望提倡科學精神,貫穿GMIC全球九站,請您推薦三本書,讓科技屆的朋友們更好的理解科學及科學的未來。


霍金他們應該去寫書而不是讀書。只有當一個人關於某件事能寫出一本書,才代表他完全理解了這件事。


:您認為一個人一生當中最應當做的一件事和最不應當做的一件事分別是什麼?


霍金:我們絕不應當放棄,我們都應當儘可能的去理解(這個世界)。


:人類在漫漫的歷史長河中,重複著一次又一次的革命與運動。從石器、蒸汽、電氣……您認為下一次的革命會是由什麼驅動的?


霍金:(我認為是)計算機科學的發展,包括人工智慧和量子計算。科技已經成為我們生活中重要的一部分,但未來幾十年裡,它會逐漸滲透到社會的每一個方面,為我們提供智能地支持和建議,在醫療、工作、教育和科技等眾多領域。但是我們必須要確保是我們來掌控人工智慧,而非它(掌控)我們。



了解更多政經風險解析與應對策略,

歡迎訂閱《陳功看大勢》

點擊下方「閱讀原文」查看更多內容。

相關焦點

  • 《異形:契約》生化人引熱議 人工智慧能否終結人類
    醒來後的大衛和創造它的人類father偉倫有一番引人深思長談。這席談話提綱挈領,可被視作解開「異形」誕生之迷的金鑰匙。在一個多無一物的極簡房間裡,大衛的右邊有著一臺鋼琴,左邊有著一幅油畫,大衛的後面還有米開朗基羅的雕塑大衛。這些都代表著人類情感世界裡的最高智慧。人工智慧發展到今天,在計算領域已經超過人類,然而在認知領域,依然進展緩慢。但是,仿生人大衛完全不一樣。
  • 霍金最新演講:AI或帶來人類文明終結,我們該盡力確保其發展方向
    但我們的人工智慧系統須要按照我們的意志工作。跨學科研究是一種可能的前進道路:從經濟、法律、哲學延伸至計算機安全、形式化方法,當然還有人工智慧本身的各個分支。文明所提產生的一切都是人類智能的產物,我相信生物大腦可以達到的和計算機可以達到的,沒有本質區別。因此,它遵循了「計算機在理論上可以模仿人類智能,然後超越」這一原則。
  • 霍金:人工智慧或是人類歷史上最後事件
    霍金曾說,「在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智慧的崛起。」他說,人工智慧的崛起,要麼是人類歷史上最好的事,要麼是人類文明的終結。到那時,人工智慧可能是人類文明史的終結。霍金建議:跨學科霍金在演講中說到,人工智慧的崛起,是好是壞目前仍不確定。霍金認為,人工智慧的發展,本身是一種存在著問題的趨勢,而這些問題必須在現在和將來得到解決。
  • 人工智慧測試表現,它會選擇反駁人類行為,或印證霍金預言!
    對機器人開展實驗正是因為人類的害怕,科學家們開始頻繁對人工智慧進行檢測,在一項檢測中根據人工智慧的表現,讓大家聯想到了霍金留下預言,曾經對人工智慧檢測的過程中,首先檢測了它們的情緒,目的是為了觀看人工智慧的情緒和人類之間究竟之間差別呢?
  • 霍金生前給人類的四個忠告,可信度多高?
    1.上帝粒子可能毀滅宇宙霍金說:「希格斯粒子的潛力有著令人擔憂的特徵,它可能會在能量超過1000億千兆電子伏的情況下呈亞穩定狀態……這就意味著宇宙可能會出現災難性的真空衰變,一個真正的真空泡沫會以光速擴展。這任何時候都有可能發生,我們是無法預見的。」
  • 如果人類文明有一天終結了,會因為什麼?科學家提出了三種猜測
    而計算機的出現正好彌補了人類大腦的這個缺陷,從而幫助人類處理大量的數據。計算機已經成為人類文明必不可少的一個重要工具。計算機的更新發展非常快,而它的終結升級目標就是人工智慧。人工智慧跟傳統的計算機不同,傳統的計算機只能被動接受人類傳輸的各種知識,是比較原始的機械傳輸模式。
  • 史蒂芬霍金:警惕!人工智慧將會反抗人類,很可能造成人類滅絕
    人工智慧發展到一定程度後,具備了自我思維能力,思想會突破人類定製的規則,會產生一些危險且極端的行為,給人類帶來人身安全,甚至毀滅。對於人工智慧的飛速發展,有些人開始擔心以後會對人類造成威脅。歷史上已經有過人工智慧殺人的例子。
  • 霍金:人工智慧造福人類賴以生存的家園
    【手機中國新聞】在此次GMIC領袖峰會上,史蒂芬霍金也發表了視頻演講,就人工智慧和人類的關係進行了深刻的分析。霍金表示,在他的一生中,見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智慧的崛起。簡單來說,強大的人工智慧的崛起,要麼是人類歷史上最好的事,要麼是最糟的。不得不說,是好是壞我們仍不確定。
  • 霍金演講:人工智慧也可能是人類文明的終結者
    原標題:霍金演講:人工智慧也可能是人類文明的終結者4月27日,著名物理學家史蒂芬·霍金在北京舉辦的全球移動網際網路大會上做了視頻演講。在演講中,霍金重申人工智慧崛起要麼是人類最好的事情,要麼就是最糟糕的事情。他認為,人類需警惕人工智慧發展威脅。因為人工智慧一旦脫離束縛,以不斷加速的狀態重新設計自身,人類由於受到漫長的生物進化的限制,將無法與之競爭,從而被取代。
  • 人工智慧的終點是滅絕人類?其實還有更糟糕的
    據wired消息,機器人數量將上升,機器將替代人類。幾十年來,我們一直聽到有關人工智慧替代以致終結人類的警告。  這樣的場景不僅僅出現在好萊塢影片中,在科學和哲學領域也能找到越來越多的佐證。例如,麻省理工學院博士瑞?
  • 2500年之前,人類或面臨三大威脅,每個都可能導致文明的終結
    從人類文明的發展歷程來看,我們的文明一直在穩定地發展,而讓我們感到驕傲的是,自從進入工業時代之後,人類的科技水平就開始突飛猛進,只花了200多年的時間就一舉進入了現在的資訊時代。因此對於人類文明的未來,人們普遍都有著樂觀的態度,認為隨著時間的推移,人類將擁有無限美好的未來。
  • 2500年之前人類或面臨三大威脅,每個都可能導致文明的終結
    從人類文明的發展歷程來看,我們的文明一直在穩定地發展,而讓我們感到驕傲的是,自從進入工業時代之後,人類的科技水平就開始突飛猛進,只花了200多年的時間就一舉進入了現在的資訊時代。因此對於人類文明的未來,人們普遍都有著樂觀的態度,認為隨著時間的推移,人類將擁有無限美好的未來。
  • 霍金去世前給人類四個忠告,人類如果犯錯,極有可能自取滅亡
    霍金給人類的四個忠告:1.上帝粒子可能毀滅宇宙上帝粒子也叫希格斯玻色子,是粒子物理學標準模型預言的一種自旋為零的玻色子,不帶電荷、色荷,極不穩定,生成後會立刻衰變。一九六四年,英國科學家皮特·希格斯提出了希格斯玻色子的存在。
  • 現實與夢境的反差,科幻電影《滅絕》,人類與人工智慧的共存問題
    而他的噩夢反覆圍繞著地球被外星文明入侵,並開始無邊際的滅絕行動。他的妻子(麗茲卡潘飾)還一度認為他精神出現了問題,直到真的被來自地球外的入侵,才明白丈夫做的噩夢開始正式發生。而滅絕就發生在眼前。原來一切他原來一直的噩夢是沒有刪除乾淨的記憶,五十年前,人工智慧的載體——人造人,發生了進化,產生出了情感,有了情感後人造人開始反抗人類,開始滅絕人類,而人類的倖存者逃離地球,去到了火星。而五十年後,人類重返地球,要奪回屬於人類的一切,誓要把人造人消滅。電影到這裡觀眾終於明白,這是一部講述人與人工智慧的故事。
  • 霍金留下3條對人類警告,每條預言關乎人類未來,能相信嗎?
    自從他逝世之後,關於霍金所留下的預言逐漸浮出水面,當年究竟說了什麼呢?霍金對人類的警告對於他的預言很多人半信半疑,有人說霍金的預言是編造,也有人說霍金的預言是在日記中真實提到的,它到底留下了什麼預言呢?
  • 霍金對人類的最後警告:當心人工智慧!
    作為當代最為著名的物理學家之一,霍金的一生似乎都離不開黑洞,最主要的貢獻就是「奇點定理」和「霍金輻射」。至於預言,最令人關注的大概就是「人工智慧威脅論」,霍金曾公開表示「我們並不知道,人工智慧會輔佐人類,還是支配人類,或者是人類徹底被其摧毀」。
  • 一定有外星人、人工智慧會終結人類……歷數霍金的預言
    一直致力於探索宇宙奧秘的霍金,曾經作出過哪些預言呢?資料圖:英國物理學家霍金。  霍金語錄一:「外星人」在看著你  在2015年倫敦皇家科學學會尋找外星生命跡象的啟動儀式上,霍金就說過:「在無限的茫茫宇宙中,一定存在著其它形式的生命。」  他說:「或許外星生命會正盯著我們看呢。」
  • 霍金:世界末日逐步逼近 人工智慧將毀滅人類
    知名天文及物理學家史蒂芬‧霍金警告說,人類創造了可以毀滅世界的人工智慧,卻至今仍無能力可以避免這個災難。報導說,霍金慷慨地分享他對世界的觀察,並提出關於世界所面臨的問題的警告。他認為,世界的毀滅已經逼近,人類創造了可以毀滅地球的科技,卻沒有建立有效的機制去防止毀滅的發生。
  • 霍金對人類未來的三大擔憂
    除此之外,霍金還是一位極具責任感的科學家,經常反思人類的現狀,著眼人類的未來,提出過不少引人深思的告誡。以下三條,可能是最著名的。1.人工智慧接管人類人工智慧的飛速發展在給人類帶來極大便利的同時,也引起不少人的擔憂,霍金便是其中之一。
  • 霍金在擔憂什麼?外星人,人類文明的不速之客
    霍金在擔憂什麼?外星人,人類文明的不速之客!人類有三種方式可以和外星文明建立聯繫:1.人類單方面發現了外星文明。2.外星文明單方向發現了人類文明。3.人類和外星文明進行了交流。這三種方式,無論哪一種變成了現實,對人類社會的影響都會是毀滅性的。