警句 | 霍金:人工智慧要麼是人類歷史上最好的事,要麼是最糟的……

2021-01-19 央廣網

在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智慧的崛起。


簡單來說,我認為強大的人工智慧的崛起,要麼是人類歷史上最好的事,要麼是最糟的。我不得不說,是好是壞我們仍不確定。但我們應該竭盡所能,確保其未來發展對我們和我們的環境有利。


我們別無選擇。我認為人工智慧的發展,本身是一種存在著問題的趨勢,而這些問題必須在現在和將來得到解決。


人工智慧的研究與開發正在迅速推進。也許我們所有人都應該暫停片刻,把我們的研究重複從提升人工智慧能力轉移到最大化人工智慧的社會效益上面。


基於這樣的考慮,美國人工智慧協會(AAAI)於2008至2009年,成立了人工智慧長期未來總籌論壇,他們近期在目的導向的中性技術上投入了大量的關注。但我們的人工智慧系統須要按照我們的意志工作。


跨學科研究是一種可能的前進道路:從經濟、法律、哲學延伸至計算機安全、形式化方法,當然還有人工智慧本身的各個分支。


文明所提產生的一切都是人類智能的產物,我相信生物大腦可以達到的和計算機可以達到的,沒有本質區別。


因此,它遵循了「計算機在理論上可以模仿人類智能,然後超越」這一原則。但我們並不確定,所以我們無法知道我們將無限地得到人工智慧的幫助,還是被藐視並被邊緣化,或者很可能被它毀滅。的確,我們擔心聰明的機器將能夠代替人類正在從事的工作,並迅速地消滅數以百萬計的工作崗位。


在人工智慧從原始形態不斷發展,並被證明非常有用的同時,我也在擔憂創造一個可以等同或超越人類的事物所導致的結果:人工智慧一旦脫離束縛,以不斷加速的狀態重新設計自身。人類由於受到漫長的生物進化的限制,無法與之競爭,將被取代。這將給我們的經濟帶來極大的破壞。未來,人工智慧可以發展出自我意志,一個與我們衝突的意志。


儘管我對人類一貫持有樂觀的態度,但其他人認

為,人類可以在相當長的時間裡控制技術的發展,這樣我們就能看到人工智慧可以解決世界上大部分問題的潛力。但我並不確定。


2015年1月份,我和科技企業家埃隆·馬斯克,以及許多其他的人工智慧專家籤署了一份關於人工智慧的公開信,目的是提倡就人工智慧對社會所造成的影響做認真的調研。


在這之前,埃隆·馬斯克就警告過人們:超人類人工智慧可能帶來不可估量的利益,但是如果部署不當,則可能給人類帶來相反的效果。我和他同在「生命未來研究所」的科學顧問委員會,這是一個為了緩解人類所面臨的存在風險的組織,而且之前提到的公開信也是由這個組織起草的。


這個公開信號召展開可以阻止潛在問題的直接研究,同時也收穫人工智慧帶給我們的潛在利益,同時致力於讓人工智慧的研發人員更關注人工智慧安全。


此外,對於決策者和普通大眾來說,這封公開信內容翔實,並非危言聳聽。人人都知道人工智慧研究人員們在認真思索這些擔心和倫理問題,我們認為這一點非常重要。比如,人工智慧是有根除疾患和貧困的潛力的,但是研究人員必須能夠創造出可控的人工智慧。那封只有四段文字,題目為《應優先研究強大而有益的人工智慧》的公開信,在其附帶的十二頁文件中對研究的優先次序作了詳細的安排。


在過去的20年裡,人工智慧一直專注於圍繞建設智能代理所產生的問題,也就是在特定環境下可以感知並行動的各種系統。在這種情況下,智能是一個與統計學和經濟學相關的理性概念。


通俗地講,這是一種做出好的決定、計劃和推論的能力。基於這些工作,大量的整合和交叉孕育被應用在人工智慧、機器學習、統計學、控制論、神經科學、以及其它領域。


共享理論框架的建立,結合數據的供應和處理能力,在各種細分的領域取得了顯著的成功。例如語音識別、圖像分類、自動駕駛、機器翻譯、步態運動和問答系統。


隨著這些領域的發展,從實驗室研究到有經濟價值的技術形成良性循環。哪怕很小的性能改進,都會帶來巨大的經濟效益,進而鼓勵更長期、更偉大的投入和研究。目前人們廣泛認同,人工智慧的研究正在穩步發展,而它對社會的影響很可能擴大,潛在的好處是巨大的,既然文明所產生的一切,都是人類智能的產物;我們無法預測我們可能取得什麼成果,當這種智能是被人工智慧工具放大過的。


但是,正如我說過的,根除疾病和貧窮並不是完全不可能,由於人工智慧的巨大潛力,研究如何(從人工智慧)獲益並規避風險是非常重要的。


現在,關於人工智慧的研究正在迅速發展。這一研究可以從短期和長期來討論。一些短期的擔憂在無人駕駛方面,從民用無人機到自主駕駛汽車。比如說,在緊急情況下,一輛無人駕駛汽車不得不在小風險的大事故和大概率的小事故之間進行選擇。另一個擔憂在致命性智能自主武器。他們是否該被禁止?如果是,那麼「自主」該如何精確定義。如果不是,任何使用不當和故障的過失應該如何問責。


還有另外一些擔憂,由人工智慧逐漸可以解讀大量監控數據引起的隱私和擔憂,以及如何管理因人工智慧取代工作崗位帶來的經濟影響。


長期擔憂主要是人工智慧系統失控的潛在風險,隨著不遵循人類意願行事的超級智能的崛起,那個強大的系統威脅到人類。這樣錯位的結果是否有可能?如果是,這些情況是如何出現的?我們應該投入什麼樣的研究,以便更好的理解和解決危險的超級智能崛起的可能性,或智能爆發的出現?


當前控制人工智慧技術的工具,例如強化學習,簡單實用的功能,還不足以解決這個問題。因此,我們需要進一步研究來找到和確認一個可靠的解決辦法來掌控這一問題。


近來的裡程碑,比如說之前提到的自主駕駛汽車,以及人工智慧贏得圍棋比賽,都是未來趨勢的跡象。巨大的投入傾注到這項科技。我們目前所取得的成就,和未來幾十年後可能取得的成就相比,必然相形見絀。而且我們遠不能預測我們能取得什麼成就,當我們的頭腦被人工智慧放大以後。


也許在這種新技術革命的輔助下,我們可以解決一些工業化對自然界造成的損害。關乎到我們生活的各個方面都即將被改變。簡而言之,人工智慧的成功有可能是人類文明史上最大的事件。


但是人工智慧也有可能是人類文明史的終結,除非我們學會如何避免危險。我曾經說過,人工智慧的全方位發展可能招致人類的滅亡,比如最大化使用智能性自主武器。今年早些時候,我和一些來自世界各國的科學家共同在聯合國會議上支持其對於核武器的禁令。我們正在焦急的等待協商結果。


目前,九個核大國可以控制大約一萬四千個核武器,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積汙染農田,最可怕的危害是誘發核冬天,火和煙霧會導致全球的小冰河期。


這一結果使全球糧食體系崩塌,末日般動蕩,很可能導致大部分人死亡。我們作為科學家,對核武器承擔著特殊的責任,因為正是科學家發明了它們,並發現它們的影響比最初預想的更加可怕。


現階段,我對災難的探討可能驚嚇到了在座的各位。很抱歉。但是作為今天的與會者,重要的是,你們要認清自己在影響當前技術的未來研發中的位置。


我相信我們團結在一起,來呼籲國際條約的支持或者籤署呈交給各國政府的公開信,科技領袖和科學家正極盡所能避免不可控的人工智慧的崛起。


去年10月,我在英國劍橋建立了一個新的機構,試圖解決一些在人工智慧研究快速發展中出現的尚無定論的問題。「利弗休姆智能未來中心」是一個跨學科研究所,致力於研究智能的未來,這對我們文明和物種的未來至關重要。


我們花費大量時間學習歷史,深入去看——大多數是關於愚蠢的歷史。所以人們轉而研究智能的未來是令人欣喜的變化。


雖然我們對潛在危險有所意識,但我內心仍秉持樂觀態度,我相信創造智能的潛在收益是巨大的。也許藉助這項新技術革命的工具,我們將可以削減工業化對自然界造成的傷害。


我們生活的每一個方面都會被改變。我在研究所的同事休·普林斯承認,「利弗休姆中心」能建立,部分是因為大學成立了「存在風險中心」。後者更加廣泛地審視了人類潛在問題,「利弗休姆中心」的重點研究範圍則相對狹窄。


人工智慧的最新進展,包括歐洲議會呼籲起草一系列法規,以管理機器人和人工智慧的創新。令人感到些許驚訝的是,這裡面涉及到了一種形式的電子人格,以確保最有能力和最先進的人工智慧的權利和責任。歐洲議會發言人評論說,隨著日常生活中越來越多的領域日益受到機器人的影響,我們需要確保機器人無論現在還是將來,都為人類而服務。


向歐洲議會議員提交的報告,明確認為世界正處於新的工業機器人革命的前沿。報告中分析的是否給機器人提供作為電子人的權利,這等同於法人(的身份),也許有可能。


報告強調,在任何時候,研究和設計人員都應確保每一個機器人設計都包含有終止開關。在庫布裡克的電影《2001太空漫遊》中,出故障的超級電腦哈爾沒有讓科學家們進入太空艙,但那是科幻。我們要面對的則是事實。奧斯本·克拉克跨國律師事務所的合伙人,洛納·布拉澤爾在報告中說,我們不承認鯨魚和大猩猩有人格,所以也沒有必要急於接受一個機器人人格。但是擔憂一直存在。


報告承認在幾十年的時間內,人工智慧可能會超越人類智力範圍,人工智慧可能會超越人類智力範圍,進而挑戰人機關係。報告最後呼籲成立歐洲機器人和人工智慧機構,以提供技術、倫理和監管方面的專業知識。如果歐洲議會議員投票贊成立法,該報告將提交給歐盟委員會。它將在三個月的時間內決定要採取哪些立法步驟。


我們還應該扮演一個角色,確保下一代不僅僅有機會還要有決心,在早期階段充分參與科學研究,以便他們繼續發揮潛力,幫助人類創造一個更加美好的的世界。這就是我剛談到學習和教育的重要性時,所要表達的意思。


我們需要跳出「事情應該如何」這樣的理論探討,並且採取行動,以確保他們有機會參與進來。我們站在一個美麗新世界的入口。這是一個令人興奮的、同時充滿了不確定性的世界,而你們是先行者。


我祝福你們。

相關焦點

  • 霍金:人工智慧或是人類歷史上最後事件
    霍金曾說,「在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智慧的崛起。」他說,人工智慧的崛起,要麼是人類歷史上最好的事,要麼是人類文明的終結。霍金擔憂的對象不僅僅是未來的人工智慧技術,甚至還包括現在的一些公司比如谷歌和Facebook。他說:「人工智慧的短期影響取決於由誰來控制它,而長期影響則取決於它是否能夠被控制。」霍金承認,機器人和其他的人工智慧設備也許會給人類帶來巨大的好處。如果那些設備的設計非常成功,就能給人類帶來巨大的好處,他說那將是人類歷史上最大的事件。
  • 霍金再拋人工智慧威脅論:或招致人類滅亡
    央廣網北京4月28日消息 據中國之聲《新聞縱橫》報導,人工智慧在我國幾乎已經成為「逢會必談」的話題。昨天(27日)開幕的2017全球移動網際網路大會上,主角不再是移動網際網路本身,而是徹底讓位給了人工智慧。不過與以往相比,會上各位專家學者圍繞人工智慧的探討,少了些故事和想像,多了些對出路和前景的現實思考。
  • 霍金預言:太陽會在未來200年靠近地球 地球上的動物要麼進化要麼死
    原標題:霍金預言:太陽會在未來200年靠近地球 地球上的動物要麼進化要麼死     地球如何毀滅?這個問題是科學家一直都在研究的重點問題,而 物理學家霍金也曾預言:最可能的滅絕方式只有外星人入侵以及太陽毀滅,近日,科學家表示,在未來的200年內,地球將會靠近太陽,而生活在地球上的動物,要麼進化要麼死。
  • 霍金:人工智慧造福人類賴以生存的家園
    【手機中國新聞】在此次GMIC領袖峰會上,史蒂芬霍金也發表了視頻演講,就人工智慧和人類的關係進行了深刻的分析。霍金表示,在他的一生中,見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智慧的崛起。簡單來說,強大的人工智慧的崛起,要麼是人類歷史上最好的事,要麼是最糟的。不得不說,是好是壞我們仍不確定。
  • 霍金的一生成就卓著,晚年更是頻出「驚人言論
    2017.12.13「強大的人工智慧的崛起,要麼是人類歷史上最好的事,要麼是最糟的。人工智慧是好是壞我們仍不確定,但我們應該竭盡所能,確保其未來發展對我們和我們的環境有利。」2017.11.03「人工智慧的出現可能是我們文明史上最糟糕的事。」「我擔心AI某天會完全取代人類。即使人們會設計出計算機病毒,但也有人會相應的改進和完善自己的AI技術。到那時就會出現一種超越人類的新的生活方式。」
  • 2050年前,人類要麼進入前所未有的光明時代,要麼消逝在至暗之中
    文|何啟真現在,人類尚且生活在人間,在未來2050年前,人間將不復存在,要麼進入天堂時代,要麼進入地獄時代。我們將告別現有認知下的世界人類將進入一個可能走向兩極的全新紀元。天堂時代隨著科學技術成指數的飛躍進步,通信技術、大數據、雲計算、人工智慧等技術的極大發展,特別是人工智慧AI的大力發展,當AI能夠完全服務於人類,不與人類整體的利益相衝突,替代人類絕大多數的工作和勞動,將人類從重複單一為生計而從事的工作勞動中解脫出來。
  • 霍金:人工智慧或終結人類文明,但讓人類滅絕的,遠不止它
    口  述 | 霍金來  源 | 雷鋒網在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智慧的崛起。簡單來說,我認為強大的人工智慧的崛起,要麼是人類歷史上最好的事,要麼是最糟的。
  • 霍金對於人工智慧的十點深刻的思考
    本文由【近善興通】整理了霍金對於人工智慧的十點深刻的思考,被譽為「宇宙之王」的他認為人類迄今為止最為深刻的影響就是人工智慧的崛起。其中最深刻,同時也是對人類影響與日俱增的變化就是人工智慧的崛起。人工智慧可能是人類文明史上最偉大的事件,它要麼是人類歷史上最好的事,要麼是最糟的。如果我們不能學會如何避免風險,那麼我們會把自己置於絕境。如果有人設計計算機病毒,那麼就有人設計不斷自我完善、直到最終超越人類的人工智慧,其結果將是一種新的生命形式。
  • 較真| 霍金已死33年,輪椅上的是傀儡?謠言黨們放過霍金吧
    3霍金對AI的態度和探索外太空類似,他曾說:「強大的人工智慧的崛起,要麼是人類歷史上最好的事,要麼是最糟的,但我內心秉持樂觀態度。」 查證者:德味兒 | 海外趣聞作者 霍金去世後,有關他的謠言非但沒有減少,反而越來越多,比如有文章稱「霍金早已去世33年,坐在輪椅上的只是傀儡」。還有說法稱「霍金警告人類不要接觸外星人」、「」人工智慧最終代替人類,人類最終走向滅亡」。
  • 【巨星隕落】霍金今日去世,但人類對宇宙和AI的探索永無止境
    霍金曾積極關注人工智慧,指出我們要對AI發展保持警惕。3月14日也是愛因斯坦誕辰139年的日子,上帝在同一天送來了一位天才,而帶走了另一位。人類對宇宙和AI的探索永無止境,讓我們以這樣的方式祭奠這兩位偉人。
  • 霍金演講:人工智慧也可能是人類文明的終結者
    原標題:霍金演講:人工智慧也可能是人類文明的終結者4月27日,著名物理學家史蒂芬·霍金在北京舉辦的全球移動網際網路大會上做了視頻演講。在演講中,霍金重申人工智慧崛起要麼是人類最好的事情,要麼就是最糟糕的事情。他認為,人類需警惕人工智慧發展威脅。因為人工智慧一旦脫離束縛,以不斷加速的狀態重新設計自身,人類由於受到漫長的生物進化的限制,將無法與之競爭,從而被取代。
  • 人類很快就會被機器人取代
    霍金 霍金說過「強大的人工智慧的崛起,要麼是人類歷史上的好事,要麼是最糟的事」。 科學怪人會直接向人類提出挑戰,告訴我們人類離終結的一天不遠了,因為根據現在的科學發展步伐,人類很快就會被機器人取代。新一代的主宰,不僅形體、結構不同,就連認知和情感世界也有很大差異。 人工智慧的突飛猛進,本應是為人類服務的,但難免有些科學家試圖僭越神的角色,試圖操縱生命,而使他有意無意的給人類帶來威脅。
  • 霍金:今天夜空中最亮的星-虎嗅網
    在躊躇滿志的年紀,霍金患上了「盧伽雷氏症」——肌肉萎縮性側索硬化症,不久後,他全身癱瘓,僅有3根手指可以活動。到了43歲,霍金因肺炎又喪失了語言能力。儘管醫生曾說他最多能活2年,但霍金卻與病魔戰鬥了50年。 他曾說:「身體雖然殘障了,不要在精神上殘障。」
  • 霍金的名言警句
    科學家和娼妓都是做他們喜歡的事賺錢。——霍金充滿希望的旅途勝過終點的到達。——霍金如果一個人沒有夢想,無異於死掉。——霍金每個方程式都會使書的銷量減少一半。——霍金我們通過觀察創造了歷史,而不是歷史創造了我們。——霍金知識的敵人不是無知,而是已經掌握知識的幻覺。——霍金活著就有希望。——霍金生活是不公平的,不管你的境遇如何,你只能全力以赴。
  • 霍金對AI的糾結:人工智慧不是天堂就是地獄
    其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智慧的崛起。簡單來說,我認為強大的人工智慧的崛起,要麼是人類歷史上最好的事,要麼是最糟的。我不得不說,是好是壞我們仍不確定。但我們應該竭盡所能,確保其未來發展對我們和我們的環境有利。我們別無選擇。我認為人工智慧的發展,本身是一種存在著問題的趨勢,而這些問題必須在現在和將來得到解決。
  • 如何給孩子講「命運」,這是我見過最好的解釋
    但這些都OUT了,今天是科學成為宗教的時代,但科學的成果一再證明了自身並不是萬能的,科學越進步,人類越發現自己的無知。2017年4月27日,移動網際網路大會在北京召開。霍金警告說:我認為生物大腦能實現的東西和計算機能實現的東西之間沒有真正的區別,人工智慧的崛起,要麼是人類歷史上最好的事,要麼是最糟的。
  • 霍金:AI恐成人類史上最糟事件 要懂控制否則後果不堪設想
    【環球網綜合報導】英國著名物理學家史蒂芬.霍金(Stephen Hawking)周一表示,人工智慧(AI)的崛起可能是「人類文明史上最糟事件」,除非人類社會能夠找到控制AI發展的方法,否則後果不堪設想。
  • 霍金去世,享年76歲!
    霍金,被譽為「宇宙之王」,它認為:人類迄今為止最為深刻的影響就是人工智慧的崛起,對於人工智慧,他有以下十點深刻的思考:在我的一生中,我見證了很多社會深刻的變化。其中最深刻,同時也是對人類影響與日俱增的變化就是人工智慧的崛起。人工智慧可能是人類文明史上最偉大的事件,它要麼是人類歷史上最好的事,要麼是最糟的。
  • 職場只有三個字:要麼忍、要麼狠、要麼滾
    先找找原因,努力把工作做得最好,沒有道理不給你提工資。送你一句話:要麼忍、要麼狠、要麼滾:1、要麼忍:沒有培訓,自己自學,關係複雜,學著適應,成人的世界沒有容易兩個字,有人的地方就有江湖。 2、要麼狠:對自己狠一點,自律、刻苦,逼自己一把,看看能不能變得優秀。
  • 【深網】「科學之外」的霍金
    無論是本色出演美劇《生活大爆炸》,撰寫科普書籍《時間簡史》,還是在晚年不斷呼籲人類對人工智慧的警惕,身為一位著名物理學家,霍金並不吝於發表各種觀點,並樂於表達——在新浪微博上,霍金擁有4616468名粉絲。