史蒂芬·霍金說人工智慧將會是「我們文明歷史上最糟糕的事件」

2020-12-06 太平洋電腦網

原文地址:https://www.cnbc.com

原創翻譯:龍騰網 翻譯:飛雪似煬花

 

正文翻譯:

Stephen Hawking says A.I. could be 'worst event in the history of our civilization'

史蒂芬·霍金說人工智慧將會是「我們文明歷史上最糟糕的事件」

The emergence of artificial intelligence (AI) could be the "worst event in the history of our civilization" unless society finds a way to control its development, high-profile physicist Stephen Hawking said Monday.

周一,備受矚目的物理學家史蒂芬·霍金說:人工智慧的出現將會成為「我們文明歷史上最糟糕的事件」,除非社會能夠找到控制它發展的辦法。

He made the comments during a talk at the Web Summit technology conference in Lisbon, Portugal, in which he said, "computers can, in theory, emulate human intelligence, and exceed it."

他在葡萄牙裡斯本召開的網際網路峰會技術論壇的一次談話中做出了這一評論,他在其中說道「在理論上,計算機能模仿人類的智慧,然後超越它」。

Hawking talked up the potential of AI to help undo damage done to the natural world, or eradicate poverty and disease, with every aspect of society being "transformed."

霍金談及了人工智慧在幫助消除對自然世界造成的損害或者根除貧困與疾病方面的潛能,通過人工智慧,社會的各個層面都會「得到改變」。

But he admitted the future was uncertain.

但是他承認未來是不確定的。

"Success in creating effective AI, could be the biggest event in the history of our civilization. Or the worst. We just don't know. So we cannot know if we will be infinitely helped by AI, or ignored by it and side-lined, or conceivably destroyed by it," Hawking said during the speech.

霍金在這次講話中說「成功製造出高效的人工智慧可能是我們文明歷史上最重大的事件,或者也是最糟糕的事件。我們只是沒有意識到。所以我們無法知道我們是否將必然得到人工智慧的幫助,或者遭到它的忽視,或者持觀望態度,或者遭到它的毀滅」。

"Unless we learn how to prepare for, and avoid, the potential risks, AI could be the worst event in the history of our civilization. It brings dangers, like powerful autonomous weapons, or new ways for the few to oppress the many. It could bring great disruption to our economy."

「除非我們知道如何準備、避免潛在的威脅,否則人工智慧將會是我們文明歷史上最糟糕的事件。它會帶來威脅,就像威力巨大的自動化武器,或者少數人用來壓迫大多數人的新方法。它能夠給我們的經濟造成嚴重的破壞」。

Hawking explained that to avoid this potential reality, creators of AI need to "employ best practice and effective management."

霍金解釋稱,為了避免這種潛在的可能性,人工智慧的製造者們需要「採用最實際和最有效的操縱方法」。

The scientist highlighted some of the legislative work being carried out in Europe, particularly proposals put forward by lawmakers earlier this year to establish new rules around AI and robotics. Members of the European Parliament said European Union-wide rules were needed on the matter.

這位科學家強調了正在歐洲進行的某些立法工作,特別是立法者們在今年早些時候提供的一些建議,這些建議旨在圍繞著人工智慧和機器人設置一些新的規定。歐洲議會的成員們說在這一事件上,我們需要歐盟範圍內的法規。

Such developments are giving Hawking hope.

這樣的事態發展給霍金帶來了希望。

"I am an optimist and I believe that we can create AI for the good of the world. That it can work in harmony with us. We simply need to be aware of the dangers, identify them, employ the best possible practice and management, and prepare for its consequences well in advance," Hawking said.

霍金說「我是一個樂觀主義者,我相信我們能夠製造給世界帶來好處的人工智慧。它能夠與我們和諧共處。我們只是需要警惕威脅的存在,確定它們,利用最好的手段和操縱方法,事先準備好應對相應的結果」。

It's not the first time the British physicist has warned on the dangers of AI. And he joins a chorus of other major voices in science and technology to speak about their concerns. Tesla and SpaceX CEO Elon Musk recently said that AI could cause a third world war, and even proposed that humans must merge with machines in order to remain relevant in the future.

這不是這位英國物理學家首次對人工智慧的威脅提出警告。他的表態和科學技術領域的其他主流觀點是一致的。特斯拉與SpaceX的執行長埃隆馬斯克最近說,人工智慧能夠引發第三次世界大戰,甚至建議人類必須與機器融合在一起,從而在未來維持自己的重要地位。

And others have proposed ways to deal with AI. Microsoft founder Bill Gates said robots should face income tax.

其他人則提出了很多與人工智慧打交道的方法。微軟創建者比爾·蓋茨認為應該對機器人徵收所得稅。

Some major figures have argued against the doomsday scenarios. Facebook Chief Executive Mark Zuckerberg said he is "really optimistic" about the future of AI.

一些重要人物已經表態不贊同這一世界末日式的場景。臉書執行長馬克扎克伯格說他對人工智慧的未來「真的感到樂觀」。

評論翻譯:

ITT: many who didn't read the article.

致那些還沒有讀過這篇文章的人。

Hawking simply says he's optimistic and thinks AI is the way to go, but society needs to be ready for its arrival or it could cause a lot of damage. An analogy would be the use of nuclear energy, which was also used as weapon of mass destruction. Effectively simply creating AI wouldn't destroy society, it's how humans chose to use the AI or the mistakes humans fail to see, that could be harming to society. For the case of weapons, he isn't saying it will be an AI uprising, but that automated weaponry (which already exists) is a serious risk, like nuclear bombs are.

霍金只是說他對此報以樂觀的態度,認為人工智慧是發展的方向,但是社會需要為它的到來或它可能將會引發的巨大災難做好尊卑。我們可以類比核能的使用,它也會被用於製造大規模殺傷性武器。只是創造出人工智慧實際上不會毀滅社會,能夠傷害社會的是人們如何選擇使用人工智慧,或者是無法發現這些錯誤。就拿武器舉個例子,他沒有說人工智慧將會發動叛亂,但是自動化武器(已經存在了)是一個嚴重的風險,就像核彈一樣。

The article's title is slightly misleading.

這篇文章的標題有一點誤導性

So the ever present fear is that if you put the ai on the internet it will copy itself everywhere. Fair enough. But I have a solution.

那麼總是存在的恐懼便是如果你將人工智慧放在網際網路上,它將會四處複製自己。這是很有道理的。但是我有一個解決辦法。

You see, the software to make an ai go has to be massive. Obviously once hitting singularity it will refine its own code as much as possible, but you can only refine something so far, and sure it's a gamble but I'm willing to bet that a fully functional, self aware ai can't be any smaller than a couple of gigabytes. All we have to do is build it somewhere with terribly slow and unreliable internet. If it tries to get out we would have plenty of time to notice and simply pull the plug.

你瞧,軟體讓一個圍棋人工智慧都變得非常強大。顯然,一旦觸及到奇點,它將會儘可能地改善自己的密碼,但是到現在為止你只能改善某些事情,可以確定的是這是一場賭博,但是我願意打賭,一個具備完全功能的、有著自我意識的人工智絕對要小於幾十億的字節。我們所要做的便是在一個非常慢而且不可靠的網際網路中製造它。如果它試圖突破牢籠,我們就有足夠的事件注意到,然後拔下插頭。

That's right gentlemen, I propose we build the ai in Australia, and connect it to the NBN. It's perfect.

這是正確的,我建議我們在澳大利亞建造這個人工智慧,然後把它連入國家寬帶網絡。完美。

Maybe it is not Steven Hawking talking, but his computer.

可能這不是史蒂芬·霍金在講話,而是他的計算機在講話。

Maybe the computer doesn't want a competitor.

也許是這臺計算機不想讓競爭者出現。

You guys make AI sound like deus ex machina, which it’s not.

你們這些人讓人工智慧聽起來像是天降之神,但是它不是。

Hopefully it finds a gentle way to kill us all.

希望它能夠找到一種溫柔的方式殺死我們所有人。

Assuming it’s possible to create a sentient AI...everyone is just skimming over the actually effort and breakthrough required to get there, for all we know we may never get there

假設能夠創造出一個有情感的人工智慧……每個人都忽略了要創造出人工智慧所需要的努力和突破,儘管我們知道自己可能永遠都無法實現這一目標。

Every time Stephen Hawking comes up in an AI conversation I question why people pay so much attention to what he thinks about it.

每當史蒂芬·霍金說一些和人工智慧相關的話,我都要問為什麼人們要對他想什麼這麼關注。

He's a genius sure, but he's a physicist who specializes in cosmology. The connection to AI is tenuous at best.

他當然是一個天才,但是他是一個物理學家,專業是宇宙學。他和人工智慧的聯繫真的很少。

Yet every time he says something about AI people just think "hey this guy is a well known genius, guess his opinion is a big deal!"

但是每次他發表對人工智慧的看法的時候,人們就會想「嘿,這個人是一個名人,他的觀點關係重大」。

If Stephen Hawking started to warn you about the dangers of gluten would you also be all ears? If Tom Hanks spoke out against post-modernist West German folk-dance would you also take him for his word?

如果史蒂芬·霍金開始警告你麵筋的危險性,你也會洗耳恭聽嗎?如果湯姆·漢克斯出言反對後現代的西方式德國民間舞蹈,你也會聽他的話嗎?

AI isnt what people think it is. It essentially boils down to a mathematical formula(at it's core) and it tries to minimize it's output.

人工智慧不是人們想像的那樣。它基本上可以歸結為一個數學公式(位於它的核心),它試圖最小化它的輸出。

There is no consciousness. No moral code. It just finds patterns and acts on patterns it's been trained on millions and millions of times. That's why it's dangerous to trust AI, it's not always 100% correct and can have unforseen results in the end

它沒有意識。沒有道德代碼。它只是找到了模式和基於模式的行為——為此它已經被訓練了幾百萬次。這就是為什麼信任人工智慧是危險的,它不會總是百分百正確,最終可能會導致不可預見的結果。

相關焦點

  • 霍金稱人工智慧或成歷史上最糟糕事件:需加以控制
    新華社發參考消息網11月9日報導外媒稱,物理學家史蒂芬·霍金11月6日表示,技術有望逆轉工業化對地球造成的一些危害,有助於消除疾病和貧困,但人工智慧需要加以控制。據湯森路透基金會網站11月6日報導,在21歲時被診斷患上運動神經元病的英國宇宙學家霍金說,技術可以改變生活的方方面面,但警告說人工智慧帶來了新的挑戰。
  • 霍金:人工智慧或是人類歷史上最後事件
    他說,人工智慧的崛起,要麼是人類歷史上最好的事,要麼是人類文明的終結。霍金認同:人腦與電腦沒區別霍金認為,生物大腦可以達到的和計算機可以達到的,沒有本質區別。AI遵循了「計算機在理論上可以模仿人類智能,然後超越」這一原則。
  • 華爾街傳奇羅傑斯:下一場熊市將會是我們一生中最糟糕的
    騰訊證券訊 北京時間2月9日晚間消息,據美國財經網站MarketWatch報導稱,我們還沒到那種地步,但是華爾街傳奇投資者師吉姆·羅傑斯(Jim Rogers)卻表示,下一場熊市將會是極具破壞力的。「當我們再一次進入熊市的時候,我們終將會再次經歷熊市,這將會是我們一生中最糟糕的一次熊市。」吉姆·羅傑斯表示。這就是羅傑斯控股公司的董事長在周四告訴彭博社的。「到處都是債務,而且目前大幅增加了。」他說道。此外,他還稱,預計目前的股市動蕩將會持續。儘管他並沒有說這就是熊市的開端,但是從一個重要的峰值下跌20%傳統上被認為是熊市的定義。
  • 史蒂芬·霍金去世,仰望星空的人成為了星空
    他是一名偉大的科學家,一個卓越的人,他的工作成功將會在未來許多年繼續存在下去。他的勇氣和堅持以及他的天才與幽默鼓舞了來自世界各地的人。他曾經說過:『如果不能為你所愛的人提供一個家,宇宙就沒有什麼意義了。』我們將會永遠懷念他。」霍金被譽為繼愛因斯坦之後最傑出的理論物理學家,1979至2009年任劍橋大學盧卡斯數學教授,是英國最崇高的教授職位。
  • 使用人工智慧研究歷史可行麼?
    人工智慧可以研究歷史,我自己也學習過編程,結合對人工智慧的發展預期,以下幾個方面我認為是可以嘗試做到的| 1、人工智慧建立中華文明超級歷史樹假如把中華文明虛擬成一棵大樹,每年生長1米,那麼藉助人工智慧我們可以虛擬出一顆5000多米高的大樹,而每一年發生的歷史事件、國家、人物就是樹木的枝幹和樹葉和花朵,枝枝蔓蔓遮天蔽日蔚為壯觀,這就是人工智慧的優勢它可以整合大數據資源
  • 霍金再發警告談論什麼 人工智慧AI是什麼?有哪些危害
    據國外媒體報導,著名理論物理學家史蒂芬·霍金(Stephen Hawking)無疑是當代社會最偉大的人物之一,所以當他分享他對世界的一些想法時,很多人都會認真傾聽。最近,他一直在談論一個主題:人類的未來。  最近,霍金對從地外生命到人工智慧(AI)等一些熱門話題表達了自己的觀點。對於後者,他表示出非常擔憂。
  • 這裡有28條有關人工智慧的名言 霍金的最靠譜?
    當談到人工智慧(AI)的潛力和潛在風險,以及無人類幹預的機器學習和推理過程時,目前尚存在許多不同的觀點。只有時間會告訴我們,這些語錄中哪一條是最接近未來的真實情況的。在我們尚未到達目的地之前,想一想哪家的預言最可能成為現實是一件很有趣的事。
  • 警句 | 霍金:人工智慧要麼是人類歷史上最好的事,要麼是最糟的……
    其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智慧的崛起。簡單來說,我認為強大的人工智慧的崛起,要麼是人類歷史上最好的事,要麼是最糟的。我不得不說,是好是壞我們仍不確定。但我們應該竭盡所能,確保其未來發展對我們和我們的環境有利。我們別無選擇。
  • 人工智慧將會反抗人類,很可能造成人類滅絕
    我們經常看的科幻電影裡都會有人工智慧殺人甚至消滅人類的事件,比如終結者,機器人啟示錄,機械公敵等。但當今的社會,AI智能可以說才剛起步,人類渴望機器變得更加聰明,這樣才能給我們的生活帶來更大的便利,甚至解放我們的雙手,使得我們有更多時間能做自己喜歡的事情。
  • 瑪雅文明可以說是歷史上最為神秘的一個文明之一了
    瑪雅文明可以說是歷史上最為神秘的一個文明之一了,雖然處於新石器時代,卻在天文學、數學、藝術以及文字等方面都達到了極高的成就,而在最巔峰的時候,卻有莫名其妙的消失了
  • 這部《糟糕歷史》所講述的歷史,真的很糟糕
    該事件引發了在澳華人的普遍不滿。目前,當地華人社區及組織已經向澳大利亞ABC電視臺提出交涉,要求下架節目,並發表正式聲明進行道歉及說明。而這檔成為眾矢之的的節目,名叫《糟糕歷史》(Horrible Histories)。
  • 《恐龍當家》成了皮克斯歷史上表現最糟糕的電影
    即使趁著感恩節這個全家人都聚在一起的檔期上映,它的新片《恐龍當家》依然成了皮克斯歷史上票房成績最糟糕的電影。截至美國時間 12 月 6 日,上映 12 天的《恐龍當家》北美票房只有 7600 萬美元,而根據維基百科的信息,這部電影的製作預算高達 2 億美元。這個票房成績實在讓人大跌眼鏡。
  • 人工智慧的利與弊
    人工智慧這一領域也發展的十分迅速。無論是從衣食住行各個領域,都有人工智慧的身影。首先,我們來了解一下什麼是人工智慧。它的英文名稱是AI。資源越來越集中,企業壟斷現象會更加明顯,貧富差距將會愈發嚴重。運用在戰爭方面,它將會使全世界的人,深受其害。
  • 《糟糕歷史》黑中國歷史!澳華人怒了
    據了解,遭到當地華人投訴的節目內容由BBC旗下的兒童頻道CBBC製作並播出,名叫《糟糕歷史》。《糟糕歷史》是CBBC出品的一檔兒童節目。該節目用喜劇的視角向觀眾朋友們展示歷史上最囧的一面,涉及到古希臘、古羅馬、阿茲特克、印加、世界大戰以及英國歷史上各王朝等。而這次引起澳洲華人震怒的節目來自《糟糕歷史》第六集第二期。
  • 人類歷史上最接近滅亡的一次,誰在保護我們,難道真有未知文明?
    一旦和地球相撞,雖然說也不至於讓整個地球毀滅,但把整個北半球都摧毀還是易如反掌的。但最恐怖的事並不在這兒,而是在這顆小行星臨近地球之前,我們人類都沒有發現它。如果說他再偏個那麼一點兒,後果恐怕難以想像。
  • 霍金演講:人工智慧也可能是人類文明的終結者
    原標題:霍金演講:人工智慧也可能是人類文明的終結者4月27日,著名物理學家史蒂芬·霍金在北京舉辦的全球移動網際網路大會上做了視頻演講。在演講中,霍金重申人工智慧崛起要麼是人類最好的事情,要麼就是最糟糕的事情。他認為,人類需警惕人工智慧發展威脅。因為人工智慧一旦脫離束縛,以不斷加速的狀態重新設計自身,人類由於受到漫長的生物進化的限制,將無法與之競爭,從而被取代。
  • 史蒂芬·霍金——以研究太空而聞名,但他更關心地球上的生命
    史蒂芬·霍金,人們將永遠銘記這位為人類探索外太空作出巨大貢獻的科學家。他對合併量子力學的概念和愛因斯坦的相對論進行了開創性研究,讓我們對黑洞有新的理解。而他的代表作《時間簡史》,讓高深莫測的自然宇宙和歷史概念為大眾所接受。
  • 人工智慧的終點是滅絕人類?其實還有更糟糕的
    幾十年來,我們一直聽到有關人工智慧替代以致終結人類的警告。  這樣的場景不僅僅出現在好萊塢影片中,在科學和哲學領域也能找到越來越多的佐證。例如,麻省理工學院博士瑞?庫茨維爾(Ray Kurzweil)在書中寫道,人類出現以來所有技術發展都是以指數增長,最終將導致「技術奇異點」(技術奇異點是一個根據技術發展史總結出的觀點,認為未來將要發生一件不可避免的事件,技術發展將會在很短的時間內發生極大的接近於無限的進步,使得機器智能超越人類智能,從而讓社會乃至全人類措手不及)的到來,在該點處人工智慧將擊敗人類。
  • 2020是美國歷史上最瘋狂的一年嗎?美媒:還有四個年份一樣很糟糕
    這些新聞事件給美國人提出了很多問題,其中之一就是:「今年算不算美國歷史上最瘋狂的年份?」我對歷史學家進行了一次極不科學的調查,旨在為大家確定美國歷史上可與2020年匹敵的四個年份。今年截至目前讓我們受到沉重打擊的事件包括:川普總統遭彈劾;一場疾病大流行已奪去超過21萬美國人的生命;經濟普遍陷入崩潰境地;喬治·弗洛伊德和布倫娜·泰勒死於警方之手並導致數十個城市爆發大規模抗議活動;在整個西海岸肆虐的野火毀壞數百萬英畝土地,以及一場日益激烈的競選可能危及民主制度的穩定。