警惕人工智慧的失控風險

2020-11-25 中國機器人網

   桑希爾:數字操縱的威脅已經如此嚴峻,甚至有人開始質疑民主在大數據和人工智慧時代還是否有活路。

  警惕人工智慧的失控風險

 

  作為一項實驗,通德?奧蘭雷瓦朱(TundeOlanrewaju)有一天給維基百科(Wikipedia)關於他僱主的條目——麥肯錫(McKinsey)——搗了點亂。他編輯了該頁面,說自己創辦了這家諮詢公司。一位朋友將修改後的記錄截圖保存了。

 

  幾分鐘內,奧蘭雷瓦朱收到來自維基百科的電子郵件,告知他的編輯操作被拒絕,麥肯錫真正創始人的名字已被恢復。幾乎可以肯定,管理維基百科網站上4000萬篇條目的

機器人

(bot)之一已發現、核對並糾正了被他編輯的條目。

 

  我們非常欣慰地得知,大量如此聰明的算法正巡邏在保衛真實性的前線——並且可以比麥肯錫旗下數字業務的資深合伙人更聰明。2014年,維基百科上約15%的編輯量是由機器人完成的。

 

  但是,世上的事情都是如此:算法既可以用於攻擊,也可以用於防禦。有時,算法之間可以通過非故意和不可預測的方式相互作用。由於算法在諸如社交媒體、金融市場、網絡安全、自主武器系統(AWS)和自動駕駛汽車網絡等不同領域發揮如此核心的作用,人類越來越迫切地需要理解這種相互作用。

 

  今年2月研究期刊《公共科學圖書館?綜合》(PLoSONE)發表的一篇論文發現,即使那些出於完全善良意願而設計的機器人,也可能會花費數年時間彼此爭鬥。這篇論文分析了十年來維基百科上機器人的使用情況。

 

  在一次這樣的爭鬥中,Xqbot和Darknessbot在3629個條目——從亞歷山大大帝(AlexandertheGreat)到阿斯頓維拉(AstonVilla)足球俱樂部——上發生了衝突,反覆撤消和更正對方的編輯結果。

 

  人工智慧和物聯網成「保險科技」熱點

 

  在保險科技領域,從事人工智慧和物聯網業務的初創企業去年在吸引新投資方面最成功,保險公司對相關技術寄予厚望。

 

  來自牛津網際網路學院(OxfordInternetInstitute)和圖靈研究所(AlanTuringInstitute)的幾位論文作者對這些發現感到吃驚。他們得出結論,我們需要對這些機器人之間的相互作用給予更多關注。「我們對我們的數字小黃人的生活和進化知之甚少。」

 

  維基百科的機器人生態系統有門禁,受到監控。但在網際網路所觸及的許多其他領域,情況並非如此:惡意機器人——通常結成協作的殭屍網絡(botnet)來工作——可能會失控。

 

  幾位作者突出強調了這種機器人模仿人類、在社交媒體上「傳播政治宣傳言論或影響公共話語」的危險。數字操縱的威脅如此嚴峻,以致一群歐洲專家甚至質疑民主在大數據和人工智慧時代還有沒有活路。

 

  要說我們正在逼近一個緊要關頭,也許不太誇張。在某種意義上,真理是否正由電子手段確定?我們是否正如歐洲學者所害怕的那樣,正成為曾經聽命於我們的「數字小黃人」的「數字奴隸」?一些算法之間交互作用的規模、速度和效率開始達到人類無法理解的複雜程度。

 

  如果你真的想在冬日暗夜裡嚇唬自己的話,你應該讀一讀蘇珊?布萊克莫爾(SusanBlackmore)有關這個題材的作品。這位心理學家認為,通過創建這樣的計算機算法,我們也許已不經意地釋放出一個「第三複製因子」——她最初稱之為技因(teme),後來改稱為treme。

 

  第一複製因子是決定我們生物進化的基因。第二複製因子是人類的迷因(meme)——如語言、寫作和金錢——迷因加速了文化演變。但現在,她認為,我們的迷因正在被非人類的treme取代,treme符合她對於複製因子的定義,即「可以有變化和有選擇地複製的信息」。

 

  「我們人類正在被新技術所改造,」她在最近的一次講座中說,「我們把一種最驚人的力量放出來了。」

 

  目前,布萊克莫爾教授的理論仍游離於學術辯論的邊緣。牛津大學(UniversityofOxford)機器學習教授史蒂芬?羅伯茨(StephenRoberts)說,Treme或許是個有趣的概念,但他認為,我們並未失去控制權。

 

  「人工智慧(AI)算法失控將產生很多負面後果,」他說,「但現在,我們距離這個局面還有很遠的距離。」

 

  更緊迫的問題是,用他的話說,政治和商業利益集團已學會了「侵入社會」。「謊言可以像真理一樣輕易地複製。我們作為個人和團體,都可能被操縱。」

 

  他的解決方案是什麼?為知識建立類似千年種子銀行(MillenniumSeedBank)那樣的保護計劃。千年種子銀行旨在保護瀕危植物免於滅絕。

 

  「隨著人類讓這個世界上的物種減少,我們在試圖保護這些物種的DNA。隨著真相變得瀕危,我們有同樣的義務記錄下事實。」

 

  但是,正如我們在維基百科中所看到的情況那樣,這並不總是那麼簡單的任務。

相關焦點

  • 人工智慧的發展會失控嗎?
    打開APP 人工智慧的發展會失控嗎?最近幾年,他頻頻提醒人們注意人工智慧的威脅,批評人工智慧的無節制發展。 九三學社中央科技委委員張妍也深以為然。「人工智慧發展的腳步無法阻擋,『安全』就顯得尤為重要。」她說,「我們不是杞人憂天,要知道,防範的成本比補救的成本低很多。」
  • 人工智慧"失控"真的出現了!機器人竟然能自己聊天了...
    現在各種AI設備和應用已經大量的進入了普通人的生活,但人類對於人工智慧的發展也越發警惕。
  • 人工智慧的生物進化視角:讀凱文·凱利《失控》
    《失控》的英文原版標題為Out of Control:The New Biology of Machines, Social Systems, and the Economic World。在中文版中,副標題更換為「全人類的最終命運和結局」。這個更換實在太有吸引力,以至於許多人都拿起了這本像字典一樣厚實的大部頭埋頭苦讀以求窺伺天機。
  • 人類學家胡家奇:科技風險需警惕 瘋狂發展不可為
    人工智慧、基因編輯、納米機器人、尋找外星人等等等等,讓人眼花繚亂,不斷向前,向前,向前……但現實是公正的也是殘酷的,人們向它索取多少利益和財富,它便會給人類帶來等量的危險。人工智慧可以提高生產力,創造可觀的經濟效益,同時也會代替很多勞動力導致失業率增加;基因編輯可以預防和治療疾病,同時也會發生「基因編輯嬰兒」這類不符合倫理或不安全的事件;納米機器人用於診斷疾病,減少病痛,延長壽命,也可以投入戰場,執行攻擊任務,無限倍擴大傷亡;尋找外星人可能幫助人們解開生命起源
  • 第三次世界大戰將是人工智慧的對決嗎?
    從《太空漫遊》到《西部世界》再到《機器姬》,人工智慧一直備受科幻電影的青睞。其中大多數都展現了人工智慧的自主意識和破壞力,也引發了不少觀眾對人工智慧崛起的擔憂。矽谷「鋼鐵俠」馬斯克,就主張對人工智慧的發展保持警惕,曾聯合上百名人工智慧行業高管向聯合國建言:禁止發展致命性自主武器,阻止高科技軍備競賽。那麼,到底什麼是「致命性自主武器」?它會不會成為未來戰爭的趨勢?會不會脫離人類的控制?我們又該如何應對?
  • 更換居住地增加失控慢性病的發病風險
    更換居住地增加失控慢性病的發病風險 作者:小柯機器人 發布時間:2020/10/17 22:44:20 美國退伍軍人事務部Mark D.
  • 江曉原:為什麼人工智慧必將威脅我們的文明?
    中期威脅:人工智慧的反叛和失控我們再來看人工智慧中期的威脅——人工智慧的失控。這種威脅媒體早有報導,但有一些人工智慧的專家出來安慰大家,他們認為人工智慧現在還很初級,即使戰勝了李世石,不過是下個棋,即使它會作詩、寫小說,它還是很低級的,所以不用擔心。這種安慰非常荒謬。
  • 人工智慧時代的刑事立法規劃
    刑法不僅要保護人工智慧發展也要防控人工智慧風險 無論是從預防刑法還是風險刑法的角度來看防控人工智慧風險都是必不可少的 風險實際上與紅利成正比 我們必須準確認識並把握到人工智慧可能存在的各種風險並積極對其進行規制 正如作為工業革命產物之一的汽車在提升了交通運輸效率和提供生活便利的同時也產生了各類危害人們生命、健康和財產安全的交通事故為應對對此風險刑法設立了交通肇事罪和危險駕駛罪等條文 人工智慧刑事立法也必然不能缺少風險防控的內容以對失控
  • 人工智慧給刑事司法系統帶來了嚴重的風險
    人工智慧給刑事司法系統帶來了嚴重的風險 Anusha Rao 如今,人工智慧對人們生活帶來有意義且實質性的影響的能力比以往任何時候都要巨大。與此同時,其也導致了許多難以解決的多層面的問題的形成。
  • 警惕技術決定論!人工智慧與教育深度融合需破倫理屏障
    「人工智慧緩緩而來,突兀而起。」 這是全國政協人口資源環境委員會主任、中國發展研究基金會理事長李偉對人工智慧帶來改變的深刻體會。 以網際網路、雲計算、大數據、物聯網、人工智慧等為代表的新經濟正在對教育自身產生著革命性的影響。
  • 全國首例機器人傷人事件:謹慎對待弱人工智慧失控
    在弱人工智慧時代,機器人即使做出傷害,仍然是在可控範圍之內,產品對應的商家可能負有生產劣質產品的罪名,而我們仍然沒有意識到機器人在不遠的未來不是一個產品,是一個獨立的個體,機器人的行為和大腦發育應該有所受制,否則,機器人蓬勃的發展最後將走向「失控」。 隨後,北京進化者機器人有限公司給出了情況匯報。
  • 人工智慧真有那麼可怕嗎?從哲學看科幻電影的套路
    未來學家們依據摩爾定律紛紛做出了大膽的預測:強人工智慧(strong AI)可能在2025年左右實現。這似乎意味著,超級智能可能以出乎意料的井噴方式出現。不得不看到,這其中暗含了人工智慧研發行業吸引風險投資的策略性發言,但技術演進可能引發的倫理和社會風險,值得從哲學角度來加以未雨綢繆的審視。「智能」是人類特有的嗎?
  • 專訪政治學者高奇琦:如何「馴服」人工智慧(下)
    高奇琦:人工智慧時代,信息保護會變得更為困難,「數據失重」會成為常態。所謂「數據失重」,指的是人在進入大數據時代後,沒有意識到自己的生活已經被數據所包圍,也沒有警惕到數據增多可能帶來的不利影響。在進入資訊時代之前,與個人相關的數據沒有現在那麼多,也很難輕易洩露出去。
  • 探索人工智慧社會治理的中國方案
    但也應該看到,人工智慧在創造經濟發展新引擎、推動人類文明邁上新臺階的同時,模糊了虛擬與現實、數字和實體的界限,給人類社會的法律規範、道德倫理、公共治理等方面帶來了挑戰。人工智慧時代呼喚全新的治理理念和治理形式。當前人工智慧技術正深入發展,人工智慧應用場景不斷豐富,人工智慧開放創新平臺、人工智慧創新發展試驗區建設正如火如荼推進。
  • 人工智慧會否帶來 失控的未來?
    􀳀 鄭渝川 《失控的未來》一書,對於網際網路經濟和數字時代的描繪,秉持一種悲觀意味。 美國未來學家、非營利組織幸福馬拉松項目創始人約翰·C·黑文斯在其所著的《入侵未來》(機械工業出版社2016年6月出版)一書中,表達了對於網際網路經濟、數字時代前景的信心。
  • 科學家解讀人工智慧:當機器有了意識 我們是謹慎接納還是拒絕
    在過往的兩屆世界頂尖科學家論壇上,人工智慧是科學家繞不開的話題。當前的人工智慧遠不如小說那樣先進:它還不具備科幻電影中所描述的意識動機,可這並不能阻止我們擔心:人工智慧危機會發生在人類的未來。澎湃新聞特此整理世界頂尖科學家論壇往屆參與者關於人工智慧倫理困境的討論,希望能幫助讀者撥開籠罩人工智慧的迷霧,看清人工智慧的未來。
  • 方濱興院士:人工智慧安全之我見
    防止人工智慧體行為失控的方案   隨著人工智慧技術的高速發展,人工智慧行為體越來越有可能在不遠的將來成為人類生活重要組成部分。目前,相關研究領域專家已認識到人工智慧存在巨大風險,並從人工智慧安全設計原則、標準規範、道德倫理方面進行呼籲。但是,針對如何設計一個防止具有行為能力的人工智慧系統失控的裝置?該裝置應具備的什麼樣的控制功能和性能指標?該裝置的軟硬體形態是什麼?這些目前尚無研究成果。   人工智慧為什麼會危害人類?前提是要有一個具有行為能力的、由人工智慧來操作的行為體。
  • 落實碳達峰過程中,一系列潛在風險必須引起警惕
    但在此過程中,一系列潛在風險必須引起警惕。減少化石能源消費就是減碳根據最新目標,到2030年,非化石能源佔一次能源消費比重將達到25%左右,風電、太陽能發電總裝機容量將達到12億千瓦以上。「由此可使能源總需求的增量,基本依靠增加非化石能源供應來滿足,從而實現碳達峰。」何健坤稱。在此之前,大量化石能源何去何從?
  • 澳洲山火又失控,今天氣溫飆升至40攝氏度以上
    澳大利亞本周末迎來極端熱浪,氣溫飆升至40攝氏度以上,某些州還增加了森林大火的風險。對此,氣象局表示它將影響數百萬的澳大利亞人。伴隨著高溫而來的,還有山火預警。目前已經有火警警報,從南澳延伸到維州和新州的部分地區。而目前最新,山火已經越發失控了!
  • 霍金:人工智慧一旦失控 將很難被阻止
    人民網6月29日訊 據俄衛星新聞中文信息專線,著名天體物理學家史蒂芬·霍金日前在接受美國記者拉裡·金的專訪時表示,人工智慧一旦脫離控制,將極難被阻止。 霍金稱,自己不認為發展人工智慧「一定能讓人類朝好的方向發展」,「當機器發展到能自己演化的重要階段之時,它們的目標與人類願望之間的相符程度就很難預料了。」