生命未來研究所(FLI)發布人工智慧優先研究計劃

2021-01-10 CSDN技術社區

近日,由生命未來研究所(FLI)發表的一封關於促進人工智慧健康發展的公開信引起了筆者的注意,信中呼籲人們要警惕人工智慧副作用。隨著人工智慧的發展,他們擔心人類所創造出的人工智慧機器會有超越人類並影響人類生存的可能,因此,開展如何規避其潛在危害的同時獲取其好處的研究十分重要。

生命未來研究所是什麼機構

生命未來研究所是Future of Life Institute的英文縮寫,簡稱FLI,它是2014年由  Skype聯合創始人Jaan Tallinn、麻省理工學院教授Max Tegmark等在內的志願者創立。

值得注意的是該機構的科學顧問委員堪稱豪華,包括宇宙學家史蒂芬•霍金、SpaceX 和 Tesla Motors 創始人Elon Musk、牛津大學Future of Humanity Institute主任Nick Bostrom、 MIT Center for Digital Business主任Erik Brynjolfsson、哈佛大學遺傳學教授George Church、MIT物理學教授Alan Guth以及劍橋大學、UC Berkeley 等大學的人工智慧方面的著名教授都參與其中。 同時,目前該機構也吸引了眾多人工智慧領域的志願者。


他們宣稱,成立該研究所的目的一方面是為了促進對「未來樂觀圖景」的研究,一方面則是為了「降低人類面臨的現存風險」。其中,在開發與人類相當的人工智慧技術過程中出現的那些風險,將是該所關注的重點。

了解了生命未來研究所的來龍去脈,我們回到這封公開信本身,在題為《Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter》的信上,他們認為人類對人工智慧領域的成功追求可能會給人類帶來前所未有的利益,因此有必要在關於如何讓這些利益最大化方面的研究投入精力,同時避免潛在的危害,讓人工智慧在人類的可控範圍之內。

目前參與籤署這封公開信的有:史蒂芬·霍金、Elon Musk、 Deep Mind 聯合創始人、 IBM Watson團隊及微軟研究所團隊的專家。有趣的是,Elon Musk 曾在一次公開訪談說道:

就像所有的神話中畫著法陣捧著聖水的邪惡巫師一樣,每個巫師都聲稱自己可以控制惡魔,但最終沒有一個成功的。


鑑於人工智慧正吸引越來越多的投資,許多企業都希望能通過建立會自主思考的電腦,獲得巨額回報。對於這種局面,FLI警告說,人們或許應「及時」將更多注意力集中在人工智慧的社會後果上,不僅要從計算機科學的角度開展研究,還要從經濟、法律及信息安全的角度開展研究。

目前,眾多網際網路巨頭都在人工智慧領域投入巨大的資金,包括Google、IBM、Facebook、Microsoft、百度等。並且在某些方法,人工智慧的研究已經初見成果,包括語音識別、圖像識別以及自動駕駛的汽車等。據估計,在矽谷如今從事人工智慧業務的初創企業超過了150家。有權威專家指出2015年將是人工智慧爆發的一年。

這封公開信還附上了一份 研究報告 ,整個報告分為四大部分:人工智慧現狀、短期研究優先項、長期研究優先項、結論。

人工智慧現狀

人工智慧(AI)研究自誕生以來就探索各種各樣的問題和方法,但在過去20年,一直專注於在一些環境感知和行動的智能代理系統的構建。在這種背景下,「智能」就和相關統計和經濟合理性的概念有千絲萬縷的聯繫,通俗來說,就是能夠做出好的決策、計劃或推論。採用概率和決策理論觀點以及統計學習方法在很大程度上導致在人工智慧、機器學習、統計、控制理論、神經科學和其他領域的集成和互補。結合數據的可用性和處理能力,建立共享的理論框架,已經在語音識別、圖像分類、自動駕駛車輛、機器翻譯、步態運動,自動問答系統取得了非凡的成功。

隨著該領域從實驗室研究到有經濟價值的技術跨越,已經形成一個良性循環,甚至一個小的性能提升都會值得大筆投資,帶動更多的投資研究。現在有一個廣泛的共識,即人工智慧研究正在穩步地取得進展,它對社會的影響可能會增加。這個領域潛在的利益是巨大的,因為文明所能提供的一切都是人類智慧的產物,這種智慧被人工智慧可能提供的工具放大後,我們能做到什麼是我們無法想像的,不過那樣的話根除疾病和貧困將不再是遙不可及的。從這個意義上說,人工智慧有巨大的潛在好處。

人工智慧的研究不僅僅是讓其性能更強,還應該讓它對社會的效益最大化。這些考慮促成了AAAI 2008-09 Presidential Panel on Long-Term AI Futures以及人工智慧影響的其他項目,並因此構成了人工智慧領域自身的延伸,而到目前為止,這些都主要集中在技術中立的目的。我們建議擴大研究旨在確保越來越強大的人工智慧系統是健壯的以及有益的:我們的AI系統必須做我們想要他們做的事情。現在的這個人工智慧研究優先級報告給了很多這樣可以幫助AI社會效益最大化的研究建議。由於人工智慧這項研究是跨學科的。它涉及經濟、法律和哲學以及計算機安全、形式化方法,當然,還包括各種人工智慧的分支。

綜上所述,我們認為,研究如何使AI系統健壯及有益是重要的和及時的,這將讓我們在今後的研究中有具體的方向。

短期研究優先項

人工智慧工業應用的成功,不管是在製造業還是信息服務領域能顯示對經濟產生越來越大的影響,雖然很難區分這些影響到底是來自人工智慧還是其他信息技術,但是眾多經濟學家以及計算機學家都一致認為,需要做一些有價值的研究來確保經濟效益的最大化,並且減輕人工智慧帶來的不利影響,其中包括逐漸增大的不平等以及失業情況。這些情況正在激勵著我們眾多的研究方向,包括經濟學以及心理學。

1. 優化人工智慧的經濟影響力

1.勞務市場預測:何時以及以什麼樣的順序讓我們期望的各種工作自動化?這將對低技術工人的工資、創意、信息工作者的類型帶來哪些影響?雖然有人對人工智慧可能會大大增加人類作為一個整體的財富有些爭論,但是無論如何,增強的自動化還是會推動收入指數增加。

2.對其他市場的破壞:重要經濟領域,包括財政、保險、精算,還有許多消費市場,可能由於使用人工智慧技術來學習、建模和預測代理行為而容易受到破壞。這些市場可能是那些複雜性高回報也高,操縱起來也較為複雜的領域。

3.管理副作用的政策:哪些政策可以幫助越來越自動化的社會趨向繁榮?例如,Brynjolfsson和McAfee探索各種政策保持勞動密集型行業的發展以及利用人工智慧創造的財富來支持半失業人群。諸如教育改革等的幹預措施有哪些優點和缺點。

4.經濟措施:經濟措施諸如實際人均國內生產總值很有可能不能精確獲得重度人工智慧以及基於自動化基礎上的經濟收益和損失。從而使這些指標不適合政策制定的目的。針對改進指標的研究對於決策者來說是非常有用。

2.  法律和倫理學的研究

人工智慧系統的發展,使得大量涉及智能和自治權導致的法律和倫理問題具體化。對這些問題的解答深刻影響著人工智慧技術的生產者和消費者。這些問題跨越法律、職業道德和哲學倫理,需要計算機學家、法律專家、政策專家、倫理學家的專業意見。例如:

1.自動駕駛汽車的法律和責任:如果自動駕駛汽車能夠削減美國年度汽車死亡人數40000的一半,那麼汽車製造商得到的不是20000張感謝信,而是20000張訴訟狀。什麼法律框架可以實現自動駕駛汽車的安全利益?人工智慧帶來的法律問題是由原來的法律解決還是分開單獨處理?在軍事和商業應用,各國政府將需要決定如何帶來最好地相關專業知識。例如,可以創立一個由專業人士和學者組成的委員會或小組,Calo已經提議建立一個聯邦機器人技術委員會。

2.機器倫理:如何權衡無人駕駛汽車的小概率人類損害事件和近乎必然的巨大材料成本?律師、倫理學家和決策者如何向公眾解釋這些問題?這種取捨應該符合國家的標準?

3.自動武器:致命的自動武器符合人道主義法律嗎?或是像一些組織認為那樣,自主武器應該被禁止,如果法律容許使用致命的自動武器,這些武器應該如何被集成到現有的指揮和控制結構,以便職責和責任能夠被分散,又該如何是定義「有意義的人類控制武器」?最後,如何促進這些問題的透明度和公眾話語權?

4.隱私:AI系統從監控相機、電話、電子郵件中獲得的數據侵犯到隱私權嗎?我們人類如何利用人工智慧和大數據取決於我們管理和保護隱私的能力。

5.職業道德:計算機科學家應該在人工智慧開發和使用的法律和道德上扮演什麼樣的角色?過去和現在有很多項目在探尋類似的問題:包括AAAI 2008-09 Presidential Panel on Long-Term AI Futures 和EPSRC Principles of Robotics 以及最近宣布的史丹福大學的One-Hundred Year Study of AI and the AAAI committee。

3. 促進人工智慧健康發展的計算機科學研究

隨著自主系統變得更加普遍,它們的魯棒行為將變得越來越重要。自動駕駛汽車、自動交易系統、自動武器等等的發展,理所當然的引發了如何保障高可靠性系統的魯棒性,Weld 和Etzioni認為「社會將拒絕自主代理除非我們有可靠的手段來保證他們安全」。

1.驗證:如何證明一個系統滿足特定期望的正式屬性
2.有效:如何保證一個系統滿足它的正式需求,而沒有其他無關的行為和後果
3.安全:如何預防系統被未授權人員故意操作
4.控制:如何確保人工智慧系統運行後,在該系統上有意義的人類控制

關於驗證,報告指出:「也許傳統軟體的驗證和人工智慧軟體的驗證最大的不同是傳統軟體的正確性是由一個固定的或者已知的模型定義的,而人工智慧系統特別是機器人系統,系統設計師通常則知之不全。」

關於有效,報告指出:「為了構建一個魯棒性表現強勁的系統,我們需要決定什麼樣的行為對每一個應用領域來說是有益的。這個問題直接和利用哪些工程技術、這些技術的可靠性如何、如何權衡這些技術有關——當計算機科學、機器學習和更廣泛的人工智慧技術是有價值的時候。」

關於安全,報告指出:「安全研究可以幫助人工智慧更加健壯。隨著人工智慧系統越來越多的扮演重要角色,這將讓網絡攻擊面迅速擴大。而且不排除人工智慧和機器學習技術也被用於網絡攻擊。低水平的魯棒性開發與可驗證和bug的自由利用有關。例如,DARPASAFE的目標是用一個靈活的元數據規則引擎來建立一個集成的軟硬體系統,在此系統上可以被構建內存安全、故障隔離以及通過防止漏洞被利用的安全改進協議。這樣的程序無法消除所有安全漏洞,但是可以顯著減少最近的「Heartbleedbug」和「Bashbug」漏洞。這種系統可以優先部署在高安全性的應用程式當中。

對於控制,該報告認為:「對於某些類型安全性至關重要的人工智慧系統,特別是車輛和武器平臺——可能需要保留某種形式的有意義的人工控制,在這些情況下,需要技術確保有意義的人工控制。自動駕駛汽車是這個有效控制技術的一個試驗平臺。自動導航和人工控制之間的系統設計和協議轉換是一個前景廣闊的領域值得我們進一步研究。這些問題也促使我們研究如何在人機團隊之間最優的分配任務。」

長期研究優先項

一些人工智慧研究人員經常討論人工智慧長期目標是開發一個類人的系統並且超越人類在大多數識別任務上的能力,從而對社會產生重大影響。如果這些努力就會在可預見的未來實現,那麼在上文闡述的研究之外,還應該注意以下更深層次的影響,從而確保實現的人工智慧是健壯和有益的。

對這種成功概率的評估,研究人員之間的分歧很大,但很少有人相信這樣的概率是微不足道的。例如,Ernest Rutherford,他可以說是最偉大的核物理學家表示,他在1933年表示核能是空談,皇家天文學家Richard Woolley稱星際旅行在1956年徹底擱淺。此外,證明值得在人工智慧領域健壯性研究的概率並不需要太高,就像房屋保險,我們也是在房屋被燒毀概率很小的基礎上投保的。

同時,研究報告也分析了人工智慧在驗證、有效、安全、控制四個領域的長期優先研究事項,本文不再贅述。感興趣的讀者可以點擊這裡 查看。

可以看到,整封公開信和附件的研究報告並不是為了兜售恐懼,相反,它十分謹慎地呼籲人們關注人工智慧的積極面和消極面。

報告的結論

總之,人類對人工智慧領域的成功的追求可能會給人類帶來前所未有的利益,因此有必要在關於如何讓這些利益最大化方面的研究投入精力,同時避免潛在的危害,讓人工智慧領域的研究成果符合整個人類的利益,而這正是像生命未來研究所們正在做的。

本文為CSDN原創文章,未經允許不得轉載,如需轉載請聯繫market#csdn.net(#換成@)

相關焦點

  • 馬克斯·普朗克研究所:人工智慧機器學習用於預測精神病
    根據《研究與市場》(Research and Markets)在2020年9月發布的一份報告,2020年至2027年,全球抗精神病藥物市場的年增長率為4.1%,預計到2027年將達到218億美元。根據同一份報告,去年,美國在全球抗精神病藥物市場中的份額超過28.8%。人工智慧機器學習能否為臨床醫生提供有關精神病患者的預測?
  • 歐盟委員會發布人工智慧道德準則,擬構建AI全球監管框架
    信息   歐盟委員會發布人工智慧道德準則,擬構建AI全球監管框架   據歐盟委員會官網4月8日消息,歐盟委員會發布人工智慧道德準則,擬構建AI全球監管框架。
  • 未來人工智慧都是心理學家?研究表明:只看眼睛就知道你的性格
    文/姿勢分子(PS:文末有小彩蛋)人工智慧是目前世界上最火熱的科學領域之一,我們越來越多地開發人工智慧,來輔佐人類進行工作。在未來,人工智慧會越來越多地加入到人類的生活中來,甚至所謂的機器人,也將越來越先進。
  • 客戶全生命周期運營管理 快商通人工智慧能力助力企業數位化重塑
    原標題:客戶全生命周期運營管理,快商通人工智慧能力助力企業數位化重塑   日前,國際數據公司(IDC)發布了《IDC FutureScape: 全球人工智慧(AI
  • 琶洲實驗室人工智慧模型算法研究中心啟動
    原標題:琶洲實驗室人工智慧模型算法研究中心啟動   11月26日,2020世界5G大會·第三屆中國(廣東)
  • 人工智慧大事記
    ●20世紀,喬治·布爾的《思維規律的研究》、弗雷格的《概念文字》、伯特蘭·羅素和其老師懷特海的《數學原理》這些著作在數理邏輯研究上有了極大的突破,使得人工智慧呼之欲出。  ●1936年,數學家阿隆佐·邱奇和艾倫·圖靈命名的邱-圖靈論題,提出所有計算或算法都可以由一臺圖靈機來執行,該論題被譽為構建計算機科學的基礎之一。
  • 解碼生命:從多視角看生命
    中國卷 252.2.5 數據及方法的及時發布和應用 272.2.6 HapMap計劃的分期和完成 282.3 人類基因組單體型圖的構建 302.3.1 SNP挖掘和dbSNP庫的擴充 302.3.25 kb-bins的劃分和分型反應的終止規定 312.3.3 HapMap數據概況 312.3.4 數據的質量控制與評估
  • 人工智慧屬於什麼專業_人工智慧專業就業前景如何_人工智慧專業...
    什麼是人工智慧專業   人工智慧,即AI(Artificial Intelligence),是一門包含計算機、控制論、資訊理論、神經生理學、心理學、語言學等綜合學科。人工智慧是從計算機應用系統角度出發,研究如何製造出人造的智能機器或智能系統,來模擬人類智能活動的能力,以及延生人類智能科學。
  • 自然指數2020出爐:美加中日歐的AI研究有何差異?
    導語Nature 雜誌在12月9日發布了人工智慧領域的自然指數 Nature Index,梳理了人工智慧研究的發展動態、國際競爭與合作趨勢等。美國:哈佛、MIT、布羅德三重奏哈佛大學和麻省理工學院在自然指數中的人工智慧領域內,合作產量排名第二。哈佛大學與布羅德研究所(the Broad Institute,是哈佛大學與麻省理工學院等聯合組建的機構)之間的合作是最高產的。
  • 淺析人工智慧在心理學研究中的應用前景
    目前,在人工智慧技術應用於心理症狀識別與診斷的研究中,利用多模型(如視覺和聽覺模型相結合)、多種信息融合(如面部表情和身體動作信息融合)的方法進行心理症狀的識別和診斷已初具成果。 未來發展方向 心理學研究以對人類行為的預測和控制為目標,通過對研究對象外顯行為的探究來描述、解釋心理現象的一般規律。
  • 人工智慧測試:關於無人車測試的案例研究
    原標題:人工智慧測試:關於無人車測試的案例研究雷鋒網新智駕按:近日,清華大學自動化系系統工程研究所副教授李力作為第一作者以及林懿倫,鄭南寧,王飛躍,劉躍虎,曹東璞,王坤峰,黃武陵發表了一篇關於人工智慧測試和無人車測試的英文論文
  • 人工智慧變身「佔卜師」
    當前,雖然這項研究的數據尚少,也沒有走出實驗室,但是,當該醫療「預測」技術一旦普及,比之確實診斷之後的治療,其將預留出更多的黃金時間,以便患者及早治療或是進行預防。行為預測,遏制犯罪行為根據美國國家司法研究所的數據,在刑滿釋放的三個犯人中,有兩個會在三年內再次入獄,75%的犯人會在五年內再次犯罪。
  • 數字經濟發布|中控技術登陸科創板市值突破500億;中國人工智慧專利...
    2020年世界網際網路領先科技成果發布2020年度全球網際網路領先成果主要包含以下幾項:江蘇省未來網絡創新研究院「面向服務的未來網絡試驗環境與技術創新」;阿里雲計算有限公司「神龍:新一代軟硬一體化虛擬技術架構」;高通技術公司「高通驍龍X55 5G數據機及射頻系統賦能中國首批5G物聯網終端和應用落地」;浙江大學、之江實驗室的億級神經元「神經擬態類腦計算機」;卡巴斯基及子公司
  • WEF日前發布《2020年未來工作報告》稱 全球自動化和數位化趨勢正...
    世界經濟論壇日前發布的《2020年未來工作報告》稱,全球自動化和數位化趨勢正加速發展。目前,全球超過80%的企業正在加速布局,推進工作流程數位化,而50%的企業則希望加快實現部分崗位的自動化。管理諮詢公司普華永道的研究顯示:「人工智慧、機器人和其他形式的智能自動化將帶來巨大的經濟效益,到2030年將為全球貢獻15萬億美元的產值。」一些國家積極出臺相關政策,為自動化變革提供了重要推動力。  機器人在日本的應用場景越來越豐富,從企業生產線到物流、教育、服務等都能看到機器人的身影。
  • 青橙獎江蘇驕傲∣34歲博導鄧嶽:用人工智慧破解生命密碼
    2013年獲得了博士學位後,前往美國的兩所世界知名醫學研究中心——西南醫學研究中心和加州大學醫學研究中心,從事AI與生命科學交叉領域的研究。2016年,他加入美國三星人工智慧研究院擔任研究科學家。2019年,回國加入了北京航空航天大學。 如果用一句話總結自己的研究,鄧嶽說就是:深耕人工智慧,賦能生命科學。
  • 重磅| 李飛飛在斯坦福創建「以人為本人工智慧研究院」,AI應是一種...
    斯坦福以人為中心的人工智慧倡議(HAI)從氣候變化到貧困,我們需要關注的議題很多。但是人工智慧有一個特別突出的特點:儘管我們難以確定其影響的全部範圍,但我們集體力量卻能塑造它。這就是為什麼史丹福大學宣布這一項重大的新計劃,要創建一個致力於引導人工智慧未來的研究所。它將支持跨學科研究的必要廣度;促進學術界、工業界、政府和民間社會之間的全球對話;鼓勵負責任的引導。
  • 人工智慧價值觀:技術與倫理的衝突
    當然,現在人工智慧很明顯還沒到可以做夢的地步,就算有也是程序事先設定好的。但是!人工智慧裡倒是出了個「精神變態」。一個沉迷謀殺的人工智慧是什麼樣?前些日子,美國麻省理工學院研究人員創造了「世界第一個精神變態人工智慧」,並將其命名為「諾曼」,這個名字來源於驚悚片大師希區柯克的經典之作《驚魂記》中的變態旅館老闆。
  • 技經觀察|拜登政府未來科研創新資助重點領域
    綜合美國政府發布的2021、2022年度《研發預算優先事項備忘錄》、美國家科學基金會(NSF)各年度資助計劃等多份頂級科技政策文件可以看出,美國自身戰略高科技支持方向主要聚焦於以下幾個方面
  • 自然指數AI增刊:中國在人工智慧(AI)應用研究上居於主導地位
    最新出版的自然指數AI增刊(Nature Index AI supplement)顯示,中國在人工智慧(AI)應用研究上居於主導地位。這是自然指數首次聚焦涉及人工智慧的研究。近年來,計算機能力不斷增強,數據集不斷擴展,算法也變得前所未有的複雜,這讓涉及人工智慧(AI)的期刊論文和會議論文大量增加。
  • 中科普瑞發布國內首個十萬人甲基化組計劃 -- 表觀星圖計劃
    同時,中科普瑞發布國內首個十萬人甲基化組計劃 -- 「表觀星圖計劃」(Epigenetics Atlas Project)。參加此次籤約儀式和發布會的嘉賓包括萬利加集團董事局主席兼總裁李偉波先生、麻薩諸塞大學校長Dr. Michael F.