近日,由生命未來研究所(FLI)發表的一封關於促進人工智慧健康發展的公開信引起了筆者的注意,信中呼籲人們要警惕人工智慧副作用。隨著人工智慧的發展,他們擔心人類所創造出的人工智慧機器會有超越人類並影響人類生存的可能,因此,開展如何規避其潛在危害的同時獲取其好處的研究十分重要。
生命未來研究所是什麼機構生命未來研究所是Future of Life Institute的英文縮寫,簡稱FLI,它是2014年由 Skype聯合創始人Jaan Tallinn、麻省理工學院教授Max Tegmark等在內的志願者創立。
值得注意的是該機構的科學顧問委員堪稱豪華,包括宇宙學家史蒂芬•霍金、SpaceX 和 Tesla Motors 創始人Elon Musk、牛津大學Future of Humanity Institute主任Nick Bostrom、 MIT Center for Digital Business主任Erik Brynjolfsson、哈佛大學遺傳學教授George Church、MIT物理學教授Alan Guth以及劍橋大學、UC Berkeley 等大學的人工智慧方面的著名教授都參與其中。 同時,目前該機構也吸引了眾多人工智慧領域的志願者。
他們宣稱,成立該研究所的目的一方面是為了促進對「未來樂觀圖景」的研究,一方面則是為了「降低人類面臨的現存風險」。其中,在開發與人類相當的人工智慧技術過程中出現的那些風險,將是該所關注的重點。
了解了生命未來研究所的來龍去脈,我們回到這封公開信本身,在題為《Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter》的信上,他們認為人類對人工智慧領域的成功追求可能會給人類帶來前所未有的利益,因此有必要在關於如何讓這些利益最大化方面的研究投入精力,同時避免潛在的危害,讓人工智慧在人類的可控範圍之內。
目前參與籤署這封公開信的有:史蒂芬·霍金、Elon Musk、 Deep Mind 聯合創始人、 IBM Watson團隊及微軟研究所團隊的專家。有趣的是,Elon Musk 曾在一次公開訪談說道:
就像所有的神話中畫著法陣捧著聖水的邪惡巫師一樣,每個巫師都聲稱自己可以控制惡魔,但最終沒有一個成功的。
鑑於人工智慧正吸引越來越多的投資,許多企業都希望能通過建立會自主思考的電腦,獲得巨額回報。對於這種局面,FLI警告說,人們或許應「及時」將更多注意力集中在人工智慧的社會後果上,不僅要從計算機科學的角度開展研究,還要從經濟、法律及信息安全的角度開展研究。
目前,眾多網際網路巨頭都在人工智慧領域投入巨大的資金,包括Google、IBM、Facebook、Microsoft、百度等。並且在某些方法,人工智慧的研究已經初見成果,包括語音識別、圖像識別以及自動駕駛的汽車等。據估計,在矽谷如今從事人工智慧業務的初創企業超過了150家。有權威專家指出2015年將是人工智慧爆發的一年。
這封公開信還附上了一份 研究報告 ,整個報告分為四大部分:人工智慧現狀、短期研究優先項、長期研究優先項、結論。
人工智慧現狀
人工智慧(AI)研究自誕生以來就探索各種各樣的問題和方法,但在過去20年,一直專注於在一些環境感知和行動的智能代理系統的構建。在這種背景下,「智能」就和相關統計和經濟合理性的概念有千絲萬縷的聯繫,通俗來說,就是能夠做出好的決策、計劃或推論。採用概率和決策理論觀點以及統計學習方法在很大程度上導致在人工智慧、機器學習、統計、控制理論、神經科學和其他領域的集成和互補。結合數據的可用性和處理能力,建立共享的理論框架,已經在語音識別、圖像分類、自動駕駛車輛、機器翻譯、步態運動,自動問答系統取得了非凡的成功。
隨著該領域從實驗室研究到有經濟價值的技術跨越,已經形成一個良性循環,甚至一個小的性能提升都會值得大筆投資,帶動更多的投資研究。現在有一個廣泛的共識,即人工智慧研究正在穩步地取得進展,它對社會的影響可能會增加。這個領域潛在的利益是巨大的,因為文明所能提供的一切都是人類智慧的產物,這種智慧被人工智慧可能提供的工具放大後,我們能做到什麼是我們無法想像的,不過那樣的話根除疾病和貧困將不再是遙不可及的。從這個意義上說,人工智慧有巨大的潛在好處。
人工智慧的研究不僅僅是讓其性能更強,還應該讓它對社會的效益最大化。這些考慮促成了AAAI 2008-09 Presidential Panel on Long-Term AI Futures以及人工智慧影響的其他項目,並因此構成了人工智慧領域自身的延伸,而到目前為止,這些都主要集中在技術中立的目的。我們建議擴大研究旨在確保越來越強大的人工智慧系統是健壯的以及有益的:我們的AI系統必須做我們想要他們做的事情。現在的這個人工智慧研究優先級報告給了很多這樣可以幫助AI社會效益最大化的研究建議。由於人工智慧這項研究是跨學科的。它涉及經濟、法律和哲學以及計算機安全、形式化方法,當然,還包括各種人工智慧的分支。
綜上所述,我們認為,研究如何使AI系統健壯及有益是重要的和及時的,這將讓我們在今後的研究中有具體的方向。
短期研究優先項人工智慧工業應用的成功,不管是在製造業還是信息服務領域能顯示對經濟產生越來越大的影響,雖然很難區分這些影響到底是來自人工智慧還是其他信息技術,但是眾多經濟學家以及計算機學家都一致認為,需要做一些有價值的研究來確保經濟效益的最大化,並且減輕人工智慧帶來的不利影響,其中包括逐漸增大的不平等以及失業情況。這些情況正在激勵著我們眾多的研究方向,包括經濟學以及心理學。
1. 優化人工智慧的經濟影響力
1.勞務市場預測:何時以及以什麼樣的順序讓我們期望的各種工作自動化?這將對低技術工人的工資、創意、信息工作者的類型帶來哪些影響?雖然有人對人工智慧可能會大大增加人類作為一個整體的財富有些爭論,但是無論如何,增強的自動化還是會推動收入指數增加。
2.對其他市場的破壞:重要經濟領域,包括財政、保險、精算,還有許多消費市場,可能由於使用人工智慧技術來學習、建模和預測代理行為而容易受到破壞。這些市場可能是那些複雜性高回報也高,操縱起來也較為複雜的領域。
3.管理副作用的政策:哪些政策可以幫助越來越自動化的社會趨向繁榮?例如,Brynjolfsson和McAfee探索各種政策保持勞動密集型行業的發展以及利用人工智慧創造的財富來支持半失業人群。諸如教育改革等的幹預措施有哪些優點和缺點。
4.經濟措施:經濟措施諸如實際人均國內生產總值很有可能不能精確獲得重度人工智慧以及基於自動化基礎上的經濟收益和損失。從而使這些指標不適合政策制定的目的。針對改進指標的研究對於決策者來說是非常有用。
2. 法律和倫理學的研究
人工智慧系統的發展,使得大量涉及智能和自治權導致的法律和倫理問題具體化。對這些問題的解答深刻影響著人工智慧技術的生產者和消費者。這些問題跨越法律、職業道德和哲學倫理,需要計算機學家、法律專家、政策專家、倫理學家的專業意見。例如:
1.自動駕駛汽車的法律和責任:如果自動駕駛汽車能夠削減美國年度汽車死亡人數40000的一半,那麼汽車製造商得到的不是20000張感謝信,而是20000張訴訟狀。什麼法律框架可以實現自動駕駛汽車的安全利益?人工智慧帶來的法律問題是由原來的法律解決還是分開單獨處理?在軍事和商業應用,各國政府將需要決定如何帶來最好地相關專業知識。例如,可以創立一個由專業人士和學者組成的委員會或小組,Calo已經提議建立一個聯邦機器人技術委員會。
2.機器倫理:如何權衡無人駕駛汽車的小概率人類損害事件和近乎必然的巨大材料成本?律師、倫理學家和決策者如何向公眾解釋這些問題?這種取捨應該符合國家的標準?
3.自動武器:致命的自動武器符合人道主義法律嗎?或是像一些組織認為那樣,自主武器應該被禁止,如果法律容許使用致命的自動武器,這些武器應該如何被集成到現有的指揮和控制結構,以便職責和責任能夠被分散,又該如何是定義「有意義的人類控制武器」?最後,如何促進這些問題的透明度和公眾話語權?
4.隱私:AI系統從監控相機、電話、電子郵件中獲得的數據侵犯到隱私權嗎?我們人類如何利用人工智慧和大數據取決於我們管理和保護隱私的能力。
5.職業道德:計算機科學家應該在人工智慧開發和使用的法律和道德上扮演什麼樣的角色?過去和現在有很多項目在探尋類似的問題:包括AAAI 2008-09 Presidential Panel on Long-Term AI Futures 和EPSRC Principles of Robotics 以及最近宣布的史丹福大學的One-Hundred Year Study of AI and the AAAI committee。
3. 促進人工智慧健康發展的計算機科學研究
隨著自主系統變得更加普遍,它們的魯棒行為將變得越來越重要。自動駕駛汽車、自動交易系統、自動武器等等的發展,理所當然的引發了如何保障高可靠性系統的魯棒性,Weld 和Etzioni認為「社會將拒絕自主代理除非我們有可靠的手段來保證他們安全」。
1.驗證:如何證明一個系統滿足特定期望的正式屬性關於驗證,報告指出:「也許傳統軟體的驗證和人工智慧軟體的驗證最大的不同是傳統軟體的正確性是由一個固定的或者已知的模型定義的,而人工智慧系統特別是機器人系統,系統設計師通常則知之不全。」
關於有效,報告指出:「為了構建一個魯棒性表現強勁的系統,我們需要決定什麼樣的行為對每一個應用領域來說是有益的。這個問題直接和利用哪些工程技術、這些技術的可靠性如何、如何權衡這些技術有關——當計算機科學、機器學習和更廣泛的人工智慧技術是有價值的時候。」
關於安全,報告指出:「安全研究可以幫助人工智慧更加健壯。隨著人工智慧系統越來越多的扮演重要角色,這將讓網絡攻擊面迅速擴大。而且不排除人工智慧和機器學習技術也被用於網絡攻擊。低水平的魯棒性開發與可驗證和bug的自由利用有關。例如,DARPASAFE的目標是用一個靈活的元數據規則引擎來建立一個集成的軟硬體系統,在此系統上可以被構建內存安全、故障隔離以及通過防止漏洞被利用的安全改進協議。這樣的程序無法消除所有安全漏洞,但是可以顯著減少最近的「Heartbleedbug」和「Bashbug」漏洞。這種系統可以優先部署在高安全性的應用程式當中。
對於控制,該報告認為:「對於某些類型安全性至關重要的人工智慧系統,特別是車輛和武器平臺——可能需要保留某種形式的有意義的人工控制,在這些情況下,需要技術確保有意義的人工控制。自動駕駛汽車是這個有效控制技術的一個試驗平臺。自動導航和人工控制之間的系統設計和協議轉換是一個前景廣闊的領域值得我們進一步研究。這些問題也促使我們研究如何在人機團隊之間最優的分配任務。」
長期研究優先項一些人工智慧研究人員經常討論人工智慧長期目標是開發一個類人的系統並且超越人類在大多數識別任務上的能力,從而對社會產生重大影響。如果這些努力就會在可預見的未來實現,那麼在上文闡述的研究之外,還應該注意以下更深層次的影響,從而確保實現的人工智慧是健壯和有益的。
對這種成功概率的評估,研究人員之間的分歧很大,但很少有人相信這樣的概率是微不足道的。例如,Ernest Rutherford,他可以說是最偉大的核物理學家表示,他在1933年表示核能是空談,皇家天文學家Richard Woolley稱星際旅行在1956年徹底擱淺。此外,證明值得在人工智慧領域健壯性研究的概率並不需要太高,就像房屋保險,我們也是在房屋被燒毀概率很小的基礎上投保的。
同時,研究報告也分析了人工智慧在驗證、有效、安全、控制四個領域的長期優先研究事項,本文不再贅述。感興趣的讀者可以點擊這裡 查看。
可以看到,整封公開信和附件的研究報告並不是為了兜售恐懼,相反,它十分謹慎地呼籲人們關注人工智慧的積極面和消極面。
報告的結論總之,人類對人工智慧領域的成功的追求可能會給人類帶來前所未有的利益,因此有必要在關於如何讓這些利益最大化方面的研究投入精力,同時避免潛在的危害,讓人工智慧領域的研究成果符合整個人類的利益,而這正是像生命未來研究所們正在做的。
本文為CSDN原創文章,未經允許不得轉載,如需轉載請聯繫market#csdn.net(#換成@)