OpenAI等機構發布《人工智慧惡意使用》報告,利用AI來犯罪只是時間...

2020-11-22 雷鋒網

雷鋒網(公眾號:雷鋒網) AI 科技評論按:本周,OpenAI 、牛津大學、劍橋大學等14家機構和高校共同發布了一份《人工智慧惡意使用》報告,該報告詳細講述了人工智慧技術潛在的「惡意」用途,以及預防措施。

所謂有人在的地方就有江湖,人工智慧作為一項技術,就像人類歷史中所有的新技術一樣具有兩面性,有人拿它為全人類謀福利,也有人拿它做惡意活動。近年來,人工智慧和機器學習的表現正以前所未有的速度提升,相應的技術要麼已經被應用到日常生活中(例如機器翻譯、醫學影像分析等),要么正投入大量人力、物力進行研發(例如無人駕駛)。但是相比著應用的火熱發展,一直以來人們卻對人工智慧技術的惡意使用缺乏足夠的關注。

2017 年 2 月,牛津大學召開了一次為期兩天的研討會。在這次研討會上,來自人工智慧、無人機、網絡安全、自主武器系統、反恐等各領域的眾多專家匯聚一堂,藉著各自領域的經驗和知識,共同探究了伴隨著人工智慧的發展可能帶來的安全問題。

隨後沿著這次研討的思路,眾多學者又工作了近一年的時間。雷鋒網注意到,在本周二,來自 OpenAI 、人類未來研究所、牛津大學、劍橋大學等機構和高校的共 26 名學者在 arXiv 上發表了他們的研究成果報告《人工智慧的惡意使用:預測、預防和緩解》(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation)。

在準備閱讀 101 頁的報告內容之前,我們不妨先來看下報告的兩位通訊作者 Miles Brundage 和 Shahar Avin 合寫發表在 wired 的一篇淺顯的介紹文章《 利用AI來犯罪只是時間問題 》(It's only a matter of time before criminals turn AIs against us)。作者認為,人工智慧研究人員在開發新應用程式時需要考慮安全因素;如果他們不這樣做,罪犯就會利用這項技術來做惡意活動。

利用AI來犯罪只是時間問題

有一天你接到一個陌生電話 - 一聽原來是你女兒打來的,聲音顯得很恐慌而且語無倫次。她在旅行,丟了手機和錢包,她需要幫助,需要你給她寄些錢。你可能不是一個容易受騙的人,但這就是她的聲音。

通過合成語音且能多輪對話的詐騙技術可能還沒有出現,但是現在全球範圍內已經有一千多個家長收到了他們自己的個性化電子郵件和語音郵件。犯罪分子利用算法抓取了社交媒體上的視頻和照片,並創建了針對性很強的定製消息,甚至合成受騙者親人朋友的聲音。這些都是使用人工智慧以最低的人力成本完成的。

人工智慧最近取得了重大進展,但不幸的是這也使得上述情景變得越來越合理。正如這篇報告所指出的人工智慧技術是「雙重用途」,雖然它將以多種方式使社會受益,但它也將會被惡意使用。犯罪分子、恐怖分子和流氓國家將利用這些強大的工具來危害人們的日常生活。因此我們必須要更加系統地去探索如何預測、預防和緩解這些惡意用途的方法。

其實,人工智慧的惡意使用不僅僅是威脅到人們的財產和隱私——可能更令人擔憂的是,它會威脅到人們的生命。 無人機和其他網絡物理系統(如自動駕駛車輛和智能醫療設備)的激增為恐怖分子、黑客和罪犯提供了非常誘人的目標和工具。可能的情況包括利用自動駕駛汽車製造車禍,或將便宜的商業無人機改造成面部識別飛彈。

另一方面,人工智慧也可能會影響政治安全。最近美國特別顧問羅伯特·穆勒的起訴書就指稱,俄羅斯有一個80多人的全職專業團隊破壞2016年美國總統選舉。

當專業的網絡釣魚能發布廉價、高度可信的虛假視頻時會發生什麼?現在已經有工具可以從原始音頻文件中創建假視頻,也有一些工具可以讓我們合成聽起來像某個人的假音頻。將兩者結合起來,就可以創建完全虛假的新聞視頻。如果他們能夠使用基於「強化學習」和其他 AI 方法的技術來控制一大批半自主機器人程序會發生什麼?如果他們能夠通過廉價的個性化宣傳精確地針對目標人群,又會發生什麼?那麼可能一個 8 人的釣魚團隊充分利用人工智慧將能夠發揮 8000 人的水平。

面對這些新興的風險,我們並不是無可奈何的,但我們需要承認這些風險的嚴重性並採取相應的行動。這需要決策者與技術研究人員密切合作,調查、預防和緩解人工智慧的潛在惡意用途。

當涉及到人工智慧的道德影響時,AI 研究人員和公司已經在思考和承擔相應的責任。已經有成千上萬的人籤署了一封要求強健、有益的人工智慧的公開信。AI 公司也正在通過人工智慧合作夥伴關係(Partnership on AI)開展合作。此外,也逐漸地出現了一些道德標準,例如 Asilomar AI Principles 和 IEEE Ethically Aligned Design。這種責任文化在安全方面顯然需要繼續下去並得以深化,而不僅僅是現在佔據主要篇幅的無意傷害問題(例如安全事故和偏見)。

人工智慧研究人員和僱用他們的組織處於塑造新興安全領域的獨特位置。這需要他們去探索一系列解決方案,可能這些方案會讓當今的學術文化圈感到不舒服 ,比如推遲某些技術的出版,以便開發相應的防禦措施,這在網絡安全領域更為常見。

當然,我們需要考慮一些更為棘手的問題:什麼樣的人工智慧研究更容易被惡意利用?需要開發哪些新技術來更好地抵禦可能的攻擊?哪些機構和機制可以幫助我們在最大限度地利用人工智慧的好處與最大限度地降低安全風險之間取得適當的平衡?也許我們越早解決這些問題,上面的電話欺騙場景就越不可能成為現實。

報告內容提要

報告《人工智慧的惡意使用:預測、預防和緩解》調查了惡意使用人工智慧技術可能帶來的安全威脅,並提出了更好的預測、預防和緩解這些威脅的方法。報告中詳細分析了 AI 可能在數字安全、物理安全、政治安全等方面帶來的威脅,隨後還為 AI 研究人員和其他利益相關者提出了四項高層次的建議。此外,在報告中還提出了幾個有發展前景的領域,以便進一步的研究,從而能擴大防禦的範圍或者使攻擊效率降低/更難執行。在報告的最後,作者還分析了攻擊者和防禦者之間的長期平衡問題,不過並沒有明確地解決這個問題。

作者在報告中,不無擔憂地說:如果沒有制定出足夠的防禦措施,我們可能很快就會看到究竟哪類攻擊會先出現了。

下面我們將給出這篇報告的內容提要。

AI 安全格局

隨著AI性能變得越來越強大和廣泛,我們預計越來越多 AI 系統的使用將會導致以下安全格局的變化:

  • 擴大現有安全威脅。通過可擴展地使用AI系統來完成通常需要人力、智力和專業知識的任務,攻擊的成本會大大的降低。一個自然的結果就是擴大了能夠進行特定攻擊的人群範圍,提升了執行這些攻擊的速度,增加了可攻擊的潛在目標。

  • 引入新的安全威脅。通過使用 AI 系統,新的安全攻擊可以完成對人類攻擊者來說不可能完成的任務。另外,安全維護人員開發的 AI 系統漏洞也會給惡意攻擊者帶來新的可乘之機。

  • 改變安全威脅的典型特徵。我們有理由認為伴隨著AI應用的快速發展,安全攻擊將會高效、有針對性、難於歸因且難以防守,這將在很大程度上改變傳統網絡安全的典型特徵。

三個安全領域

報告中詳細分析了三個安全領域(數字安全、物理安全和政治安全),並通過一些代表性的例子說明了在這些領域中可能發生的安全威脅變化。

(ImageNet 基準測試圖像識別的最新進展。 圖表(2017年8月25日檢索)來自電子前沿基金會的 AI Progress Measurement 項目)

(GANs 合成人臉,圖片分別來自 Goodfellow et al. (2014), Radford et al. (2015), Liu and Tuzel (2016), and Karras et al. (2017) 等論文)

  • 物理安全。使用 AI 來自動執行與無人機或其他物理系統(例如部署自主武器系統)攻擊有關的任務,這將會擴大與這些攻擊相關的威脅。此外,使用 AI 也可能會導致出現新型的攻擊,包括破壞網絡物理系統(例如導致自動駕駛車輛崩潰)、遠程入侵物理系統(例如使用成千上萬的微型無人機)。

  • 政治安全。使用 AI 來自動化監測(例如分析大量收集的數據)、說服(例如創建有針對性的宣傳)、欺騙(例如修改視頻),可能會擴大與侵犯隱私和操縱社交相關的威脅。此外,新型的攻擊可能利用AI逐漸提升的能力,在現有數據的基礎上分析人類的行為、情緒、信仰等,這些將會對專制國家帶來很大的威脅,但不可否認也將威脅民主國家(例如能否維持公開辯論的真實性)。

四項高層次建議

針對不斷變化的威脅環境,我們提出了四項高層次的建議:

  • 密切合作。決策者應與技術研究人員密切合作,調查、預防和緩解人工智慧的潛在惡意用途。

  • 認真對待。人工智慧領域的研究人員和工程師應認真對待他們工作的雙重用途,在研究和開發中允許誤用相關考慮因素能影響研究/開發的重點和規範,並在有害應用可預見時主動與相關行為者接觸。

  • 制定方案。應在研究領域用更多成熟的方案來確定最佳實踐方法來解決雙重用途問題(像解決計算機安全一樣)以及哪些地方能夠應用 AI。

  • 擴大討論範圍。積極尋求擴大參與討論這些挑戰的利益相關者和領域專家的範圍。

探索未決問題和潛在幹預措施

除了上面列出的高層次建議之外,我們還建議在四個優先研究領域探索幾個未決問題和潛在幹預措施:

  • 與網絡安全社區共同學習。 在網絡安全和人工智慧攻擊的交叉領域,我們強調需要探索並潛在實施紅隊聯盟(red teaming)、形式化驗證、AI 漏洞負責任的披露、安全工具和安全硬體。

  • 探索不同的開放模式。隨著 AI 和 ML 的雙重用途性質變得越來越明顯,我們強調有必要圍繞研究的開放性重新設計規範和制度,首要進行的包括特別關注的技術領域預印本風險評估、中心訪問許可模式、有利於安全和保障措施的共享制度以及其他雙重用途技術的相關經驗。

(隨著開放內容的增加,使用 AI 的技能要求越來越低)

  • 促進責任文化。人工智慧研究人員和僱用他們的組織處於一種獨特的位置,他們將塑造人工智慧世界的安全格局。我們強調教育、道德聲明和標準、框架、規範和期望的重要性。

  • 發展技術和政策解決方案。 除了上述內容,我們還調查了一系列有前景的技術以及政策幹預措施,這些技術可以幫助我們建立一個更安全的 AI 未來。 進一步的高級領域的研究包括隱私保護、AI 公共安全的協調使用、AI相關資源的監管以及其他的立法和監管響應。

提議的幹預措施不僅需要人工智慧研究人員和公司關注和採取行動,還需要立法人員、公務人員、監管機構、安全研究人員和教育工作者對此的關注以及行動。 挑戰是艱巨的,風險是高昂的。

文中彩蛋

今天早上,報告作者 Miles Brundage‏ 教授發推文說——

Miles Brundage‏:就不信有人能發現《AI惡意使用報告》中的彩蛋;誰發現,我就給誰買一杯咖啡,或者發一個魚叉釣魚郵件,你自己選擇吧~

Abhishek:有暗示嗎?

Miles:有,兩個。

Brubbo:難道是隱藏了一張對抗圖像?

Miles:猜的好,不過不是。

Rob:你不會讓我花一星期時間裡重讀這101頁報告吧?/(ㄒoㄒ)/~~

Miles:把報告再讀一遍也值一杯咖啡。:)

然而聰明、細心、又具挑戰精神的人從來都不缺。不到六個小時,就有人從101頁的報告中找出了Miles教授說的神神秘秘的彩蛋。

雷鋒網註:Miles Brundage 和 Shahar Avin 是本報告的兩個主要作者,分別來自牛津大學人類未來研究所和劍橋大學存在風險研究中心;Murray 為倫敦皇家理工學院教授,並擔任 DeepMind 的高級研究科學家。P27 和 P28 頁為報告中針對物理安全和政治安全假象的兩個安全威脅案例。

報告目錄:

00. 內容提要

01. 引言

研究範圍

相關文獻

02. AI 和安全威脅的總體框架

AI 的性能

AI 安全相關特性

總體影響

三種情景

03. 安全領域

數字安全

物理安全

政治安全

04. 幹預

建議

進一步研究的優先領域

05. 策略分析

影響 AI 與安全均衡的因素

總體評估

06. 結論

感謝

參考文獻

附錄A:研討會細節

附錄B:未來研究的一些問題

相關文章:

邀請函or挑戰書?OpenAI 喊你研究 7 個未解 AI 問題

避免與特斯拉產生利益衝突,馬斯克退出 OpenAI

雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 人工智慧的產生源於古代人類對計算機編程幻想的各種可能性
    前不久看到阿爾法狗處於對弈狀態的時候,我就想如果阿爾法狗能夠戰勝人類,或許我們也可以順便把一些深度學習方面的科普知識講講,那麼人工智慧究竟是什麼呢?人工智慧的產生源於古代人類通過計算機編程了解或者說是幻想了各種可能性,現在的人工智慧基本上是以人類的思考模式來思考問題,依據人類與世界相通的物理學來研究世界。
  • AI計算量每年增長10倍,摩爾定律也頂不住|OpenAI最新報告
    至於為何發布AI計算量報告?OpenAI說,是為了用計算量這種可以簡單量化的指標來衡量AI的發展進程,另外兩個因素算法創新和數據難以估計。(註:OpenAI原報告引用18個月作為摩爾定律的翻倍時間,之後修正為2年。)AI硬體的4個時代對算力的爆炸式需求也催生了專門用於AI運算的硬體,從1959年至今,AI硬體經歷了4個不同的時期。
  • AI 遇冷?斯坦福年度 AI 報告來揭秘
    AI 的發展究竟是處於黃金時代,還是進入了寒冬期,或許能夠從斯坦福最新發布的《斯坦福 2019 全球 AI 報告》中窺見一二。自 2017 年以來,全球 AI 指數報告已成為業界重要參考。值得一提的是,史丹福大學此次還發布了兩個工具,一個是可以在學術論文預印網站 arXiv 上檢索人工智慧論文的「人工智慧指數arXiv 監測器」 (arxiv.aiindex.org);另一個是「全球人工智慧活力工具」 (vibrancy.aiindex.org) ,公眾可以通過 34 個指標比較 28 個國家/地區的表現。
  • 人工智慧利用神經網絡來控制機器
    人工智慧利用神經網絡來控制機器,或者是人工智慧根據預定的規則來控制機器.人工智慧可以用於搜索,診斷,預測,監控和機器人等諸多方面.人工智慧為人類提供了創造性解決方案,這個解決方案不僅能創造出改變,同時還能控制它們.世界對於人工智慧抱有非常樂觀的態度,因為它們讓人類工作變得更加高效.然而,智能的出現時間還很短暫,遠沒有到大眾普遍接受的階段.那麼,人工智慧未來的發展方向到底是什麼
  • 2019 AI Index 年度報告:人工智慧領域發展重心解讀
    近日,AI Index 發布了 2019 年度報告。作為一個用於追蹤 AI 動態和進展的非營利性項目,其報告通常從研發、技術、性能等多個指標出發,對上一年度中 AI 領域的發展進行統計。筆者在了解之後,結合其他各項報告的數據,對AI領域的變化進行了一個歸納與猜想。
  • OpenAI發布強化學習環境Gym Retro:支持千種遊戲
    Gym 是 OpenAI 發布的用於開發和比較強化學習算法的工具包。使用它我們可以讓 AI 智能體做很多事情,比如行走、跑動,以及進行多種遊戲。目前,它運行在支持 Python 3.5 和 3.6 的 Linux、macOS 和 Windows 系統上。
  • AI犯罪細節首次披露:你的個人信息這樣被破解
    (原標題:人工智慧犯罪細節首次披露:你的個人信息是這樣被破解的)  人類圍棋界「最強大腦」敗於人工智慧Alphago時,另一人工智慧已經進入違法犯罪的黑色領域。  一起普通的網絡代付詐騙,牽出一個利用人工智慧技術、一秒鐘盜取2000組公民信息數據的犯罪團夥。
  • 2019 AI Index 報告出爐:AI 領域取得的進展很多,但結果憂喜參半
    雷鋒網 AI 科技評論按:當地時間 12 月 11 日,斯坦福「以人為本」人工智慧研究院與 OpenAI 合作完成的2019 AI Index 年度報告發布。作為史丹福大學「AI100」項目的一部分,AI Index 旨在研究影響人工智慧產業的最大趨勢、突破性研究進展以及人工智慧對社會的影響,今年已是該報告發布的第三個年頭。
  • 通過面相預測犯罪,準確率高達80%?美國一新研究引發聯合抵制
    在論文中,研究人員介紹了一種能基於面部圖像預測犯罪的自動化人臉識別軟體,並號稱準確率達到80%。他們認為,人工智慧可以「從圖像中提取出能高度預測犯罪的微小特徵」,還能擺脫種族偏見的影響,有望成為執法利器。今年5月初,哈裡斯堡大學在官網發布消息稱,施普林格·自然集團的研究叢書《計算科學與計算智能的處理》將收錄這篇論文。
  • 發布 | 中國新一代人工智慧發展報告:積極推動AI國際合作
    作為重要智庫成果發布平臺,10月22日上午,2020浦江創新論壇聯合中國科學技術發展戰略研究院、科技部新一代人工智慧發展研究中心、中國科學技術信息研究所、上海市科學學研究所、施普林格·自然集團、同濟大學、上汽集團等多家機構發布了《中國新一代人工智慧發展報告2020》、《全球前沿技術發展趨勢報告》、《2020「理想之城」——面向2035年的全球科技創新城市調查報告
  • AIOpenIndex發布全球人工智慧創新城市榜單,中國32個城市進入世界...
    全球 AI 城市榜單為 AIOpenIndex (http://www.aiopenindex.com/) 全新打造的人工智慧系列榜單。AIOpenIndex 是由清華 AMiner 團隊發起的以數據為基礎的全球性開放平臺,涵蓋學術界和產業界。
  • Android惡意軟體開發的新技術 | 360惡意軟體專題報告
    從惡意軟體開發技術角度看, 2016年惡意軟體利用社會工程學、界面劫持、破解接口、開源項目、簡易開發工具、碎片化代碼、注入系統根進程、篡改系統引導區以及代理反彈技術,成為主要使用的新技術。三、被惡意利用的合法程序(一)破解接口破解接口是指通過逆向軟體某個功能模塊的原理機制後,通過修改並加以利用,達到利用的目的。
  • Android惡意軟體開發的新技術|360惡意軟體專題報告
    雷鋒網按:本文節選自《2016年Android惡意軟體專題報告》,作者:360烽火實驗室,致力於Android病毒分析、移動黑產研究、移動威脅預警以及Android漏洞挖掘等移動安全領域及Android安全生態的深度研究。
  • ​《2020科技趨勢報告》重磅發布,AI 和中國,成為未來科技世界...
    編者按:本文來自微信公眾號「學術頭條」(ID:SciTouTiao),作者:陽光,36氪經授權發布。 近日,未來今日研究所(Future Today Institute)發布了最新版《2020 年科技趨勢報告》,其中包括對人工智慧在內的多項前沿科技未來一年的發展前景進行了展望。根據報告,未來世界科技產業將由中國、人工智慧等趨勢塑造。
  • 《人工智慧之表示學習》報告重磅發布:AI未來發展方向與前景
    導讀:近日,由清華大學人工智慧研究院、北京智源人工智慧研究院和清華-中國工程知識智能聯合研究中心編寫的《人工智慧之表示學習》報告正式發布。該報告主要從概念、理論模型、領域人才、技術趨勢等4個部分,介紹知識表示學習的技術發展和研究最新進展,並展望該技術的未來發展方向與前景。
  • FortiGuard實驗室預測:智能邊緣被利用將顯著改變未來網絡攻擊的...
    攻擊者往往會小心籌謀,從遠程工作人員家庭網絡發起企業網絡攻擊(尤其是在摸清使用趨勢的情況下),以免引起懷疑。最終,他們會利用高級惡意軟體通過新 EAT(邊緣訪問木馬)發現更有價值的數據和趨勢,並執行入侵性活動,例如從本地網絡攔截請求,以入侵其他系統或注入其他攻擊命令。基於邊緣的 Swarm 攻擊:受損的新 5G 設備會為更高階的威脅敞開大門。
  • 醫療中心正在迅速使用人工智慧來識別大血管閉塞和診斷中風
    最近發表的系統評價顯示,主要醫療中心正在迅速使用人工智慧(AI)來識別大血管閉塞(LVO)和診斷中風。儘管AI有可能加快治療速度並解決許多患者的關鍵時間延遲問題,但作者Nick Murray(美國史丹福大學)和同事們承認,該軟體很複雜,不同軟體的性能差異很大。人工智慧產品。
  • Facebook AI 年度總結來啦
    我們發布了許多平臺和工具來幫助其他人將他們的人工智慧研究轉化為生產應用程式,包括我們將目前流行的開源深度學習框架 PyTorch 升級成新的、更通用的 1.0 版本。除了發表廣泛的公共研究論文和相關模型以及數據集外,我們還發現人工智慧有潛力通過 MRI 掃描、災難援助和預防自殺的工具來改善人們的生活。以下是我們過去一年在人工智慧領域所做努力的亮點內容。
  • QuoIntelligence發布《WINNTI組織的新的研究報告》
    通過我們內部的惡意軟體分析,我們相信我們發現的樣本與BfV報告中描述的Winnti樣本高度相似。該樣本還與ESET生成的情報報告共享的Winnti軍械庫的已知特徵相匹配。此外,我們已通知受影響的公司,執法機構,並在發現後向我們的客戶發送警告。
  • 偽基站犯罪的處理防治專項研究報告
    尤其是,冒充移動運營商、銀行等機構,以簡訊扣費、銀行卡逾期等欺騙簡訊息內容誘騙用戶回撥詐騙電話並實施電話詐騙,或者冒充熟人索取匯款。由於偽基站詐騙方式的被害人是數量龐大的不特定多數人,因此詐騙信息類型的偽基站的危害性相對較大。  以發送惡意連結為目的的偽基站,則是指發送包含惡意網絡地址連結的偽基站。