伯克利AI研究:深度神經網絡的物理對抗實例

2020-12-17 騰訊網

  作者|Berkeley Artificial Intelligence Research

  譯者|Liu Zhiyong

  編輯|Debra Chen,Emily

  AI 前線導讀:從語音處理到醫療診斷,儘管深度神經網絡已經在很多領域取得了巨大的成功,但最近的研究結果表明,它們很容易受到對抗幹擾。對 DNN 輸入所進行的這種惡意製作的改變將會導致它們以一種意想不到的和存在潛在危險的方式行事。

  2017 年 8 月,OpenAI 曾發現對抗樣本在圖像不斷變化時可能會失效,他們將一張小貓的圖片放大後,神經網絡分類器輸出的結果變成「桌上型電腦」。MIT 的 LabSix 研究小組在 11 月份也得出了相似的結論,他們在研究中製作了一些受到對抗幹擾的 3D 模型,從而成功欺騙分類器,證明神經網絡分類器完全可以被 3D 對抗樣本完美地欺騙。許多機構和實驗室已經開始注意到 DNN 的這個缺陷,他們用大量的研究向公眾證明了它的潛在危害:基於深度神經網絡的分類器很容易受到對抗樣本的影響,即通過添加小幅度幹擾而從導致對輸入的錯誤分類。

  不久前,加州大學伯克利 AI 研究團隊發布了一篇文章 [1],詳細的闡述了深度神經網絡的物理對抗示例。這篇文章是基於基於 Ivan Evtimov、Kevin Eykholt、Earlence Fernandes、Tadayoshi Kohno、Bo Li、Atul Prakash、Amir Rahmati、Dawn Song 和 Florian Tramer 的最新研究撰寫。

  更多乾貨內容請關注微信公眾號「AI 前線」,(ID:ai-front)

  深度神經網絡(DNN,Deep neural network)在各種應用領域都取得了很大的進展,包括圖像處理、文本分析和語音識別等。在許多信息物理系統(cyper-physical system)中,DNN 也是一個重要的組成部分。例如,自動駕駛汽車的視覺系統可以利用 DNN 來更好地識別行人、車輛和道路標誌。然而,最近的研究表明,DNN 很容易受到攻擊:在輸入中加入精心設計的對抗性幹擾,可以誤導目標 DNN 在運行時錯誤標記它們。當在現實世界中應用 DNN 時,這樣的對抗示例帶來了安全性問題。例如,對抗幹擾的輸入,可能會誤導自動駕駛汽車的感知系統,將道路標誌錯誤分類,從而有可能會產生災難性的後果。

  人們已經提出了一些技術,用來產生對抗的示例來防禦它們。在這篇博文中,我們將簡要介紹最先進的算法,以生成數字對抗的示例,並討論我們的算法,在不同的環境條件下,在真實的物體上生成物理對抗的示例。我們還將提供有關我們為目標探測器生成物理對抗示例的更新。

  數字對抗示例

  在白盒設置中,人們已經提出了不同的方法來產生對抗示例,而對抗目標完全可以訪問 DNN。白盒設置假設一個強大的對抗目標,因此可以幫助人們開發未來的傻瓜式防禦奠定基礎。這些方法有助於理解數字對抗的示例。

  Goodfellow 等人提出了一種快速梯度法 [2],該方法應用損失函數的一階近似來構建對抗樣本。人們基於優化 [3] 的方法,也提出了針對目標攻擊的對抗幹擾。具體來說,這些攻擊制定了一個目標函數,其解決方案旨在最大限度地提高輸入真實標記和攻擊者期望的目標標記之間的差異,同時最小化輸入相似度的定義。在計算機視覺分類問題中,一個常用的測量方法是輸入向量的 L2 範數。通常,低 L2 範數距離的輸入將彼此更接近。因此,有可能計算出與人眼非常相似的輸入,但是對於分類器而言是非常不同的。

  最近的工作已經研究了數字對抗示例的黑盒 [4] 轉移性,在黑盒設置中產生對抗示例也是可能的。這些技術包括以白盒方式生成另一個已知模型的對抗示例,然後針對目標未知模型運行它們。

  物理對抗示例

  為了更好地理解這些缺陷,我們已經就對抗示例如何影響在物理世界中部署的 DNN 進行了廣泛的研究。

  Kurakin[5] 等人指出,通過智慧型手機的攝像頭,觀看列印的對抗性樣本可能會被錯誤分類。Sharif[6] 等人通過在眼鏡框上列印對抗幹擾來攻擊人臉識別系統。他們的研究工作證明了在相對穩定的物理條件下成功的物理攻擊,在姿勢、距離攝像頭的距離 / 角度以及燈光的變化很小。這有助於理解穩定環境中的物理示例。

  我們最近的一項研究:「基於深度學習模型的對物理世界的健壯性攻擊 [7]」顯示了對分類器的物理攻擊。(文末有兩個視頻 [8][9])Athalye[10] 等人表示,對在物理世界中對抗性輸入進行轉換的數字優化,可以產生針對分類器的 3D 對象的有效的對抗示例。作為下一個邏輯步驟,我們演示了對目標探測器的攻擊。這些計算機視覺算法識別場景中的相關目標,並預測顯示目標的位置和種類的邊框。與分類器相比,探測器在處理整個圖像時更具有挑戰性,並且可以在預測中使用上下文信息(例如,場景中目標對象的方向和位置)。

  我們演示了 YOLO[11] 探測器的物理對抗實例,YOLO 探測器是一種很受歡迎的最新算法,具有良好的實時性。我們的示例,是在一個真正的 STOP 標誌上採用貼紙幹擾的形式,下圖顯示了我們的物理對抗幹擾示例。

  我們還通過錄製視頻來進行動態測試,來測試檢測性能。從視頻中可以看出,YOLO 網絡在幾乎所有的幀中都沒有感知到 STOP 標誌。如果一輛真正的自動駕駛汽車行駛在道路上,有這樣一個對抗的 STOP 標誌,它將不會看到這個標誌並停車,這樣可能會導致在十字路口發生碰撞。我們創建的幹擾對於距離和角度的變化是非常有效的:這是自動駕駛汽車場景中最常見的變化因素。

  更有趣的是,為 YOLO 探測器生成的物理對抗示例也能夠欺騙標準的 Faster-RCNN[12]。我們的演示視頻包含一個動態的測試,在 Faster-RCNN 上的物理對抗的示例。由於這是對 Faster-RCNN 的黑盒攻擊,攻擊並不像在 YOLO 示例那樣成功。這是預期的行為。我們相信,通過附加技術(如整體訓練),黑盒攻擊可以變得更加有效。此外,特別優化對 Faster-RCNN 的攻擊將產生更好的結果。下圖是 Faster-RCNN 沒有感知到 STOP 標誌的一個示例。

  在這兩種情況下(YOLO 和 Faster-RCNN),只有當相機非常靠近標誌(大約 3~4 英尺遠)時,才會檢測到停止標誌。在實際環境中,這段距離對於車輛而言太過接近,無法採取有效的糾正措施。

  攻擊算法概述

  這個算法是基於我們之前的攻擊分類器的工作原理。從根本上說,我們採取優化方法來產生對抗的示例。然而,我們的實驗經驗表明,為探測器生成健壯的物理對抗實例需要模擬一組變化更大的不同物理條件,而非用來欺騙分類器。這很可能是因為探測器在生成預測時需要考慮更多的上下文信息。該算法的關鍵屬性包括指定物理條件模擬序列的能力,以及指定平移不變性屬性的能力。也就是說,無論目標對象位於場景內何處,幹擾都應該是有效的。由於對象可以在場景中自由移動,取決於觀察者,如果對象移動,此屬性的幹擾可能會中斷。

  潛在的防禦

  鑑於數字和物理世界中都有這些對抗性示例,潛在的防禦方法也被廣泛研究。其中,不同類型的對抗訓練方法是最有效的。Goodfellow 等人 [13] 首次提出了對抗訓練是提高神經網絡健壯性的有效方法,Tramèr 等人 [14] 將其延伸到集體對抗性學習。Madry 等人 [15] 也提出了通過迭代訓練和對抗性示例來建立健壯的網絡。要進行對抗性訓練為基礎的防禦,需要大量的對抗性示例。此外,這些對抗性的示例可以使防禦更加健壯,如果它們來自集合訓練工作的不同模型。集合對抗訓練的好處在於增加對抗實例的多樣性,使得該模型可以充分發掘對抗性示例的空間。還有其他類型的防禦方法,但 Carlini 和 Wangner[16] 已經表明,這些現有的防禦方法都沒有足夠強大的防禦能力。

  總的來說,我們還需要很長一段時間才能找到最佳的防禦策略來對抗這些對抗示例。我們期待著探索這個令人興奮的研究領域。

  [1] Physical Adversarial Examples Against Deep Neural Networkshttp://bair.berkeley.edu/blog/2017/12/30/yolo-attack/

  [2] Explaining and Harnessing Adversarial Exampleshttps://arxiv.org/abs/1412.6572

  [3] Towards Evaluating the Robustness of Neural Networkshttps://arxiv.org/abs/1608.04644

  [4] Transferability in Machine Learning: from Phenomena to Black-Box Attacks using Adversarial Sampleshttps://arxiv.org/abs/1605.07277

  [5] Adversarial examples in the physical worldhttps://arxiv.org/abs/1607.02533

  [6] Accessorize to a Crime: Real and Stealthy Attacks onState-of-the-Art Face Recognitionhttps://www.cs.cmu.edu/~sbhagava/papers/face-rec-ccs16.pdf

  [7] Robust Physical-World Attacks on Deep Learning Modelshttps://arxiv.org/abs/1707.08945

  [8] Youtubehttps://www.youtube.com/watch?v=1mJMPqi2bSQ&feature=youtu.be

  [9] Youtubehttps://www.youtube.com/watch?v=xwKpX-5Q98o&feature=youtu.be

  [10] SYNTHESIZING ROBUST ADVERSARIAL EXAMPLEShttps://arxiv.org/pdf/1707.07397.pdf

  [11] YOLO: Real-Time Object Detectionhttps://pjreddie.com/darknet/yolo/

  [12] Tensorflow Faster RCNNhttps://github.com/endernewton/tf-faster-rcnn

  [13] Explaining and Harnessing Adversarial Exampleshttps://arxiv.org/abs/1412.6572

  [14] Ensemble Adversarial Training: Attacks and Defenseshttps://arxiv.org/abs/1705.07204

  [15] Towards Deep Learning Models Resistant to Adversarial Attackshttps://pdfs.semanticscholar.org/bcf1/1c7b9f4e155c0437958332507b0eaa44a12a.pdf

  [16] Adversarial Examples Are Not Easily Detected: Bypassing Ten Detection Methodshttp://nicholas.carlini.com/papers/2017_aisec_breakingdetection.pdf

相關焦點

  • 李沐:在伯克利教深度學習
    原文地址:https://zhuanlan.zhihu.com/p/660624382019 年春季我跟 Alex Smola 一起在加州大學伯克利分校(下面簡稱 Berkeley)教了一門針對本科生的實驗性質的深度學習課程,旨在探索如何有效地教授深度學習。連同兩位助教(Rachel 和 Ryan)和一百來位學生一起度過了高強度的、痛並快樂的四個月。
  • 深度神經網絡中的對抗樣本與學習7篇文章
    對於在物理世界中運行的系統來說,並不總是這樣。本文表明,即使在物理世界場景中,機器學習系統也容易受到對抗樣本的影響。作者列印清晰圖片和對抗圖像,並拍攝列印的圖像,將這些照片裁剪後送入分類器。該過程通過手動攝影進行,並且不需要仔細控制照明等引入多餘變量,具有根據微妙變化破壞對抗擾動的潛力。
  • 清華大學韓旭:神經關係抽取模型 | AI研習社71期大講堂
    深度學習在關係抽取中的研究在近幾年取得了廣泛關注,其中基於遠距離監督、帶有注意力機制的神經網絡模型成為解決問題的主要方法。在本次公開課中,講者將梳理神經模型在關係抽取中的發展脈絡,並分享相關領域的最新工作進展。
  • 深度 | 致研究者:2018 AI研究趨勢
    /)參考閱讀:人工智慧需要自我解釋使用深度神經網絡當然很贊。但是,如果神經網絡無法實現自我解釋,我們怎麼能真正依賴它呢?我想知道的是,為什麼我的神經網絡會認為圖像中出現的是一隻狗,或者為什麼它認為有一個人在笑,又何以判斷我患有一些疾病。但不幸的是,深度神經網絡即便能給出準確的結果,卻無法給我們上述問題的答案。
  • 神經網絡中的對抗攻擊與對抗樣本
    無論是在網絡還是作業系統領域,現實應用中我們或多或少對網絡攻擊和病毒軟體都有所耳聞,那麼在神經網絡這一領域是否存在類似的威脅?果不其然,偶然看到一篇介紹『一像素攻擊』的文章,引發了我對老本行『安全』領域的興趣,於是研究了一下在計算機視覺方面深度學習中的對抗攻擊。我們先用最直觀的方式認識一下什麼是對抗攻擊?
  • 基於神經進化的深度學習模型研究綜述
    摘要 深度學習研究發展至今已可以勝任各類識別、分類、生成任務,但是對於不同的任務,神經網絡的結構或參數不可能只是微小的變化,依然需要專家進行調整
  • 重磅|伯克利《深度無監督學習》2020春季新課來襲!
    【新智元導讀】OpenAI顧問、伯克利加州分校人工智慧實驗室主任、機器人學習實驗室主任攜其博士生,為大家貢獻一門長達4個月的深度無監督學習課程,該課程是深度無監督學習的優秀課程,涵蓋了許多當前的最新水平,尤其是該課程使用了最新的模型更新研究生級課程。最近因為疫情,缺乏防護且人員密集的學校成為了重災區。
  • 讓神經網絡給符號AI打工,MIT和IBM聯合解決深度學習痛點
    連接主義利用知識進行訓練,讓神經網絡具有學習能力,但容易受到對抗攻擊。於是將符號主義和連接主義結合起來的混合式神經-符號AI(neurosymbolic AI)應運而生。科學家用深度神經網絡來構建符號AI所需的知識庫和命題,省去了人工預設的難題,然後使用符號AI對任務進行推理。
  • 用深度神經網絡求解『薛丁格方程』,AI開啟量子化學新未來|Nature...
    最近,來自柏林自由大學(Freie Universität Berlin) 的科學團隊取得了突破性進展,他們發表的一篇名為《利用深度神經網絡解電子薛丁格方程》的論文,登上了《Nature Chemistry》子刊。
  • 譯文 | 讓深度卷積網絡對抗:DCGAN——深度卷積生成對抗網絡
    它只是把經典GAN中的G和D換成了兩個卷積神經網絡(CNN)。但是,並不是直接替換就可以了, DCGAN 對卷積神經網絡的結構做了一些改變,以提高樣本的質量和收斂的速度。具體有哪些改變,將在本文中看到。摘要    近年來,深度卷積神經網絡(CNN)的監督學習在計算機視覺應用上發揮巨大的作用,然而CNN的非監督學習只受到較少的關注。
  • 【官方授權】2018 秋季伯克利大學 CS 294-112 《深度強化學習...
    CS 294-112 《深度強化學習》,於本周四(2018 年 12 月 20 日)正式上線中文字幕版。伯克利大學 CS 294-112 《深度強化學習》為官方開源最新版本,由伯克利大學該門課程授課講師 Sergey Levine 授權 AI 研習社翻譯。
  • 加州伯克利博士:基於隱模型的圖神經網絡設計|NeurIPS 2020論文分享
    近年來,人們對深度學習方法在圖上的擴展越來越感興趣。在多方因素的成功推動下,研究人員借鑑了卷積網絡、循環網絡和深度自動編碼器的思想,定義和設計了用於處理圖數據的神經網絡結構,由此出現了一個新的研究熱點——「圖神經網絡(Graph Neural Networks,GNN)」。
  • 膠囊神經網絡研究現狀與未來的淺析
    深度學習作為人工智慧領域重要的一部分,具有非常廣闊的應用前景,近年來,越來越多的專家學者開始研究深度學習領域相關技術,比較典型的兩個方向就是自然語言處理和計算機視覺,其中計算機視覺的發展大力引領著深度學習領域的進步。介紹了卷積神經網絡的經典模型和深度學習中新型神經網絡模型——膠囊網絡以及其動態路由算法,並對比了二者的優劣性。
  • 資源連結|深度學習教程資源整理(伯克利、斯坦福、MIT、阿里、吳恩達)
    近日,麻省理工學院(MIT)正式開源了在線介紹性課程「MIT 6.S191:深度學習入門」。該課程包括一系列有關神經網絡及其在序列建模、計算機視覺、生成模型和強化學習等方面的基本應用知識。 阿里發布免費深度學習課程:從感知機開始說起課程地址:https://tianchi.aliyun.com/markets/tianchi/aiacademy在今天的 2018 雲棲大會·上海峰會上,阿里巴巴發布了免費的天池深度學習課程,涵蓋了神經網絡基礎、CNN、RNN、遞歸網絡、強化學習以及
  • 深度神經網絡竟然是模塊化的?圖聚類算法解密「黑箱子」權重結構
    十三 發自 凹非寺量子位 報導 | 公眾號 QbitAI深度神經網絡這個黑箱子,似乎有了更清晰的輪廓。我們都知道深度神經網絡性能十分強大,但具體效果為什麼這麼好,權重為什麼要這麼分配,可能連「設計者」自己都不知道如何解釋。
  • 【專知薈萃11】GAN生成式對抗網絡知識資料全集(理論/報告/教程/綜述/代碼等)
    /]用深度學習TensorFlow實現圖像修復參考連結:[http://bamos.github.io/2016/08/09/deep-completion/]四、綜述1.中科院自動化所 中文綜述 《生成式對抗網絡 GAN 的研究進展與展望》參考連結:[https://pan.baidu.com/s/1dEMITo9] 密碼: qqcc五、中文博客資料
  • AI大事件|深度強化學習Bootcamp-視頻講座&實驗
    人工智慧將作為一個研究的重點領域,部分實驗室將把機器學習、計算機視覺和自然語言處理作為研究目標。李飛飛訪談:把人類放在人工智慧的中心來源:WWW.TECHNOLOGYREVIEW.COM連結:https://www.technologyreview.com/s/609060/put-humans-at-the-center-of-ai/?
  • AI算法對抗攻擊和防禦技術綜述「AI核心算法」
    實驗表明,這種簡單的迭代算法可以有效地攻擊深度神經網絡,例如CaffeNet、GoogleNet、VGG和ResNet等。出乎意料的是,這種可在不同樣本中傳遞的擾動同時可以應用到其他不同模型中,例如在VGG上 製作的通用擾動在其他模型上也可以達到53%以 上的攻擊成功率。
  • 今晚AAAI線上分享加州大學伯克利分校:Hessian矩陣下的神經網絡
    最新一期機器之心 AAAI 2020 線上分享,我們邀請到了加州大學伯克利分校 Zhewei Yao 博士為我們介紹將二階方法用於訓練深度神經網絡的最新成果。這是一期硬核的線上分享。目前,機器之心 AAAI 2020 論文分享進行到了第三期,本期我們邀請到了加州大學伯克利分校 Zhewei Yao 博士,他的論文《Q-BERT: Hessian Based Ultra Low Precision Quantization of BERT》被 AAAI 2020 所接收。在這期分享中,他將介紹把二階方法用於訓練深度神經網絡的最新結果。
  • 通俗理解神經網絡與深度學習
    不管是 DeepMind,還是 OpenAI,他們在訓練人工智慧的時候都用到了深度學習,也就是有很多層的人工神經網絡。想必大部分讀者對「神經網絡」的最初印象都來自於大腦神經,顧名思義,神經網絡必然和腦神經有著千絲萬縷的聯繫。那麼神經網絡為什麼會這麼火呢?我們先來看看神經網絡的發家史。1.