港中文、MIT 聯合工作:利用NAS搜索針對對抗攻擊的魯棒神經網絡結構

2021-02-23 AI科技評論

本文解讀的是 CVPR 2020 論文《When NAS Meets Robustness: In Search of Robust Architectures against Adversarial Attacks》,作者來自香港中文大學、MIT。

作者 | 楊宇喆

論文連結:https://openaccess.thecvf.com/content_CVPR_2020/papers/Guo_When_NAS_Meets_Robustness_In_Search_of_Robust_Architectures_Against_CVPR_2020_paper.pdf

源碼地址:https://github.com/gmh14/RobNets

 

為了提高深度神經網絡的對抗魯棒性,現有工作集中於研究對抗學習算法或損失函數來增強網絡魯棒性。

在這項工作中,我們從神經網絡結構的角度出發,研究了可抵抗對抗攻擊的神經網絡結構的模式。為了獲得本研究所需的大量網絡,我們採用了One shot神經網絡結構搜索(NAS),對一個super-net進行一次訓練,然後對從中採樣的子網絡進行了對抗微調。採樣的網絡結構及其魯棒性精度為我們的研究提供了豐富的基礎。

我們的「魯棒的神經網絡結構」研究揭示了一些有價值的觀察結果:

1)密集連接的網絡模式可提高神經網絡魯棒性;

2)在有限的模型容量預算下,將卷積運算添加到直連邊是更有效的;

3)FSP(Flow ofSolution Procedure,解決程序流程)矩陣流是檢驗網絡魯棒性的良好指標。

基於這些觀察,我們發現了一系列魯棒的網絡結構(RobNets)。在CIFAR,SVHN,Tiny-ImageNet和ImageNet等大量數據集上,RobNets表現出相比於其他廣泛使用的網絡結構(如ResNet,DenseNet)更高的魯棒性。值得注意的是,RobNets即使在參數數量較少的情況下,也能在白盒和黑盒攻擊下大幅提高魯棒性(絕對增益約為5%)。

深度神經網絡容易受到對抗樣本攻擊:在對抗攻擊下,自然數據(如圖像)會受到人類難以察覺的對抗噪聲幹擾,從而使得神經網絡產生完全錯誤的輸出。為了提高網絡的魯棒性,研究者們提出了大量對抗防禦的方法,其中的主要關注點包括對抗學習算法,損失/正則化函數,以及圖像預處理等。然而,還沒有相關研究探討過與現有防禦機制的一個正交的方面:神經網絡結構本身對其抵禦對抗樣本的影響。在這項工作中,我們嘗試從神經網絡結構的角度去系統地分析、理解神經網絡的對抗魯棒性。具體來說,我們旨在回答以下問題:

什麼樣的神經網絡結構模式是對於對抗魯棒性是至關重要的?

給定一定模型容量的預算,如何分配網絡結構的參數以有效地提高網絡的魯棒性?

魯棒的神經網絡結構的統計指標是什麼?

為了回答上述問題,我們需要訓練大量具有不同網絡結構的神經網絡,並評估其魯棒性以得出結論。然而,這個過程非常耗時,尤其當我們需要引入對抗訓練。針對這個問題,我們提出採用One shot神經網絡結構搜索(NAS)的方法,使得我們可以同時一次性在眾多網絡結構之間評估魯棒性。具體來說,我們首先訓練一個super-net,然後我們從中對網絡結構進行採樣,並對候選子網絡finetune幾個epoch,以在對抗攻擊下獲得較高的魯棒性。我們的研究與分析表明了魯棒的神經網絡具有以下的性質:

1)我們在搜索空間中對1,000個網絡結構進行了統計分析,發現網絡結構密度與對抗精度之間存在很強的相關性。這表明密集連接的模式可以顯著提高網絡的魯棒性。

2)我們在三種不同的模型容量預算下限制參數的數量,並通過實驗發現,在直連邊添加卷積運算對於提高模型的魯棒性更為有效,尤其是對於較小的模型容量預算而言。

3)我們發現原始數據和對抗樣本之間的FSP(Flow of Solution Procedure)的距離可以很好地指示網絡的魯棒性。

基於這些觀察,我們搜索並設計了一系列魯棒的網絡結構,稱為RobNets。我們在CIFAR,SVHN,Tiny-ImageNet和ImageNet等數據集上進行大量實驗,結構表明RobNets相比與廣泛使用的網絡結構,在對抗攻擊下具有更好的魯棒性。

 

1、 搜索框架

1)魯棒搜索空間

我們的工作與傳統NAS工作在搜索空間上的主要區別在於兩個方面:1)我們減少了搜索空間中候選操作總數,僅剩下:3×3 depth convolution,identity和zero三種操作。這有助於減輕對抗訓練的負擔,同時在搜索空間中保留足夠多的候選網絡結構。2)我們不限制兩個中間節點之間的最大操作數(可以多於一種操作,如同時有convolution和identity)。如圖所示,這種設計保證搜索空間能夠包含更多網絡結構,一些經典的人工設計結構也在其中,例如ResNet和DenseNet。

2)魯棒搜索算法

我們基於One shot NAS方法[1]開發了魯棒搜索算法。具體而言,我們將網絡結構參數α中的所有元素設置為1,以獲得包含所有可能網絡結構的super-net。在super-net的訓練階段,對於每批訓練數據,我們從super-net中隨機採樣候選子網絡結構(通過隨機將α中的某些元素設置為0),隨後通過PGD [2]生成對於採樣子網絡的對抗樣本,並進行對抗訓練以最大程度地減少對抗損失。這種機制可確保訓練過程中產生的對抗樣本並非僅由一個特定網絡結構產生。

3)魯棒性評價

經過上述訓練過程獲得supernet後,我們可以通過從supernet中隨機採樣並繼承權重來收集候選子網絡結構。我們發現,通過對抗訓練對候選子網絡finetune僅幾個epoch,其在驗證數據集上的性能就可以顯著提高。下圖展示了對1000個隨機採樣的候選子網絡結構進行finetune之前和之後的對抗精度對比。可以清楚地看到,魯棒性已經大大提高了。

4)魯棒網絡結構統計結果

我們對上述獲得的1000個候選子網絡進行了統計分析,首先將這1000個網絡結構按照對抗精度進行排序,然後將排序前300的網絡標為1,排序後300的網絡標為-1,針對網絡結構參數α分別進行了t-SNE和線性分類。如下圖所示,在兩個類別間,網絡結構參數α的低維空間映射具有清晰的邊界,同時線性分類器的所有權重參數值都大於0。

通過直接比較網絡結構密度與對抗精度之間的關係(如下圖),我們發現二者之間存在很強的相關性。這表明密集連接的模式可以顯著提高網絡的魯棒性。

2、不同預算下的結構策略

我們考慮三種不同的計算預算。由於每個cell中最大卷積操作數為14,因此我們將卷積總數小於7設置為小型預算,8到10個設置為中等預算,大於11設置為大型預算。對於每個預算,我們隨機抽樣100個網絡結構,並評估其對抗精度,並計算所有卷積中位於直連邊上的卷積個數的比例。如下圖所示,對抗精度在不同預算之間有明確的界限。此外,對於中小型預算,直連邊上卷積個數的比例與對抗精度呈正相關。這表明對於較小的計算預算,將卷積添加到直連邊可以有效地提高網絡的魯棒性。我們還注意到,對於大型預算,這種現象並不明顯。我們推測,對於預算較大的網絡結構,密集連接的模式將主導網絡魯棒性。根據以上結果,我們得出以下結論:在較小的計算預算下,將卷積運算添加到直連邊會更有效地提高模型的魯棒性。

受到TRADES [3]啟發,我們提出一種魯棒網絡結構的統計指標。TRADES是一種損失函數,該函數使對抗樣本與其對應的原始數據之間的logit分布的KL散度最小。該損失函數的值可用作網絡魯棒性與其原始數據精度之間差距的度量。我們不關注網絡的最終輸出,而是考慮網絡中間單元之間的特徵流。具體來說,我們計算網絡結構中每個cell上的Gramian矩陣,表示為FSP [4]。FSP矩陣計算如下:與之前類似,我們採樣不同的網絡結構,評估每個網絡結構在原始數據精度和對抗精度的差距,並計算了網絡中每個cell的FSP矩陣距離。如下圖所示, 我們可以觀察到,對於位於網絡較深位置的cell,其FSP距離與此網絡的原始數據精度和對抗精度的差值呈正相關。據此得出結論,魯棒的網絡在較深的網絡cell中具有較低的FSP矩陣距離。

 

通過上述三個發現,我們訓練並選擇一組具有代表性的RobNet模型進行評估。我們將訓練的RobNet系列模型與目前廣泛使用的人工設計模型進行比較,發現RobNets表現出更好的魯棒性;RobNets即使在參數數量較少的情況下,也能在白盒和黑盒攻擊下大幅提高魯棒性。在CIFAR10和ImageNet上的結果如下表,更多實驗結果詳見論文。

CIFAR10:

ImageNet:

 

參考文獻:

[1] Bender, G., Kindermans, P. J., Zoph, B., Vasudevan, V.,& Le, Q. Understanding and simplifying one-shot architecture search. In ICML 2018

[2] Madry, A., Makelov, A.,Schmidt, L., Tsipras, D., & Vladu, A. Towards deep learning modelsresistant to adversarial attacks. In ICLR2018.

[3] Zhang, H., Yu, Y., Jiao,J., Xing, E. P., Ghaoui, L. E., & Jordan, M. I. Theoretically principledtrade-off between robustness and accuracy. In ICML 2019

[4] Yim, J., Joo, D., Bae,J., & Kim, J. A gift from knowledge distillation: Fast optimization,network minimization and transfer learning. In CVPR 2017

作者:楊宇喆,MIT計算機科學與人工智慧實驗室博士生,研究方向為無線感知和機器學習。個人主頁:https://www.mit.edu/~yuzhe/


AI 科技評論希望能夠招聘 科技編輯/記者

辦公地點:北京、深圳

職務:以跟蹤學術熱點、人物專訪為主

工作內容:

1、關注學術領域熱點事件,並及時跟蹤報導;

2、採訪人工智慧領域學者或研發人員;

3、參加各種人工智慧學術會議,並做會議內容報導。

要求:

1、熱愛人工智慧學術研究內容,擅長與學者或企業工程人員打交道;

2、有一定的理工科背景,對人工智慧技術有所了解者更佳;

3、英語能力強(工作內容涉及大量英文資料);

4、學習能力強,對人工智慧前沿技術有一定的了解,並能夠逐漸形成自己的觀點。


感興趣者,可將簡歷發送到郵箱:jiangbaoshang@yanxishe.com
擊"閱讀原文",直達「CVPR  交流小組」了解更多會議信息。

相關焦點

  • 神經網絡中的對抗攻擊與對抗樣本
    無論是在網絡還是作業系統領域,現實應用中我們或多或少對網絡攻擊和病毒軟體都有所耳聞,那麼在神經網絡這一領域是否存在類似的威脅?果不其然,偶然看到一篇介紹『一像素攻擊』的文章,引發了我對老本行『安全』領域的興趣,於是研究了一下在計算機視覺方面深度學習中的對抗攻擊。我們先用最直觀的方式認識一下什麼是對抗攻擊?
  • IJCAI 2019 提前看|神經網絡後門攻擊、對抗攻擊
    本文對 3 篇神經網絡安全相關論文進行了介紹。近年來,深度學習在計算機視覺任務中獲得了巨大成功,但與此同時,神經網絡的安全問題逐漸引起重視,對抗樣本熱度持續不下,神經網絡後門攻擊也悄然興起。本文選取了 IJCAI2019 的 3 篇論文,從目標檢測對抗攻擊、實時對抗攻擊、神經網絡後門攻擊三個方面,為大家梳理最新進展。
  • 深度學習網絡架構搜索(NAS)最新必讀論文分享
    隨著網絡結構越來越複雜,人工設計網絡的試錯成本和時間成本會難以承受。 超參數的自動搜索優化是一個古老的話題了。深度學習興起前它主要針對傳統機器學習算法中的模型超參數,比較經典的方法有隨機搜索(Random search), 網格搜索(Grid search),貝葉斯優化(Bayesian optimization),強化學習(Reinforcement learning), 進化算法(Evolutionary Algorithm)等,統稱為Hyperparameter optimization(HO)。
  • KDD 2018最佳論文解讀 | 圖神經網絡對抗攻擊
    本篇文章介紹KDD2018的最佳論文—圖神經網絡對抗攻擊,該論文針對圖節點分類任務進行對抗攻擊。但是目前對於圖的對抗攻擊基本是空白的,圖的深度學習模型是否容易受到被對抗樣本「迷惑」呢?本篇論文,作者首次研究了對基於屬性圖的GCN進行了對抗攻擊研究,由於GCN很多都是直推式學習(trian階段使用test數據),論文不僅討論了測試攻擊也討論了poisoning攻擊(訓練之前攻擊)。機遇由於是對屬性圖進行操作,對抗擾動可以以兩種方式進行:改變節點特徵或者改變圖的結構。
  • 什麼是神經網絡架構搜索?
    深度學習提供了這樣一種承諾:它可以繞過手動特徵工程的流程,通過端對端的方式聯合學習中間表徵與統計模型。 然而,神經網絡架構本身通常由專家以艱苦的、一事一議的方式臨時設計出來。 神經網絡架構搜索(NAS)被譽為一條減輕痛苦之路,它可以自動識別哪些網絡優於手工設計的網絡。
  • DVERGE:通過「缺陷」多樣化構建魯棒集成模型|楊幻睿本人解讀
    對抗性攻擊正是利用了這一缺陷,以很小的噪聲擾亂了輸入圖片中的非魯棒特徵,進而影響模型的識別。同時,同一訓練集上訓練的模型往往學到的是極其相似的非魯棒特徵,這就造成了對抗攻擊的強遷移性。魯棒性提升:對抗訓練 vs.
  • 學界 | 綜述論文:對抗攻擊的12種攻擊方法和15種防禦方法
    我們回顧了對抗攻擊設計的研究,分析了這些攻擊的存在性以及提出的防禦機制。為了強調對抗攻擊在實際場所中存在,我們獨立地回顧了實際場景中的對抗攻擊。最終,我們引用文獻來展望更廣闊的研究方向。3.1 對分類網絡的攻擊 本節列舉了 12 種生成對抗樣本的方法,專門針對分類網絡。
  • 尋找最佳的神經網絡架構,韓松組兩篇論文解讀
    NAS 技術直接為特定的硬體在特定的任務上搜索最優的網絡框架結構。第二篇則是利用強化學習自動尋找在特定 latency 標準上精度最好的量化神經網絡結構,它分別為網絡的每一層搜索不同 bit 的權值和激活,得到一個經過優化的混合精度模型。
  • AI算法對抗攻擊和防禦技術綜述「AI核心算法」
    Goodfellow等首先提出對抗訓練,他們使用良性樣本和通過FGSM算法生成的對抗樣本一起訓練神經網絡,用於增強神經網絡的魯棒性;接著,提出了使用由PGD算法生成的對抗樣本進行對抗訓練的方法。根據實驗結果,PGD對抗訓練可在MNIST、CIFAR-10和ImageNet等多個數據集上,在各種L∞攻擊下獲得最高的準確 度。
  • 萬字長文 | 對抗魯棒性簡介
    事實上,第一個針對神經網絡分類器的敵手是Biggio等人在2013年設計的,他們稱之為規避攻擊(Evasion Attacks)[6]。而深度網絡的優異性能和深度網絡在對抗攻擊下的災難性脆弱似乎是同一枚硬幣的兩面[9]。深度網絡中的對抗樣本現象給狂熱的人群敲牆了警鐘:我們的深度網絡似乎什麼都知道,但其實什麼都不知道(You know nothing!)。
  • 專欄| 神經網絡架構搜索(NAS)綜述(附AutoML資料推薦)
    三個方面對架構搜索的工作進行了綜述,幾乎涵蓋了所有近幾年的優秀工作。,常規的 random search 和 grid search 效率非常低,因此最近幾年神經網絡的架構搜索和超參數優化成為一個研究熱點。
  • 深度神經網絡中的對抗樣本與學習7篇文章
    「這些結果表明,DNN傾向於學習低級和中級特徵,而不是物體的全局結構」。作者嘗試通過將培訓機制擴展到包含這些負面例子,使DNN對這些對抗圖像更加強大,但總是可能產生新的對抗樣本,仍會愚弄所產生的網絡。原文:Adversarial examples in the physical world, Goodfellow et al, 20174.解釋和利用對抗樣本為什麼這些對抗樣本有效?Goodfellow等人解釋,這是為了在高維空間中攻擊是線性行為。
  • 伯克利AI研究:深度神經網絡的物理對抗實例
    2017 年 8 月,OpenAI 曾發現對抗樣本在圖像不斷變化時可能會失效,他們將一張小貓的圖片放大後,神經網絡分類器輸出的結果變成「桌上型電腦」。MIT 的 LabSix 研究小組在 11 月份也得出了相似的結論,他們在研究中製作了一些受到對抗幹擾的 3D 模型,從而成功欺騙分類器,證明神經網絡分類器完全可以被 3D 對抗樣本完美地欺騙。
  • ICML 2020|提升神經網絡架構搜索穩定性,UCLA提出新型NAS算法
    機器之心專欄作者:陳相寧可微網絡架構搜索能夠大幅縮短搜索時間,但是穩定性不足。為此,UCLA 基於隨機平滑(random smoothing)和對抗訓練(adversarial training),提出新型 NAS 算法。
  • 神經架構搜索(NAS)越來越高效,但遠遠不夠!
    該方法就是自動機器學習(AutoML),它能夠涵蓋預測建模的多個部分,例如架構搜索、超參數優化等等。近期,能夠為某個給定的數據集搜索到「最佳」架構的架構搜索方法取得了突破性進展,因而在本文中,我將聚焦架構搜索部分展開討論。其中,文中展示的結果,是基於與 Jonathan Lorraine 合作進行的工作得來的。
  • AI|神經架構搜索(NAS)簡要介紹
    神經網絡的超參調整一直是神經網絡的一個重要問題,比如單隱層的前饋神經網絡最重要的超參數為隱層神經元數量,不需要用優化算法,人為根據經驗和試湊也是可以找到一個合適的超參數。但是淺層神經網絡的結構並不是只有單隱層的前饋神經網絡一種,理論上任何連結結構都可以成為具有一定功能的神經網絡,比如跨層連結和循環連接,比較典型的網絡如循環神經網絡(RNN),回聲狀態網絡(ESN)等。
  • 答案就在對抗攻擊中
    但他們不是直接優化RGB空間中的輸出圖像,而是在傅立葉空間中對其進行優化,並在將圖像傳遞到神經網絡之前通過一系列變換(例如抖動、旋轉、縮放)來操作圖像。△通過去相關參數化和變換魯棒性,在非VGG架構上實現風格遷移為何給圖像做一個簡單的旋轉、抖動處理,就能實現非VGG架構的風格遷移?
  • RPI-IBM團隊提出圖結構&表徵聯合學習新範式IDGL:用於圖神經網絡的...
    ,旨在對數據的圖結構和表徵進行聯合學習,以幫助圖神經網絡 (GNN) 使用者在圖結構未知或存在噪聲的情況下,在特定下遊任務中取得最優的性能。另有一些工作專注於概率圖模型的結構推理[3]或者圖生成[4]問題,與本文所要探究的問題側重點有所不同。相較於傳統的圖結構學習研究,針對GNN的圖學習相關研究起步較晚。在對抗機器學習 (Adversarial Machine Learning) 領域,有一系列工作專注於開發更具健壯性的GNN模型[5,6,7],來對抗針對圖結構的各類攻擊行為。
  • 萬字解讀商湯科技ICLR2019論文:隨機神經網絡結構搜索
    該論文提出了一種全新的經濟、高效且自動化程度高的神經網絡結構搜索(NAS)方法。他們通過深入分析NAS任務的MDP,提出了一個更高效的方法——隨機神經網絡結構搜索,重新建模了NAS問題。與基於強化學習的方法(ENAS)相比,SNAS的搜索優化可微分,搜索效率更高。與其他可微分的方法(DARTS)相比,SNAS直接優化NAS任務的目標函數,搜索結果偏差更小。
  • ACL2020|使用強化學習為機器翻譯生成對抗樣本
    因此我們可以通過利用已有平行句對的輸入產生對抗樣本的方式,沿用原本的輸出,從而快速得到大量可用於魯棒分析的平行數據。圖1: 對人名的變動影響了翻譯的預期結果(此樣例當前已被修復)2文本對抗樣本及難點對抗樣本的兩個核心為:保持語義限制,同時達成系統性能惡化。