對抗樣本研究新進展:區域攻擊比像素攻擊更有效(電子科技大學未來媒體研究中心ECCV'20系列論文介紹)

2021-01-18 CenterforFutureMedia

本文為電子科技大學未來媒體研究中心的高聯麗等在國際計算機視覺領域頂級會議ECCV發表的題為"Patch-wise Attack for Fooling Deep Neural Network"一篇原創性對抗樣本研究論文。論文由電子科技大學高聯麗研究員、碩士研究生章琪瀧、宋井寬教授、申恆濤教授、北京航空航天大學劉祥龍副教授共同完成。ECCV是當前計算機視覺三大頂級會議之一(另外兩個是ICCV和CVPR),專注於收錄世界最前沿的原創性成果,為探索新的領域尤其是涉及計算機視覺的相關課題有著十分重要的參考價值。

雖然現有的一些深度學習模型已經表現出了超越人類的表現,但是隨著對抗機器學習(Adversarial machine learning)近幾年來逐漸進入人們的視野,各種場景下的對抗樣本(Adversarial example)的出現也引起人們對於AI智能的擔憂。通常,添加人類無法感知或者自然的圖形噪聲後,深度模型往往會預測出一個毫無相關的結果,這讓研究人員們不得不重新考慮模型的魯棒性以及它們的識別邏輯。

該成果通過分析不同模型的類激活映射(Class Activation Mapping)以及單步與多步迭代攻擊算法產生的噪聲斑點圖案(Patch map)特徵,結合最優化理論分析,借鑑Rosen梯度投影法提出了一種新穎的啟發式高效投影算法(Patch-wise iterative attack algorithm)。該方法再次提升了基於本地已知替代模型產生遷移性對抗樣本的能力,並且可以輕鬆與當前已公開的優秀的攻擊算法結合,產生更加強大的攻擊效果。

1.直接進行clip操作對多餘噪聲移除存在一定的估計損失。我們以簡單的點乘函數為例


 如果我們在添加擾動後,進行直接裁剪就會得到如下結果

如上圖所示,我們測試了現有主流的比較知名的FGSM-based算法以及我們自己的算法PI-FGSM,可以發現在不同的目標模型上,增大步長往往能增加生成的對抗樣本的遷移能力。從定性角度進行分析,這是因為增大每步的步長就會使得每次更新的量級更大,而我們知道梯度是通過求極限來獲得的,也就是只能反應很小一部分區域的梯度信息,但我們放大了步長,就會在更新後並不是那麼準確,換句話說就是會有一定的欠擬合現象的發生,但是對於遷移性而言,他就變相地提高了泛化性。從定量角度進行分析,結合Goodfellow提出的線性假設,我們對產生的擾動大小進行分析,我們發現更大的迭代步長結合約束往往會在不改變無窮範數約束的情況下增大最終的擾動均值,這可能就是為什麼遷移性增強的原因。


3. 如何產生更加好的遷移性擾動分析

我們首先在這裡提出了一個patch map的概念,主要是用於分析最終的擾動,其表達式為

其中=就是最終產生的擾動,在這邊需要注意的是我們在右邊乘了256而非255,這是因為如果乘以255則達到的noise在最終顯示是白色(255),但是這樣最終的可視化結果對比度不夠高,所以為了解決這個問題,我們乘以256,因為在保存為"uint8"類型時,像素值為256的地方會被修改成0(最終顯示為黑色),從而獲得更好地展示效果。

這裡我們對比了I-FGSM和FGSM,我們可以發現遷移性更強的FGSM算法在Patch map的可視化結果上存在一定的聚集特點,比如可以明顯看到綠色或者黑色區域存在一定的聚集性。但是我們發現,FGSM雖然體現出了一定的聚集性,但是依舊存在稀疏的特點。

於是我們繼續分析,我們觀察到左邊的兩個模型的CAM可視化結果,發現高亮的區域(紅色)也是存在一定的聚集性,並且是完整的一塊區域並無零碎的特性。此外,卷積神經網絡通過卷積核來提取特徵,所以很多時候在提取特徵的時候往往是某一塊區域的特徵。而且,"Regional Homogeneity: Towards Learning Transferable Universal Adversarial Perturbations Against Defenses"這篇論文發現具有Regional Homogeneity性質的噪聲往往遷移到防禦模型上會更加容易。

在優化理論中,有一個算法叫做Rosen投影梯度法,其主要思想就是把更新方向中超過可行區域的那部分投影到可行區域內,從而滿足函數約束也能夠利用這部分超過的信息來更好地接近最優解。然後這個方法實現起來比較複雜,計算量也比較大。於是,為了使得算法效率更高,我們結合前面動機部分的觀察,提出了一個啟發式算法。其基本思想很簡單,既然我們的目的是為了產生具有聚集特性的擾動,那我們就可以把那些因為放大步長而導致超過閾值的噪聲投影到周圍區域!

當然這邊也基於一個假設,我們是認為那些更容易超過閾值的pixel會有更大的概率處在CAM可視化區域的高亮區域,那我們通過這個投影方法就自然擴大了在這些區域的擾動聚集性。相比於Regional Homogeneity(前面提到得論文),我們的regional擾動更加多樣,即不容易受限於某些特定的regional split方法。


算法流程如上圖,其中用橘色框框出的部分就是我們的啟發式投影算法實現。相比於I-FGSM,藍色框框出的部分就是我們與I-FGSM的區別即改進。

下圖是用普通模型作為替代模型(即對抗樣本通過這些替代模型進行訓練產生)再遷移到3個防禦模型的結果圖,可以發現相比於TI-FGSM,我們的方法可以最多提升10.5%,此外結合版本DTPI-FGSM(-FGSM+TI-FGSM+PI-FGSM)也能總體上比DTMI-FGSM強。這裡需要注意的是,我們的方法在攻擊防禦模型時,與MI-FGSM的結合效果一般,所以我們最終沒有把Momentum項結合到DTPI-FGSM中。


下圖的替代模型是4個普通模型,即集成模型攻擊。可以發現在這個條件下,我們的PI-FGSM也能超過最佳的MI-FGSM最多18.4%

最後是攻擊三個來自於Cihang Xie等人的論文"Feature Denoising for Improving Adversarial Robustness"中提出的目前防禦效果特別強的模型。我們在這裡發現了一個特別神奇的現象,如果用論文中提到的這些防禦模型作為替代模型去攻擊其餘防禦模型,之前提出來的方法如MI-FGSM,TI-FGSM以及-FGSM的效果甚至還不如I-FGSM。但是我們的PI-FGSM還是表現出彩。這也進一步證明了我們提出的PI-FGSM的效果。


高聯麗研究員目前已累計發表論文100餘篇(一作/通訊53篇),Google Scholar引用2229次。在國際頂級期刊和會議(如CCF A類會議、IEEE/ACM彙刊等)上發表論文共計50餘篇,如IEEE T-PAMI、IJCV、 IEEE T-IP、 IEEE T-MM、CVPR、ACM Multimedia、AAAI/IJCAI等。其中有ESI高被引論文4篇(一作/通信),並獲得國際會議ADC最佳學生論文獎(2S)。主持多項國家級和省部級項目(如主持國家自然科學基金委面上項目和青年項目各一項、軍委科技委項目一項、霍英東青年項目一項),主研國家科技部重點項目一項,自然科學面上項目一項等。曾擔任CCF-B會議的ISWC研討會的程序委員會主席,SCI期刊JCVIR特刊的客座編委,APWEB-WAIM會議研討會(workshop)主席(chair)等學術兼職,以及擔任CCF推薦的多個會議和期刊的審稿人。在2019年獲阿里巴巴「達摩院青橙獎」,並在2020獲IEEE TCMC學術新星獎(「Rising Star Award」)。

相關焦點

  • 學界 | 綜述論文:對抗攻擊的12種攻擊方法和15種防禦方法
    他們證明儘管有很高的正確率,現代深度網絡是非常容易受到對抗樣本的攻擊的。這些對抗樣本僅有很輕微的擾動,以至於人類視覺系統無法察覺這種擾動(圖片看起來幾乎一樣)。這樣的攻擊會導致神經網絡完全改變它對圖片的分類。此外,同樣的圖片擾動可以欺騙好多網絡分類器。這類現象的深遠意義吸引了好多研究員在對抗攻擊和深度學習安全性領域的研究。
  • ECCV 2020|Workshop第一彈:視覺研討會,最新研究成果一網打盡
    >雖然計算機視覺系統取得了巨大的成功,但對抗樣本的攻擊也會讓強大的模型頓時失效,這也說明了模型與強大人類視覺的差距。在真實世界中創建對抗樣本,包括像部分遮擋和先前未見過的環境等場景,可以為人們對於計算機視覺系統的深入理解和改進提升提供了新的機會和研究方向。
  • 可學習的黑盒對抗攻擊:SOTA的攻擊成功率和查詢效率
    本文主要專注於  norm限制下的無目標攻擊問題。(有目標攻擊要求對抗樣本被識別為給定目標類)  對抗攻擊問題可以分為白盒攻擊和黑盒攻擊。白盒攻擊指目標模型信息是完全可獲得的,而黑盒攻擊指目標模型是不可見的。基本的白盒攻擊方法利用梯度上升法,直接更新輸入樣本,使其向著目標模型決策邊界移動,直到變為對抗樣本,例如FGSM, PGD attack [6][7]等。
  • 模型攻擊:魯棒性聯邦學習研究的最新進展
    How To Backdoor Federated Learning論文地址:https://arxiv.org/abs/1807.00459本文是 Cornell Tech 研究團隊貢獻的一篇文章,首次公開於 2018 年,最新收錄於 AISTATS'20。
  • ECCV 2020 目標檢測論文大盤點(49篇論文)
    2D 目標檢測旋轉目標檢測視頻目標檢測弱監督目標檢測域自適應目標檢測Few-Shot 目標檢測水下目標檢測目標檢測對抗攻擊其他2D目標檢測ECCV 2020 目標檢測論文大盤點2D 目標檢測>作者單位:香港中文大學, 南洋理工大學, 商湯科技, 浙江大學, 中科大論文:https://www.ecva.net/papers/eccv_2020/papers_ECCV/html/2272_ECCV_2020_paper.php代碼:https://github.com/open-mmlab/mmdetectionAABO
  • ACL 2020 復旦大學系列論文解讀開始了!
    繼上周AI科技評論聯合哈工大 SCIR 實驗室推出「ACL 2020 哈工大系列解讀」之後,我們再次隆重推出 ACL 2020 實驗室系列解讀:ACL 2020 復旦大學系列解讀。復旦大學作為全國頂尖高校,在自然語言處理領域也當之無愧位列國內頂尖高校之列。
  • OpenAI最新研究:「對抗樣本」能輕易黑掉AI系統,如何抵禦?
    一個對抗輸入值,覆蓋了一個典型的圖片,分類器將一隻「熊貓」誤分類為一隻「長臂猿」這個方法是十分有效的,最近的一項研究(論文「Adversarial examples in the physical world」)
  • 30篇亮點論文、5大主題帶你一覽ECCV 2020研究趨勢
    與今年的ICML相似,在論文投稿機構方面,Google排名第一(180位投稿作者),其次是香港中文大學(140位投稿作者)和北京大學(110位投稿作者):接下來,本文將為大家一一介紹上述五大主題的亮點論文:1識別、檢測、分割和姿態估計1、End-to-End Object Detection with Transformers
  • 清華大學團隊包攬三項冠軍,NIPS 2017對抗樣本攻防競賽總結
    針對對抗樣本的攻擊和防禦的研究有很多的困難之處,其中一個原因是很難評估一個提出的攻擊方式或者防禦措施是否有效。對於傳統的機器學習,假設已經從獨立同分布的數據集中分出了訓練集和測試集,那麼就可以通過計算測試集的損失來評估模型的好壞,這是一種很簡單的方法。但是對於對抗機器學習,防禦者必須應對一個開放的問題,即攻擊者將發送來自未知分布的輸入。
  • 京東雲與AI 10篇論文被AAAI 2020收錄,京東科技實力亮相世界舞臺
    京東雲與AI共有10篇論文入選AAAI 2020,研究領域涵蓋人臉識別、人臉解析、機器閱讀理解、文本生成、對抗樣本與模型魯棒性、智慧城市等前沿的技術研究領域,這些能力目前已在市政安防、實體零售、智能客服等業務場景下規模化落地,未來京東雲與AI作為值得信賴的智能技術提供者,會持續進行技術與業務融合的探索,這些落地的技術能力也將迎來更加廣闊的應用前景。
  • 文本也有攻防戰:清華大學開源對抗樣本必讀論文列表
    在自然語言處理領域,對抗樣本的攻擊與防禦近來受到很多研究者的關注,我們希望構建更穩健的 NLP 模型。在本文中,我們簡要討論了攻防的概念,並介紹了清華大學近日開源的 NLP 對抗樣本攻防必讀論文列表。自然語言處理方面的研究在近幾年取得了驚人的進步,深度神經網絡模型已經取代了許多傳統的方法。但是,當前提出的許多自然語言處理模型並不能夠反映文本的多樣特徵。
  • 清華朱軍團隊包攬三項冠軍 | NIPS 2017對抗樣本攻防競賽總結(附學習資料)
    本次比賽總結由谷歌大腦、清華大學以及其它參與研究人員們聯合撰寫,為你介紹NIPS 2017 對抗樣本攻防比賽的情況。自 Ian Goodfellow 等研究者發現了可以讓圖像分類器給出異常結果的"對抗性樣本"(adversarial sample)以來,關於對抗性樣本的研究越來越多。
  • AI技術領域未來幾年最引人矚目的新方向是什麼?
    選自:學術頭條  作者:汶川在調查近幾年AI領域的過程中,我發現近幾年對抗攻擊的概念逐漸出現在全世界各國研究人員的視野中,我認為這將會是現在乃至未來幾年最引人矚目的新方向之一。
  • 河北科技大學理學院研究團隊兩項成果取得新進展
    近日,河北科技大學理學院王德松教授研究團隊在構建負載型銀納米催化劑方面取得新進展,相關成果發表在催化領域頂級期刊Applied Catalysis B: Environmental (2021, 283, 119592, IF="16.68)。
  • 你真的懂對抗樣本嗎?一文重新思考對抗樣本背後的含義
    怎樣才能確保生成的對抗樣本符合這樣的定義?本文深入解析了對抗樣本背後的數學定義,並幫助讀者重新理解對抗樣本的定義。對抗樣本是各種機器學習系統需要克服的一大障礙。對抗樣本的存在表明模型傾向於依賴不可靠的特徵來最大化性能,如果特徵受到幹擾,那麼將造成模型誤分類,可能導致災難性的後果。
  • ACL 2020 清華大學 THUNLP 系列解讀
    ACL 2020 上,THUNLP實驗室有什麼新的研究進展?2020年4月3日,NLP 頂會 ACL 2020 公布錄用論文之後,AI科技評論相繼與哈工大、復旦大學聯合舉辦兩期「系列解讀」直播活動,受到廣大師生的好評。
  • 南方科技大學項曉東課題組在量子弛豫時間研究取得新進展
    近日,南方科技大學材料科學與工程系(簡稱「材料系」)講席教授項曉東課題組與上海交通大學、中國科學技術大學等單位合作,在量子弛豫時間的研究方向取得新進展,相關成果以「A Direct Measurement Method of Quantum Relaxation Time
  • 從Pix2Code到CycleGAN:2017年深度學習重大研究進展全解讀
    該模型是完全概率的和自回歸的(fully probabilistic and autoregressive),其每一個音頻樣本的預測分布的前提是所有先前的樣本;不過研究表明它可以有效地在每秒音頻帶有數萬個樣本的數據上進行訓練。
  • CVPR 2019 | 騰訊AI Lab解讀六大前沿方向及33篇入選論文
    騰訊 AI Lab 入選論文涉及視頻理解、人臉識別、對抗攻擊、視覺-語言描述、模型壓縮和多任務學習等幾大重點研究方向,下面將分組介紹論文。往年參會入選論文可見公眾號歷史文章。註:本文分組方式並不嚴格,部分論文同時分屬多個主題。
  • 探秘量子黑客:用攻擊研究推動量子通信實際安全性的完善
    雖然目前研究者已經提出了多種量子攻擊方案,但在理論和實驗室科學家的共同努力下,這些攻擊都可以通過擴展安全模型和建立測評標準(包括國際、國內和行業標準)來很好地解決。目前,已有的各種攻擊方式都有了有效的安全防護手段,並正在逐步形成國內外的行業標準。