對抗魯棒性使得神經網絡又強又慫——華南理工溫馨宇

2020-09-05 AITIME

作者:AITimer-閆昊 公眾號:AI TIME 論道


對抗樣本的存在表明現代神經網絡是相當脆弱的。


為解決這一問題,研究者相繼提出了許多方法,其中使用對抗樣本進行訓練被認為是至今最有效的方法之一。


然而,經過對抗訓練後神經網絡對於正常樣本的性能往往會下降,這一問題引起了學術界的廣泛關注,這種準確度與魯棒性之間互相妥協的本質原因仍未被找出。


在這一工作中,講者及其團隊從正則化的角度來研究神經網絡的對抗魯棒性。嘉賓團隊指出,經過對抗訓練之後的網絡在特徵空間的絕大多數方向上將被平滑,導致樣本集中於決策邊界附近;換言之,經過對抗訓練的網絡輸出往往是相對低置信度的,這種網絡對於正常樣本的性能往往也是更差的。


研究表明,我們應該以更溫和的手段來構建對抗魯棒性,避免過度正則化。

溫宇馨

溫宇馨,本科畢業於華南理工大學,目前在華南理工大學幾何感知與智能實驗室就讀博士三年級,導師為賈奎教授。研究興趣包括計算機視覺與機器學習。已在相關領域的國際頂級會議期刊如ICML, TPAMI等發表多篇論文。


一、對抗樣本與對抗魯棒性



在溫宇馨同學提到的這個案例中,第一張熊貓的圖片在神經網絡中以57.7%的置信度識別為熊貓;但把第二張熊貓圖片再次輸入同一個神經網絡中,居然以99.3%的置信度識別為長臂猿。在人眼中明明是相同的圖片,為什麼會在神經網絡中得到相差如此之大的結果呢?這就引出了對抗樣本的概念。

事實上第二張一幅經過人工精心設計的圖片,也被稱為對抗樣本。這幅圖片上疊加了一層噪聲,而神經網絡提取特徵的方式可以簡單的理解為對像素的計算。因此人工合成的圖像在神經網絡看來是兩幅完全不同的圖片。對抗樣本有兩個特性:(1)誤導性;(2)不可感知性。這兩個特性分別表示對神經網絡的誤導性,以及對人眼的隱蔽性。


對抗樣本在現實生活中會導致一些意想不到的隱患,就比如:



這兩個案例分別代表了對抗樣本可能對自動駕駛行業和人臉識別行業造成的威脅:無法識別被貼上特製標識的交通標誌,或者在特製的眼鏡幹擾下無法識別面部。



面對這種威脅,最好的辦法就是生成對抗樣本,以提高網絡的對抗魯棒性。下述生成對抗樣本的方式被稱為白盒攻擊,即已知網絡及其參數,通過設計的一個損失函數,獲得對抗噪聲,之後將其疊加到原圖像當中,獲得對抗樣本。為了使得模型具有魯棒性,一個最直接的方式就是將對抗樣本用數據增集的方式加到原函數當中進行對抗訓練。除此之外,還能夠通過對輸入圖像進行預處理以消除對抗樣本的影響、調節網絡參數使其偏向某類特定解使輸出平滑,或者改變網絡結構以獲得避免噪聲的能力。


在以下的內容中,模型獲得的對抗魯棒性均通過對抗訓練獲得。


二、神經網絡的準確度與對抗魯棒性


在對抗樣本被提出的時候,研究人員往往認為對抗樣本不僅可以增加模型的對抗魯棒性,也增加模型的泛化性。但近期的研究表明這種想法似乎不太現實。



在上圖中,藍色的線代表對抗樣本在模型中的性能,而紅色的線則代表正常樣本在模型中的性能。可以看到隨著對抗訓練中對抗樣本強度的增加,對抗樣本的誤差在下降,而正常樣本的誤差在上升,可以得出獲得對抗魯棒性往往是以模型在正常樣本上的性能退化為代價的



下面探究對抗魯棒性對模型泛化性的影響。


對於不同對抗魯棒性的模型在同樣的正常樣本上的性能,分別考量其錯誤率和損失,其結果表現在上面的兩幅圖中,左邊的是錯誤率,右邊的是損失。


  • 隨著對抗魯棒性的增加,左圖中自然的訓練樣本和自然的測試樣本的錯誤率在增加,其error gap也在增加,即模型的性能變差了。
  • 而在右圖中,訓練樣本的損失隨著對抗魯棒性的增強而增加,測試樣本的損失卻在減少,它們之間的loss gap也在縮小,即表明模型的泛化性變好了。


在正常樣本上為什麼會出現看上去矛盾的現象呢?這不禁讓人疑問:模型在獲得魯棒性的過程中發生了怎樣的改變?而這些改變又對模型決策產生了怎樣的影響?為什麼對抗魯棒性作為一種有效的正則化手段會導致模型擁有較差的性能?這就引出了本次分享的第三個主題,對抗魯棒性與正則化的理論分析。


三、對抗魯棒性與正則化的理論分析


分享者在這一部分中的主要工作是在給定魯棒性的情況下,模型的泛化性會產生怎樣的改變,並且探究這種變化產生的原因。


首先,根據魯棒性框架,作者推導出了一個泛化界,在這個界中margin, adversarial robustness radius和singular value of weight matrices 建立起了關係,下面的公式顯示的是推導過後泛化誤差界的上界:



其中νmin表示樣本到決策邊界是最短的點的距離,在對抗魯棒性的前提下,其需要大於對抗性的魯棒性所定義的半徑;

σ^imin神經網絡權重矩陣的最小奇異值,可簡單理解為從輸入空間到特徵空間的放大或縮小;

表示最後一層的權重矩陣

umin表示特徵空間上某個點距離其最近的決策邊界的最小距離;

公式中的其餘項在理解泛化界中不構成障礙,可以暫時不去考慮。



為了更形象的去理解上述公式,可以看上面的圓形與方形種類的分類。當不要求對抗魯棒性的時候,紅色的虛線可以作為決策邊界。但是當要求了對抗魯棒性之後,其表現出了正則化效果就是使得原本可行的紅色決策邊界不再可行,原本的決策邊界現在變為了黑色的實線。值得一提的是,邊界距離margin則表現為樣本(黑色的圓形或者方形)到距離其最近決策邊界(黑色實線)的距離。



上圖是神經網絡中某一層的特徵投影的情況。以ReLu為激活函數的神經網絡將空間分割成為若干部分,每個區域對於x而言都是分段線性的,即從x到x』是一個分段線性變換的過程。這張圖說明,我們可以將輸入空間上的邊界距與特徵空間上的邊界距聯繫在一起。


四、對抗魯棒性與正則化的經驗分析


上一節中,margin, adversarial robustness radius和singular value of weight matrices 建立起了關係。在本節當中,作者將會分享根據上面的理論指導在模型中觀察到的現象。


我們經驗性地發現:


  • 對於具有更高對抗魯棒性的神經網絡,其權重矩陣的奇異值會有更低的方差
  • 這種奇異值方差的減少會導致樣本在決策邊界附近聚集


樣本在決策邊界聚集平滑了由於樣本空間上擾動帶來的在特徵空間上的突變,但是同時也增加了低置信度的誤分類


這是CIFAR10數據集在ResNet-56上訓練後的結果,橫向坐標代表著層深,縱向坐標代表著該層傳輸矩陣展開成線性變換之後對應的奇異值的方差值的大小。其中legend代表著對抗魯棒性的強度,縱向對比來看,綠色點代表對抗魯棒性更強的模型權重矩陣奇異值方差在絕大多數層下要比同層的對抗魯棒性較弱的紅色點的方差值小。這導致了經過激活函數後的輸出的範數的方差減少,換句話說就是輸入空間的擾動傳遞到特徵空間的擾動變小。


而激活層輸出的範數的方差減少表示的是神經網絡中每一層的輸出都更加的集中。上圖是測試集的結果,橫坐標表示margin的大小,縱坐標表示歸一化之後的概率。可以看到,測試集的margin分布結果表明,隨著對抗魯棒性的增加,樣本更加的集中於決策邊界的附近。這會導致前面的兩個結論:(1)對抗魯棒性的增強,會導致正常樣本的準確度下降(2)測試樣本的損失在減少,測試樣本和訓練樣本之間的loss gap也在縮小。



上圖表示的是模型在訓練集上的表現,同樣表現出,隨著對抗魯棒性的增強,其分類置信度也在下降。但是相比於測試集,訓練集的結果並不存在大規模的誤判行為,即模型可以overfit到對應的訓練集中。這種對於分類正確以及分類錯誤的樣本置信度均降低的行為,映射到surrogate loss上,比如cross entropy loss上,一方面是對於分類正確的樣本loss更大了,另一方面是對於分類錯誤的樣本loss更小了。而在這裡,overfitting導致原本就不存在大量分錯的樣本,因此對於訓練集來說,loss變高的效果會比降低的效果更明顯,而測試集則剛好相反。因此,對比測試集結果,可以看到訓練集的loss要比測試集的loss增長快,這也是導致loss gap變小的原因。



上述的情況是在模型容納性較大的情況下的結果,那麼如果模型的容納性不足又會怎樣?分享者展示了通過限制模型的譜範數進而限制模型的容納性,模型容納性以Uncontrolled為最大,以1為最小。隨著模型容納性降低,Error Gap從上升轉而下降,Loss Gap則一直保持著下降的態勢,這說明當網絡沒有辦法overfit到訓練樣本時,即training error開始變大時,模型的error gap以及loss gap開始趨向於表現出一樣的性質。



重新回到這張圖,根據上面的一系列分享,可以得出一個結論:樣本集中於在決策邊界上使得對抗擾動造成的突變被平滑了,但是同時也增加了低置信度的預測,甚至是誤判。


這項工作的意義在於:對抗魯棒性使得樣本集中於決策邊界附近,這表明為了降低對抗擾動的影響,模型犧牲了其區分類間差異的能力;換言之,對抗訓練確實是一種有效的正則化手段,但它是通過不恰當地縮減神經網絡假設空間來實現的。那麼如何去消除這種不恰當的縮減就是接下來的研究方向。


嘉賓問答:

A:對抗防禦, 用拓撲學分析,有什麼比較好的一些研究思路呢?

Q:從邏輯上面,對抗噪聲其實是通過模型的一層層權重矩陣放大而導致在特徵空間的擾動的,在這種情況下,可以考慮追蹤對抗噪聲被放大神經元,其實這些神經元本質上特徵空間裡面的一些region,然後這些region會組成一個特徵空間,這個特徵空間的變換可能會跟你提到的拓撲學有關係,比如說我們要求其具有某些特定的拓撲性質等等。

A:很多人說正則化就是適應噪聲的一種防禦方法,如何理解?

Q:正則化我的理解更多是一種先驗,就是你要求模型具有怎樣的性質,這種性質恰好可以防禦對抗樣本,比如說要求Lipchitz properties等等,但是其實Lipchitz properties也是一個很鬆的約束。

A:李普希茨約束好像決定了神經網絡的收斂界限?或者說是跟學習的泛化性能界限有關,我也是最近看到ECCV-20那篇關於Gradient Centralization的文章提到這個概念。

Q:如果你指的是generalization gap的話那Lipchitz properties對它確實會有影響,不過我說的更多的是它對adversarial robustness的影響,比如說Lipschitz-Margin Training: Scalable Certification of Perturbation Invariance for Deep Neural Networks那篇論文。

A:從修改神經網絡結構本身來抵禦對抗樣本是怎麼樣的呢?

Q:比如說Hinton他們提出的capsule networks,他們claim的其中一個優勢就是可以避免對抗樣本,因為這種模型一些特有的機制。

相關焦點

  • 對抗深度學習:魚(模型準確性)與熊掌(模型魯棒性)能否兼得?
    但最近研究表明,即使是充分訓練好的深度神經網絡模型也很容易被對抗攻擊算法攻破。對抗攻擊是指在圖像上加入特定的且人眼無法察覺的微量噪聲,使得目標模型對加噪之後得到的對抗樣本做出錯誤分類。對抗樣本有可能會導致財產損失乃至威脅生命。
  • ACL 2019 論文:谷歌提出增強神經網絡機器翻譯魯棒性的新方法
    基於深度神經網絡的 NMT 模型通常在非常大的並行語料庫(輸入/輸出文本對)上以完全數據驅動的方式進行端到端訓練,而不需要強制使用顯式的語言規則。NMT 模型儘管取得了巨大的成功,但它對輸入中存在的微小幹擾仍然很敏感,這就會導致它出現各種不同的錯誤,如翻譯不足、翻譯過度或翻譯錯誤。
  • 基於生成對抗網絡的三維點雲自動修復
    二、原理簡述 受生成對抗網絡在二維圖像生成領域方面工作的啟發, 本文使用生成對抗網絡框架提出了一種三維點雲形狀的修復補全網絡結構. 該網絡由基於PointNet的生成器和基於摺疊的解碼器構成. 其中生成器的目的是生成幾乎與真實點雲一致的完整點雲模型.
  • 揭秘騰訊變臉魔法,生成對抗網絡GAN的威力是什麼?
    隨著GAN網絡在生成質量上的不斷提高,它越來越頻繁地落地到社交娛樂場景中,給用戶帶去最直觀、新鮮的AI體驗。左右互搏生成完美圖片,AI界的"網紅"技術那麼使得新型變臉特效得以實現的生成式對抗網絡 GAN,究竟是什麼?它是由美國科學家Ian Goodfellow發明,試圖讓計算機自己生成逼真圖片的AI技術。
  • 用於半監督學習的圖隨機神經網絡
    原標題:用於半監督學習的圖隨機神經網絡   導讀:在 NeurIPS 2020 上,清華大學聯合微眾銀行
  • 人工神經網絡的定義
    人工神經網絡的定義   人工神經網絡( Artificial Neural Networks, 簡寫為ANNs)也簡稱為神經網絡或稱作連接模型,是對人腦或自然神經網絡若干基本特性的抽象和模擬。
  • 模仿人腦視覺處理,助力神經網絡應對對抗性樣本
    他們還測試了一些經歷過「對抗性訓練」的深度學習模型,在這個過程中,一個神經網絡使用對抗性的樣本進行訓練,以避免對它們的錯誤分類。文中使用 BrainScore 度量評估了人工智慧模型,該度量比較了深層神經網絡的激活和大腦的神經反應。然後,通過測試每個模型對抗白盒對抗性攻擊(攻擊者完全了解目標神經網絡的結構和參數)的魯棒性來衡量它們的健壯性。
  • NeurIPS 2020|用於半監督學習的圖隨機神經網絡
    導讀:在 NeurIPS 2020 上,清華大學聯合微眾銀行、微軟研究院以及博世人工智慧中心提出了 Graph Random Neural Network (GRAND),一種用於圖半監督學習的新型圖神經網絡框架。
  • 人工神經網絡的特點有哪些
    人工神經網絡的特點和優越性,主要表現在三個方面: 第一,具有自學習功能。例如實現圖像識別時,只在先把許多不同的圖像樣板和對應的應識別的結果輸入人工神經網絡,網絡就會通過自學習功能,慢慢學會識別類似的圖像。自學習功能對於預測有特別重要的意義。
  • 跨學科研究揭示多層生物分子網絡魯棒性
    作者構建了人體多層生物分子網絡模型並提出了一個框架來理解基因、蛋白質和代謝物之間的相互作用如何決定一個異質生物網絡的魯棒性。在從細胞到生物體的所有尺度的生物系統中,分析分子網絡在擾動下的魯棒性已成為揭示分子水平上疾病機制的有效工具。
  • ICML 2020|提升神經網絡架構搜索穩定性,UCLA提出新型NAS算法
    機器之心專欄作者:陳相寧可微網絡架構搜索能夠大幅縮短搜索時間,但是穩定性不足。為此,UCLA 基於隨機平滑(random smoothing)和對抗訓練(adversarial training),提出新型 NAS 算法。可微網絡架構搜索(DARTS)能夠大幅縮短搜索時間,但是其穩定性受到質疑。
  • ICLR-17最佳論文一作張弛原新作:神經網絡層並非「生而平等」
    現作者張馳原和Samy Bengio等再出新作,指出神經網絡每個層並非「生而平等」,進一步拓展對神經網絡泛化的理解。這一次,論文又提出了兩個新的概念——(訓練後)「重新初始化」和「重新隨機化魯棒性」,並認為神經網絡的層可以分為「關鍵層」和「魯棒層」;與關鍵層相比,將魯棒層重置為其初始值沒有負面影響,而且在許多情況下,魯棒層在整個訓練過程中幾乎沒有變化。
  • 機器不學習:生成對抗網絡-NIPS 2017對抗樣本攻防賽冠軍算法分享
    對抗樣本是一類被惡意設計來攻擊機器學習模型的樣本。它們與真實樣本的區別幾乎無法用肉眼分辨,但是卻會導致模型進行錯誤的判斷。對抗樣本的存在會使得深度學習在安全敏感性領域的應用收到威脅,如何對其進行有效的防禦是重要的研究課題。我們提出了動量迭代快速符號化梯度法和高層引導去躁算法,分別應用於對抗樣本的攻擊和防禦,取得了NIPS 2017對抗樣本比賽的冠軍。
  • 清華大學團隊包攬三項冠軍,NIPS 2017對抗樣本攻防競賽總結
    簡介最近機器學習和深度神經網絡的飛速發展,使得研究人員能夠解決諸如圖像、視頻、文字分類等很多重要的實際問題。然而目前的機器學習分類器很容易受到對抗樣本的攻擊。在現實世界中,攻擊者可能給某些網絡服務上傳 PNG 圖片文件,使得這些精心設計過的文件會被錯誤的讀取。比如為了使得某些垃圾內容能夠發布在社交網絡上,需要使用對圖像文件加入對抗擾動以繞過垃圾內容檢測器。物理攻擊。在現實世界中這種情況下,攻擊者不能夠直接給模型提供數字表示。但是,模型的輸入是從某些傳感器中得到的,比如相機或者麥克風。
  • 你真的懂對抗樣本嗎?一文重新思考對抗樣本背後的含義
    對抗樣本的非正式定義:以人類不可感知的方式對輸入進行修改,使得修改後的輸入能夠被機器學習系統誤分類,儘管原始輸入是被正確分類的。這一修改後的輸入即被稱為對抗樣本。還有種這樣的技術叫做三胞胎網絡 (triplet networks)。三胞胎網絡通過同時將 3 張圖片一次傳遞到三個相同的嵌入網絡並行運行。類別 y 的 anchor 通過時,會伴隨著一個同類別的正樣本和一個不同類別 y』的負樣本。損失函數將確保 anchor 和正樣本之間的距離至少比 anchor 和負樣本之間的距離小。
  • 谷歌推出新框架:只需5行代碼,就能提高模型準確度和魯棒性
    曉查 發自 凹非寺量子位 出品 | 公眾號 QbitAI今天,谷歌推出了新開源框架——神經結構學習(NSL),它使用神經圖學習方法,來訓練帶有圖(Graph)和結構化數據的神經網絡,可以帶來更強大的模型。現在,通過TensorFlow就能獲取和使用。NSL有什麼用?
  • 「廣橫走」的華南理工,碰上有湘雅醫學院的中南大學,選哪一個?
    華南理工與中南大學,一個是有「黃橫走」、企業家搖籃之稱的廣東985,一個是有湘雅醫學院的湖南985,華工有8個A類學科,中南12個A類學科,看全國考生用分數投票的結果,華工平均超中南近10分。華南理工有7個A-學科,包括建築學,以及化學工程、食品科學、材料科學等冷門學科。看專業分,中南整體專業低於華工,除了醫學類。
  • 學界 | 綜述論文:對抗攻擊的12種攻擊方法和15種防禦方法
    儘管深度學習在很多計算機視覺領域的任務上表現出色,Szegedy et al. [22] 第一次發現了深度神經網絡在圖像分類領域存在有意思的弱點。他們證明儘管有很高的正確率,現代深度網絡是非常容易受到對抗樣本的攻擊的。這些對抗樣本僅有很輕微的擾動,以至於人類視覺系統無法察覺這種擾動(圖片看起來幾乎一樣)。這樣的攻擊會導致神經網絡完全改變它對圖片的分類。
  • 清華朱軍團隊包攬三項冠軍 | NIPS 2017對抗樣本攻防競賽總結(附學習資料)
    最近機器學習和深度神經網絡的飛速發展,使得研究人員能夠解決諸如圖像、視頻、文字分類等很多重要的實際問題。然而目前的機器學習分類器很容易受到對抗樣本的攻擊。理想情況下,一種防禦方式是可以被證明可行的,但是通常機器學習和神經網絡很難從理論上進行分析。因此,這次舉辦的比賽使用了一種有效的評估方法:多隻獨立的隊伍作為防守方和攻擊方進行對抗,兩方都儘可能的去獲得勝利。這種評估方法雖然不如理論證明那樣有決定性,但是這與現實生活中安全場景下的攻防對抗更相似。
  • 華南理工王教授「性侵女學生」?你的智商有被按在地上摩擦嗎?
    10月9日,一位女子在華南理工的篤行樓撕心裂肺的哭喊。「我求求你們了,幫我伸張正義。他強姦了很多人。報警,我求求你了,我被強姦了。」女子口中指責的人,是華南理工公共管理學院教授、博士生導師王雨磊。當天晚上,華南理工發布公告:現已查實,王雨磊嚴重違背教師職業操守,予以解聘。