Ian Goodfellow推薦論文:給機器學習增加防禦就能解決魯棒性問題...

2020-12-14 雷鋒網

雷鋒網 AI 科技評論按:在谷歌大腦做人工智慧研究的Ian Goodfellow近日在推特上推薦了一篇關於防禦對抗性樣本的論文。這篇論文的內容剛好與他關於測試與驗證方法的文章相呼應,可謂是對他提出的機器學習模型安全性堪憂觀點的實證。

論文簡介

雷鋒網(公眾號:雷鋒網)了解到,這篇論文的名字為為「Adversarial Example Defenses: Ensembles of Weak Defenses are not Strong」,「防禦對抗性樣本:弱的防禦方式組合起來也不強」,來自UC伯克利大學。論文關注的是機器學習模型面對攻擊性數據時的防禦表現,也就是模型的魯棒性。論文中用生成式的方法修改MNIST和CIFAR-10中的圖片,形成對抗性的樣本,目的是讓分類器對修改後的樣本產生誤判,藉此對分類器的所用防禦方法的效果進行評價。

論文中測試了五種不同的防禦方式

  • 單獨使用降低色深方法(color-depth-reduction defense,能夠減少對大量像素的微小改動,是效果較弱的特徵壓縮方法)

  • 單獨使用空間平滑方法(spatial smoothing,能夠減少對少量像素的大幅改動,是效果較弱的特徵壓縮方法)

  • 降低色深和空間平滑這兩者的組合(「combination of multiple squeezing techniques」,標題所指的「弱的防禦方式的組合」)

  • 使用一組專用識別器,對分類後的圖像再次檢測攻擊性;如果其中有識別器檢測到其對應的攻擊性特徵,就可以通過對分類結果的置信度體現出來(「ensemble of specialists」)

  • 使用三種對抗性攻擊檢測器的組合(「ensemble of detectors」,三種檢測器分別為Gong、Metzen和Feinman)。

下面幾張圖展示的就是測試結果。第一行是原始圖像,通過生成模型修改出的能夠使分類器錯誤分類的攻擊圖像在第二行。

降低色深法防禦CIFAR-10圖像(左),空間平滑法防禦MNIST圖像(右)

空間平滑法防禦CIFAR-10圖像(左),降低色深和空間平滑組合防禦MNIST圖像(右)

降低色深和空間平滑組合防禦CIFAR-10圖像(左),專用識別器防禦MNIST圖像(右)

可以直觀地看到,四種防禦方式的效果都非常有限,每一組中的第二行圖片只有不大的改動,就已經可以導致分類器對樣本的誤判。由於MNIST圖像比較簡單,對於幾種防禦方式,對抗性處理帶來的失真許多時候已經可以看得出來;但CIFAR-10的圖像來說,能夠騙過分類器的變化仍然都是人眼察覺不到的。

為了量化比較,他們也用把對抗性處理帶來的失真(distortion)進行了數值化,雖然幾種方法都不理想,但是所需的失真數量確實還是有所區別,能夠反映防禦能力的高低。

對於第五種防禦方法,論文中還選取了另一種指標,就是自適應的攻擊圖片生成器除了能夠騙過它本來目標的檢測器之外(為了三種中的一種生成一張攻擊圖片,成功率輕鬆達到100%),能否同樣輕鬆地騙過沒有作為目標的檢測器。結果是為騙Metzen生成的圖片(作為source)最容易同樣騙過另外兩種(作為target),而為Feinman生成的就要差一點。

第五種防禦方法裡,三種檢測器的交叉測試結果

總的來說,現有結果表明弱防禦方式的組合併不能顯著提高系統的魯棒性,想要找到能夠高效防禦對抗性樣本的方法還有很長的路要走。

論文中也介紹了他們在生成攻擊圖像過程中的收穫:1. 評估防禦能力的時候要想辦法生成比較強的攻擊圖像,最好不要用FGSM這樣圖快的方法;2. 評估防禦能力的時候最好用自適應性的攻擊圖像生成器,這樣對於攻擊者知道防禦手段的情況也能夠提高安全性。

雷鋒網 AI 科技評論也會對機器學習模型的安全性和隱私保護問題持續給予關注,請關注更多後續文章。

論文地址:https://arxiv.org/abs/1706.04701

相關文章:

Ian Goodfellow與ICLR 17最佳論文得主新作:驗證與測試,機器學習的兩大挑戰

雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • MIT在讀博士生質疑ICLR 2018防禦論文很水?Ian Goodfellow跟帖回應
    Anish Athalye:我們研究了 ICLR 論文,結果並不令人滿意到底是什麼言論驚動了眾多 AI 界大牛,我們先來看看這篇推文:防禦對抗樣本仍然是一個尚未解決的問題,三天前公布的 ICLR 接收論文裡,八篇關於防禦論文裡已經有七篇被我們攻破。
  • Ian Goodfellow發推講2個機器學習黑魔法,教你如何推導公式
    今早連發了10條推特,細數了他最喜歡的兩個機器學習「黑魔法」。他在著名的GAN論文中使用這兩個小竅門推導了公式。最後,他還不忘操心大家的學習,推薦了一本關於凸優化的書。當然,更詳盡的操作還是要去看Goodfellow本人的《深度學習》。
  • 大咖| GAN之父Ian Goodfellow在Quora:機器學習十問十答
    本次互動吸引了將近2萬Quora用戶的參與,兩人總共回答了網友提出的35個機器學習相關的問題。大數據文摘從中精選出10個問題,從機器學習入門到深入探討都有涉及,帶你了解大佬眼中的機器學習。當然,我們也摘錄了Ian Goodfellow對他的「愛子」GAN的點評。
  • Ian Goodfellow線上直播實錄:關於GANs的那些不為人知的事兒
    您認為今天重新思考「神經元」在深度學習模型中的工作方式是唯一能夠解決對抗樣本中的魯棒性問題嗎?在你的一些視頻中,你曾經提到過存在這種普遍性問題,因為這些模型都是「線性」(而不是許多人稱的「非線性」)。我們是通過深入探索目前這些神經元模型來找出錯誤,還是說將完美的激活函數和數據增強/防禦混合起來作為一個整體模型運用到模型中,就能修復這些問題?
  • 專訪Ian Goodfellow:不積跬步無以成就GAN
    早年有篇論文叫Maxout Networks,我們曾仿照它自己寫了個MNIST分類器,到訓練GAN時,我們直接複製了分類器的代碼,論文的超參數在GAN裡也很好用,所以我們基本沒做什麼更新。再加上在MNIST上訓練用時很短,我認為第一個MNIST GAN只花了我大約一小時的時間。
  • lan Goodfellow IEEESSP最新演講:對抗性實例安全性研究及其未來
    先來回顧一下上周的推特小課堂:學界 | Ian Goodfellow發推講2個機器學習黑魔法,教你如何推導公式學界 | Ian Goodfellow推特小課堂又開課啦:數學求導的小技巧昨天,Ian Goodfellow在Deep Learning and Security worshop(IEEESSP)上發表演講,主題是對抗性實例安全性研究及其未來發展的方向。
  • Ian Goodfellow 和 Papernot 半年三篇博文,對機器學習的安全隱私來了個大起底
    安全與隱私問題的積極行動者GANs 的提出者、在谷歌大腦做人工智慧研究的 Ian Goodfellow 近期在 Twitter 上的動向都是安全方面的。AI 科技評論剛剛給大家介紹了最新兩篇,一篇是他推薦的論文「Adversarial Example Defenses: Ensembles of Weak Defenses are not Strong」(「防禦對抗性樣本:弱的防禦方式組合起來也不強」),來自 UC 伯克利。
  • Ian Goodfellow 談 GANs 論文評審:有這些跡象的論文要懷疑
    雷鋒網 AI 科技評論按:谷歌大腦研究員、「GANs」之父、《Deep Learning》課本作者之一的 Ian Goodfellow 自上次的線上直播裡回答了網友們提出的種種問題之後,昨天也在 Twitter 上發表了很多關於
  • GAN之父Ian Goodfellow:那個賦予機器想像力的人類
    自從Goodfellow等人在2014年發表了關於他的發現的第一份報告之後,數百篇與GAN相關的論文陸續發表。GAN的一名粉絲甚至還創建了一個名為「GAN zoo」的網頁,專門用於追蹤已經開發出來的不同版本的GAN。
  • 萬字長文 | 對抗魯棒性簡介
    增強模型對抗魯棒性黑客尋找對抗樣本的目的是去攻擊模型;而白客的目的是修補漏洞。(紅客的目的是啥?白客通常有兩種防禦方法:一種是發現有人攻擊漏洞了就阻止這個人進入系統;另一種是儘量修補已知的漏洞。對應到對抗魯棒性這裡,就是兩種策略:1、設計檢測方法,檢測到對抗樣本後拒絕分類;2、真正增加模型魯棒性,使模型正確分類對抗樣本。
  • 重磅| GAN之父Ian Goodfellow加盟蘋果
    目前,Ian Goodfellow 的 LinkedIn 帳戶已經更新了最近的跳槽活動:「我在蘋果公司領導一個機器學習特殊任務群組。」Goodfellow 寫道。前谷歌 AI 主管 John Giannandrea 也加入了蘋果,擔任蘋果的機器學習和人工智慧戰略高級副總裁,監管所有人工智慧和機器學習開發,包括 Core ML 和 Siri 技術。Giannandrea 和 Goodfellow 以前在谷歌一起工作,Goodfellow 似乎是 Giannandrea 出任蘋果高管後精挑細選的人。
  • ICLR2018論文投稿搶先看:Ian Goodfellow由衷讚賞的訓練穩定方法SN...
    NVIDIA甚至主動推廣了自己投遞的一篇論文,雷鋒網 AI 科技評論也對論文主要內容做了報導 NVIDIA論文:用GAN生成高清圖像 | ICLR 2018。  這兩天又有一篇精彩的論文被發現、分享出來,Ian Goodfellow也給了很真誠且正面的評價:
  • Goodfellow:同行評議才是現今AI會議論文水平下降的元兇!
    現在的頂會評審,真是出了大問題。 Goodfellow:同行評議才是現今AI會議論文水平下降的元兇! Goodfellow在推文中表示,作為頻繁出任會議領域主席並且管理一支小型科研團隊的研究者,他經常能看到很多人(包括他自己團隊在內)工作的評審意見。
  • 交互式線上科學期刊Distill上線,IanGoodfellow表示「學ML就找它」
    如今,機器學習的發展正如火如荼,每天都有眾多最新研究論文在線上發表。論文不僅承擔了分享研究成果的責任,同時,也表達了科學家們對事物的不同理解。雷鋒網了解到,為了更好地讓機器學習領域的科學家們分享研究成果,探討最新進展, OpenAI,、DeepMind和 YC Research等多個機構機構於昨日聯合發布了一個交互式科學期刊網站,該網站主要有發表期刊學報、為優秀著作發放 Distill prize獎金以及提供交互性論文寫作工具這三個功能。DistillDistill有何特色?
  • 【Ian Goodfellow 強推】GAN 進展跟蹤 10 大論文(附下載)
    新智元報導 編譯:小潘、肖琴【新智元導讀】生成對抗網絡GAN的提出者Ian Goodfellow在推特上推薦了10篇GAN論文,是跟蹤GAN進展,了解最新技術不容錯過的。Ian Goodfellow 評論此工作:ML 的研究人員,審稿人和有關 ML 的新聞報導需要對結果的統計穩健性和超參數的效果進行更認真的研究。這項研究表明,過去一年多的很多論文只是觀察抽樣誤差,而不是真正的改進。
  • 谷歌大牛Ian Goodfellow已經加盟蘋果,擔任特殊項目的機器學習主管
    1985年出生的Ian Goodfellow在史丹福大學獲得計算機科學博士學位,並在蒙德利爾大學師從今年的圖靈獎得主Yoshua Bengio學習機器學習。 2014年,Ian Goodfellow發表著名的論文,標誌著GAN的誕生,因此他也被稱為GAN之父。
  • 谷歌34歲AI新生代領袖被蘋果挖走 「GAN之父」Ian Goodfellow跳槽
    圖丨 Goodfellow 的另一大作恐怕就是他和新晉圖靈獎得主 Bengio 共寫的「大花書」而在短短四年內,這項技術給機器學習領域帶來了巨大的影響,也讓它的發明人 Goodfellow 成為了 AI 領域裡的一名新生代"教父"。
  • IanGoodfellow撰文總結:谷歌的ICLR2017碩果纍纍
    雷鋒網消息,谷歌大腦團隊的IanGoodfellow今日在研究院官網上撰文,總結了谷歌在ICLR2017上所做的學術貢獻。雷鋒網編譯全文如下,未經許可不得轉載。本周,第五屆國際學習表徵會議(ICLR2017)在法國土倫召開,這是一個關注機器學習領域如何從數據中習得具有意義及有用表徵的會議。
  • Ian Goodfellow撰文總結:谷歌的 ICLR 2017 碩果纍纍
    ICLR 包括 conference track 及 workshop track 兩個項目,邀請了獲得 oral 及 poster 的研究者們進行分享,涵蓋深度學習、度量學習、核學習、組合模型、非線性結構化預測,及非凸優化問題。站在神經網絡及深度學習領域浪潮之巔,谷歌關注理論與實踐,並致力於開發理解與總結的學習方法。
  • 自IanGoodfellow之後,GANs還有哪些開拓性進展?
    他熱衷於將自己的機器學習和計算機視覺技術應用在健康領域,給醫生和患者帶來更好的解決方案,以下為雷鋒網編譯整理的內容:從這周開始,我將會做一個新欄目——深度學習研究綜述。每隔幾周,我會總結和解釋一些深度學習子方向的論文。這周我會從生成對抗網絡(Generative Adversarial Networks,GANs)這個方向開始。