Ian Goodfellow 和 Papernot 半年三篇博文,對機器學習的安全隱私來了個大起底

2021-02-15 GeekPwn

AI 科技評論按:隨著人工智慧研究的不斷發展,由機器學習模型在背後提供支持的功能越來越多地開始商業化,最終用戶的生活裡機器學習能造成的影響也越來越大。這時候,機器學習的安全和隱私問題也就越來越明顯,誰都不想被自動駕駛的車輛傷害,誰也都不希望自己的語音助手洩露自己的私人信息。

安全與隱私問題的積極行動者

GANs 的提出者、在谷歌大腦做人工智慧研究的 Ian Goodfellow 近期在 Twitter 上的動向都是安全方面的。AI 科技評論剛剛給大家介紹了最新兩篇,一篇是他推薦的論文「Adversarial Example Defenses: Ensembles of Weak Defenses are not Strong」(「防禦對抗性樣本:弱的防禦方式組合起來也不強」),來自 UC 伯克利。另一篇是他發在 Clever Hans 博客的文章 「The challenge of verification and testing of machine learning」(「驗證與測試,機器學習的兩大挑戰」)。

Clever Hans 博客(http://www.cleverhans.io/)大家可能不熟悉,但是其實這個博客去年就開放了。這個博客是 Ian Goodfellow 和 Nicolas Papernot 兩人共同創建、更新的,還建立了 cleverhans 對抗性機器學習樣本庫目,他們的目的是與全世界的研究者們共同探索和改善機器學習模型在安全和隱私方面的表現。

而且這還不是 Ian Goodfellow 和 Nicolas Papernot 第一次合作,實際上,兩人合作的論文「Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data」(用半監督知識遷移解決深度學習中訓練數據隱私問題),就在 ICLR2017 上拿到了最佳論文獎。

相比於絕大多數人機器學習領域的研究人員精力都還在設計模型、訓練模型或者建立訓練資料庫上,這兩人可謂是安全和隱私領域的急先鋒,自己研究探索的同時,也推廣著機器學習模型的安全和隱私意識,還積極促進研究社區中的學術交流。

說了這麼多, Ian Goodfellow 和 Nicolas Papernot 對安全和隱私問題的具體認識是怎樣的?在他們看來這些問題現在得到解決了嗎?以下 AI 科技評論根據 Clever Hans 博客給大家做具體的講解。

怎麼樣的系統是安全的系統?

如果讓 Ian Goodfellow 和 Nicolas Papernot 給出定義的話,一個可靠的、可以保證像預期那樣工作的系統,就是一個安全的系統。

為了達到系統的行為符合預期的目標,設計系統的人心裡就需要有一個威脅模型。「威脅模型」是一組經過嚴格定義的任意一個可能希望「系統異常運作」的攻擊者具有的能力和目標的假設。

目前為止,多數的機器學習系統在設計的時候都只對應了一個很弱的威脅模型,可以說這樣的模型裡是沒有什麼具體成員的。這樣的機器學習系統的設計目標只是為了在給與自然輸入的時候能夠正常工作。今天的設計者們應當開始設計的系統,需要在面對惡意用戶和面對基於機器學習的惡意敵對方的時候還能正常工作。

舉例說明,一個人工智慧系統在訓練時(學習階段)或者在進行預測時(推理階段)都有可能被攻擊者盯上。攻擊者還會有各種不同的能力,其中很有可能包括對模型內部結構和參數,或者對模型輸入輸出的更改權限。

攻擊者能造成哪些危害?

攻擊者的攻擊可以影響系統的保密性(confidentiality)、完整性(integrity)和可用性(availability),三者可以合稱為安全領域的「CIA模型」。

雖然目前研究者們還沒有展示很多成功進行攻擊的案例,但是 Ian Goodfellow 和 Nicolas Papernot 表示在未來的博文中會逐漸做更多介紹。

目前已經可以明確表述的攻擊方式有三種:在訓練時對模型進行完整性攻擊,在推理時進行完整性攻擊,以及隱私攻擊

在訓練集中下毒 - 在訓練時對模型進行完整性攻擊

攻擊者可以通過修改現有訓練數據、或者給訓練集增加額外數據的方法來對訓練過程的完整性造成影響。比如假設莫裡亞蒂教授要給福爾摩斯栽贓一個罪名,他就可以讓一個沒被懷疑的同夥送給福爾摩斯一雙獨特、華麗的靴子。當福爾摩斯穿著這雙靴子在他經常協助破案的警察面前出現過以後,這些警察就會把這雙靴子和他聯繫起來。接下來莫裡亞蒂教授就可以穿一雙同樣的靴子去犯罪,留下的腳印會讓福爾摩斯成為被懷疑的對象。

幹擾機器學習模型的訓練過程,體現的攻擊策略是當用於生產時讓機器學習模型出現更多錯誤預測。具體來說,這樣的方法可以在支持向量機(SVM)的訓練集中下毒。由於算法中預測誤差是以損失函數的凸點衡量的,這就讓攻擊者有機會找到對推理表現影響最大的一組點進行攻擊。即便在更複雜的模型中也有可能找到高效的攻擊點,深度神經網絡就是這樣,只要它們會用到凸優化。

用對抗性的樣本讓模型出錯 - 在推理時進行完整性攻擊

實際上,讓模型出錯是非常簡單的一件事情,以至於攻擊者都沒必要花功夫在訓練機器學習模型參數的訓練集中下毒。他們只要在推理階段(模型訓練完成之後)的輸入上動動手腳,就可以立即讓模型得出錯誤的結果。

要找到能讓模型做出錯誤預測的幹擾,有一種常用方法是計算對抗性樣本。它們帶有的幹擾通常很微小,人類很難發現,但它們卻能成功地讓模型產生錯誤的預測。比如下面這張圖,用機器學習模型識別最左側的圖像,可以正確識別出來這是一隻熊貓。但是對這張圖像增加了中間所示的噪聲之後得到的右側圖像,就會被模型識別成一隻長臂猿(而且置信度還非常高)。

相關焦點

  • GAN之父Ian Goodfellow:那個賦予機器想像力的人類
    我們能夠想像和思考不同的場景,這是我們作為人的一部分。當未來技術方面的歷史學家回過頭來看時,可能會把GAN方法的提出看作是邁向創造具有類人意識機器的一大步。臉書的人工智慧首席科學家Yann LeCun將GAN稱之為『近20年來深度學習領域最棒的想法』。
  • 谷歌大牛Ian Goodfellow已經加盟蘋果,擔任特殊項目的機器學習主管
    谷歌大牛Ian Goodfellow已經加盟蘋果,擔任特殊項目的機器學習主管。 又有大牛被蘋果挖走。 谷歌高級研究科學家、OpenAI研究科學家Ian Goodfellow周四更新了自己的LinkedIn,最新的職業信息顯示,他3月份已經加盟蘋果,擔任特殊項目的機器學習主管。
  • 專訪Ian Goodfellow:不積跬步無以成就GAN
    Ian Goodfellow:我從本科開始就已經在研究人工智慧了,只不過那時機器學習主要是SVM、boosted tree等。在課餘,我也是遊戲編程的業餘愛好者,會用GLslang製作一些小項目。早年有篇論文叫Maxout Networks,我們曾仿照它自己寫了個MNIST分類器,到訓練GAN時,我們直接複製了分類器的代碼,論文的超參數在GAN裡也很好用,所以我們基本沒做什麼更新。再加上在MNIST上訓練用時很短,我認為第一個MNIST GAN只花了我大約一小時的時間。
  • Ian Goodfellow 離開OpenAI,重回谷歌大腦團隊
    據雷鋒網(公眾號:雷鋒網) AI 科技評論了解,目前 Ian Goodfellow 的 LinkedIn 個人資料已經新增了一列,頭銜為谷歌「Staff Research Scientist」,而 Twitter 上的資料顯示為「Google Brain research scientist」;不過維基和 Quora 上的資料暫時還沒有更新。
  • lan Goodfellow IEEESSP最新演講:對抗性實例安全性研究及其未來
    先來回顧一下上周的推特小課堂:學界 | Ian Goodfellow發推講2個機器學習黑魔法,教你如何推導公式學界 | Ian Goodfellow推特小課堂又開課啦:數學求導的小技巧秉著「大家good才是真的good」的精神,我們的goodfellow隨即在推特上給大家分享了這次演講的PDF連結:在這次演講中,Goodfellow介紹了對抗性實例,即攻擊者有意設計的、造成機器學習模型出錯的輸入。
  • Ian Goodfellow發推講2個機器學習黑魔法,教你如何推導公式
    最後,他還不忘操心大家的學習,推薦了一本關於凸優化的書。當然,更詳盡的操作還是要去看Goodfellow本人的《深度學習》。文摘菌給大家搭配了斯坦福的一門MOOC,一起學習風味更佳~拉至文末查看喔~Goodfellow稱,這是關於機器學習,他最喜歡的兩個快速理解理論推導的「黑魔法」。
  • Ian Goodfellow線上直播實錄:關於GANs的那些不為人知的事兒
    Ian Goodfellow:我或許沒有資格評價強化學習,但是我認為 GAN 是使用強化學習來解決生成建模的一種方式。GAN 案例的一些奇怪的地方在於獎勵函數在行動中是完全已知和可微分的,獎勵是非穩態的,獎勵也是代理策略的一種函數。但我確實認為它是基於強化學習。
  • 自IanGoodfellow之後,GANs還有哪些開拓性進展?
    他熱衷於將自己的機器學習和計算機視覺技術應用在健康領域,給醫生和患者帶來更好的解決方案,以下為雷鋒網編譯整理的內容:從這周開始,我將會做一個新欄目——深度學習研究綜述。每隔幾周,我會總結和解釋一些深度學習子方向的論文。這周我會從生成對抗網絡(Generative Adversarial Networks,GANs)這個方向開始。
  • 自Ian Goodfellow之後,GANs還有哪些開拓性進展?
    他熱衷於將自己的機器學習和計算機視覺技術應用在健康領域,給醫生和患者帶來更好的解決方案。一直以來,Adit Deshpande 都有總結和解釋一些深度學習論文的習慣,在本文中,Adit Deshpande 將圍繞對抗生成網絡(GANs)的主題來展開介紹。以下為雷鋒網編譯整理的內容:
  • Ian Goodfellow 談 GANs 論文評審:有這些跡象的論文要懷疑
    審稿人們其它可能的目標還包括:比一般大眾更早地看到有意思的研究(不過現在論文都傳 arXiv 了,這樣的人就沒那麼多了)、確保好的研究成果不會被拒、審閱他們自己做過深入研究的某幾個課題下的論文,等等。當然也有一些審稿人的做法很消極、很自私。比如,審稿人和某篇論文的作者有私人恩怨,那他就可能會要求審這篇論文,以便給它打個低分。
  • 重磅| GAN之父Ian Goodfellow加盟蘋果
    機器之心報導機器之心編輯部據 CNBC 報導,生成對抗網絡(GAN)的創造者,前谷歌大腦著名科學家 Ian Goodfellow 剛剛正式宣布加盟蘋果。他將在蘋果公司領導一個「機器學習特殊項目組」。在回歸谷歌之前,Ian Goodfellow 在另一家著名人工智慧研究機構 OpenAI 工作。後者是一個人工智慧研究聯盟,最初由埃隆·馬斯克(Elon Musk)和其他科技名人出資創建。
  • 大咖| GAN之父Ian Goodfellow在Quora:機器學習十問十答
    不同於去年的獨挑大梁,他今年還叫來了他在Google Brain的好基友Alexey Kurakin。本次互動吸引了將近2萬Quora用戶的參與,兩人總共回答了網友提出的35個機器學習相關的問題。大數據文摘從中精選出10個問題,從機器學習入門到深入探討都有涉及,帶你了解大佬眼中的機器學習。
  • ...35揭曉:阿里巴巴王剛、吳翰清等六位華人當選,Ian Goodfellow...
    而今年的榜單揭曉後,雷鋒網(公眾號:雷鋒網) AI 科技評論發現谷歌大腦研究科學家 Ian Goodfellow 也上榜了。想必讀者們對 Ian Goodfellow 並不陌生,作為 GANs 之父,Ian Goodfellow 是 Yoshua Bengio 的得意門生。
  • 谷歌34歲AI新生代領袖被蘋果挖走 「GAN之父」Ian Goodfellow跳槽
    當地時間周四(4月4日),隨著 Ian Goodfellow 更新了他在領英上的個人資料,他 3 月份從谷歌跳槽到了蘋果的事實得到了證實。目前,他是蘋果特殊項目小組的機器學習主管。DeepTech 曾就此事聯繫 Goodfellow ,未收到沒有回覆相關評論。
  • IanGoodfellow撰文總結:谷歌的ICLR2017碩果纍纍
    雷鋒網消息,谷歌大腦團隊的IanGoodfellow今日在研究院官網上撰文,總結了谷歌在ICLR2017上所做的學術貢獻。雷鋒網編譯全文如下,未經許可不得轉載。本周,第五屆國際學習表徵會議(ICLR2017)在法國土倫召開,這是一個關注機器學習領域如何從數據中習得具有意義及有用表徵的會議。
  • 「我比Goodfellow提前三年想到了GAN」
    大數據文摘出品作者:魏子敏2014年的一晚,Ian Goodfellow和一個剛剛畢業的博士生一起喝酒慶祝。在蒙特婁一個酒吧,一些朋友希望他能幫忙看看手頭上一個棘手的項目:計算機如何自己生成圖片。研究人員已經使用了神經網絡(模擬人腦的神經元網絡的一種算法),作為生成模型來創造合理的新數據。但結果往往不盡人意。計算機生成的人臉圖像通常不是模糊不清,就是缺耳少鼻。Ian Goodfellow朋友們提出的方案是對那些組成圖片的元素進行複雜的統計分析以幫助機器自己生成圖片。
  • Ian Goodfellow撰文總結:谷歌的 ICLR 2017 碩果纍纍
    雷鋒網消息,谷歌大腦團隊的 Ian Goodfellow 今日在研究院官網上撰文,總結了谷歌在 ICLR 2017 上所做的學術貢獻。雷鋒網編譯全文如下,未經許可不得轉載。本周,第五屆國際學習表徵會議(ICLR 2017)在法國土倫召開,這是一個關注機器學習領域如何從數據中習得具有意義及有用表徵的會議。ICLR 包括 conference track 及 workshop track 兩個項目,邀請了獲得 oral 及 poster 的研究者們進行分享,涵蓋深度學習、度量學習、核學習、組合模型、非線性結構化預測,及非凸優化問題。
  • Ian Goodfellow推特小課堂又開課啦:數學求導的小技巧
    大數據文摘作品作者:小魚、蔣寶尚最近,Ian Goodfellow不斷在推特和大家分享一寫學習的小技巧。在昨天和大家分享了推導機器學習公式推導的黑魔法後,今天又連發幾條推特,和大家分享了數學中求導數的小技巧。Goodfellow稱,他最喜歡用超實數(hyperreal numbers)來求導數。註:超實數是一個包含實數以及無窮大和無窮小的域,它們的絕對值分別大於和小於任何正實數。
  • Ian Goodfellow跟帖回應
    Anish Athalye:我們研究了 ICLR 論文,結果並不令人滿意到底是什麼言論驚動了眾多 AI 界大牛,我們先來看看這篇推文:防禦對抗樣本仍然是一個尚未解決的問題,三天前公布的 ICLR 接收論文裡,八篇關於防禦論文裡已經有七篇被我們攻破。
  • IanGoodfellow:只是純策略版本
    個人主頁:http://yehar.com/blog/2010年,他發布了一篇帖子,提出了一種新思想:這裡介紹一種訓練神經網絡來生成可變上下文缺失數據的方法。這種方法很難用一句話講清楚,所以下面我將舉個例子:一張圖像中可能會有缺失的像素(例如有汙漬)。