騰訊曝光新型AI攻擊手法:「黑」掉神經網絡,構造後門,最主流模型均...

2020-12-15 澎湃新聞

蕭簫 發自 凹非寺

量子位 報導 | 公眾號 QbitAI

有沒有想過,你從網上下載的AI模型,可能已經被植入了「木馬」?

模型看起來運行效果不錯,但潛藏危機。

一旦攻擊者扣動「扳機」,或是你踩到了模型裡埋下的「地雷」,整個AI模型就崩潰了。

想像一下,AI監控被幹擾,盜賊可以登堂入室;通過幾句噪音,家用AI音箱就能被外人操控……

最近,這種針對AI模型的新型「木馬」攻擊,已經被騰訊實現了。

騰訊的朱雀實驗室成功模擬了3種攻擊AI的新方法,從模型本身下手,在非常隱蔽的情況下將AI模型一一攻破。

無論是Tensorflow、Caffe還是Pytorch框架,目前最主流的AI模型無一倖免。

來看看它實現的原理。

將「木馬」植入AI模型

傳統的AI攻防技術,通常針對數據樣本進行破壞。

例如,在圖片樣本中改造幾個小元素,生成對抗樣本,圖中的熊貓就被識別成了長臂猿。

目前這樣的「樣本投毒」方式,已經有了相應的研究,例如創新工場入選NIPS 2019的「AI蒙汗藥」論文,就是通過微弱擾動資料庫的方式,徹底破壞對應的學習系統的性能,達到「數據下毒」的目的。

△ 周志華教授也在作者列

然而,如果攻擊者直接控制AI模型的神經元,給AI植入木馬,那麼這樣的攻擊將會更加難防。

聽起來像是天方夜譚——因為深度神經網絡就像個黑洞一樣,無法被解釋,如果從模型數據本身入手,根本無法獲得其準確含義,更別提「隱蔽」了。

就這,還想給AI模型植入「木馬」?

但事實上,AI模型比想像中要「脆弱」。

騰訊研究人員用了3種攻擊方式,輕輕鬆鬆就將「木馬」植入了AI模型中,這三種方法,分別是AI供應鏈攻擊、模型感染和數據木馬。

利用AI框架「投毒」

AI供應鏈攻擊,目的在於給部分AI模型植入惡意執行代碼,讓它變成大型「木馬」。

然後,將這種木馬投放到開源社區,就能讓木馬廣泛地傳播開來,造成大範圍的AI供應鏈被汙染。

這個攻擊,靠的是各類軟體相互的依賴性。

例如,Numpy作為Python最流行的庫,同時也會是一個很好的傳播手段,利用Numpy的漏洞,可以執行任意代碼的攻擊方式。

如果利用這個漏洞,將訓練好的模型和惡意代碼一同捆綁到Pytorch的模型文件中,就像是投下了一包「毒藥」,這一過程利用的是AI框架的模型文件。

如下圖所示,上下兩張圖分別是神經網絡原始的部分模型、和被植入惡意代碼的部分模型。

AI供應鏈攻擊的方式,可以保持原有模型不受任何功能上的影響,但在模型文件被加載的瞬間卻能夠執行惡意代碼邏輯,造成的後果是很嚴重的。

給「木馬」開後門

在電腦程式中,「後門程序」通常是開發者為了修改方便,給程序裡裝的一個能逃過所有「安全檢查」的程序,有點像「以管理員身份運行」。

然而,如果攻擊者在使用AI模型時也「以管理員身份運行」,給AI模型埋藏一個「後門」,平時程序運行正常,然而一旦被激活,模型輸出就會變成攻擊者預先設置的目標。

這種攻擊的危險之處在於,後門被觸發前,模型的表現非常正常,所以平時可能無法發現這個病毒的存在。

此前,實現「後門攻擊」的方式,是通過訓練,影響模型的所有神經元信息達到的,但攻擊鏈條太長。

騰訊的研究人員,通過直接控制神經元信息,改造出了一個後門模型。

模型上,他們嘗試從簡單地線性回歸模型和MNIST入手;結構上,從網絡的不同層入手,利用啟發算法分析哪些層的神經元相對後門特性更加敏感。

在CIFAR-10上的實驗證明,這樣的做法的確可行,在保持模型功能的準確性下降很小的幅度以內(小於2%),可以通過控制若干神經元信息,產生後門的效果。

如下圖,飛機被識別成了卡車;

甚至,連有著7種類型的馬也被識別成了卡車……

在輸出結果差異巨大的情況下,控制神經元相比於整個AI模型的功能來說,影響很小。

利用神經網絡數據「藏毒」

此外,在大規模神經網絡中,還有一種「木馬」病毒的製造方式,那就是通過更改神經元的參數信息。

如何更改參數信息,但又不影響神經網絡的功能實現?

研究發現,神經網絡的參數信息,在小數點後3位之後,對檢測準確性的影響微乎其微。

也就是說,如果攻擊者將攻擊代碼編碼到浮點數的後7、8位精度,那麼就可以在小數點三位以後隱藏惡意信息。

如下圖,9d 2d 57 3f == 0.84053415,替換成9d 2d 57 ff後,影響的精度就是 0.84053040~0.84054559,前四位都可以保持不變。

這樣,就把一段惡意的代碼「隱藏」到了大型神經網絡中。

如果觸發了設定的條件,惡意代碼就會加載出攻擊的效果。

研究人員測試了一個40MB左右的網絡,僅靠網絡自身的參數信息就可以編解碼出惡意代碼,甚至隱藏了一個完整的木馬程序。

相對於如此多種攻擊AI模型的「大招」,目前業內卻還沒有可用的「殺毒軟體」,用於檢測這種被攻擊的情況。

AI「殺毒軟體」亟待研發

騰訊的研究人員稱,目前通過修改神經元的方式,達到近似模型後門的效果,屬於國內首次實現。

這種攻擊類型,如果配合傳統的漏洞利用技術,那麼只需要控制神經元就能讓AI模型「中毒」。

相較於數據投毒的方式,將「木馬」植入AI模型的可操作性更高,更不容易被發現,而前者由於更依賴理想的實驗環境,對模型本身、數據源頭都需要較強把控。

事實上,神經網絡「木馬」在硬體方向上已有相關技術研究,但如果硬體木馬改成動態設計,將可能產生非常大的危害。

目前,領域內正在研究這方面的安全防禦建設,力求在多方計算、共享模型的場景下,在研發階段就提前考慮對模型文件的保護。

不必過於擔憂

當然,研究人員也表示,這種「木馬」植入,可以通過「模型可信加載」進行規避。

也就是說,在每次加載模型前,通過交叉對比、數據校驗來規避木馬,有助於將安全理念貫穿整個流程,也能推動AI行業的安全水平提升。

不過,這些安全理念,開發者自己也要瞭然於心,最起碼,可以通過兩個方向來進行預防。

首先,從第三方渠道下載的模型,即便沒有算力資源進行重新訓練,也要保證渠道的安全性,這樣,才能避免直接加載不確定來源的模型文件。

其次,對模型文件加載使用也要做到心中有數。如果攻擊者需要一部分代碼的配合才能完成攻擊,那麼開發者是可以從代碼檢測中發現漏洞的。

— 完 —

本文系網易新聞•網易號特色內容激勵計劃籤約帳號【量子位】原創內容,未經帳號授權,禁止隨意轉載。

原標題:《騰訊曝光新型AI攻擊手法:「黑」掉神經網絡,構造後門,最主流模型均不能倖免》

閱讀原文

相關焦點

  • 「黑」掉神經網絡:騰訊披露新型AI攻擊手法
    騰訊朱雀實驗室發現,通過對 AI 模型文件的逆向分析,可繞過數據投毒環節,直接控制神經元,將 AI 模型改造為後門模型。甚至在保留正常功能的前提下,直接在 AI 模型文件中插入二進位攻擊代碼,或是改造模型文件為攻擊載體來執行惡意代碼,在隱秘、無感的情況下,進一步實現對神經網絡的深層次攻擊。
  • 騰訊曝光新型AI攻擊:「黑」掉神經網絡,最主流模型均不能倖免
    一旦攻擊者扣動「扳機」,或是你踩到了模型裡埋下的「地雷」,整個AI模型就崩潰了。想像一下,AI監控被幹擾,盜賊可以登堂入室;通過幾句噪音,家用AI音箱就能被外人操控……最近,這種針對AI模型的新型「木馬」攻擊,已經被騰訊實現了。
  • 騰訊曝光AI攻擊手法,操縱神經元構造後門,主流ML框架受影響
    該手法更貼近AI攻擊實戰場景,對於喚醒大眾對AI模型安全問題的重視、進行針對性防禦建設具有重要意義。騰訊安全平臺部負責人楊勇表示,當前AI已融入各行各業,安全從業者面臨著更複雜、更多變的網絡環境,我們已經看到了網絡攻擊武器AI化的趨勢,除了框架這樣的AI基礎設施,數據、模型、算法,任何一個環節都是攻防的前線。作為安全工作者,必須走在業務之前,做到技術的與時俱進。
  • 黑掉神經網絡,騰訊朱雀實驗室首亮相:操縱神經元構造AI後門
    隨著技術研究的不斷深入,安全專家也開始探索更高階的攻擊方式,通過模擬實戰中的黑客攻擊路徑,從而針對性的進行防禦建設。騰訊朱雀實驗室發現,通過對 AI 模型文件的逆向分析,可繞過數據投毒環節,直接控制神經元,將 AI 模型改造為後門模型。
  • 騰訊披露新型 AI 攻擊手法,主流機器學習框架受影響
    該手法更貼近 AI 攻擊實戰場景,對於喚醒大眾對 AI 模型安全問題的重視、進行針對性防禦建設具有重要意義。騰訊安全平臺部負責人楊勇表示,當前 AI 已融入各行各業,安全從業者面臨著更複雜、更多變的網絡環境,我們已經看到了網絡攻擊武器 AI 化的趨勢,除了框架這樣的 AI 基礎設施,數據、模型、算法,任何一個環節都是攻防的前線。
  • 「黑」掉神經網絡:通過逆向模型文件來重構模型後門
    開車行駛在回家路上,拿出手機對準攝像頭,用一句語音喚起「Siri」,讓它完成播放音樂的簡單指令,僅用時30秒,你便完成了一次與神經網絡的交互體驗。 伴隨科技的快速發展,深度學習與AI技術在現實中擁有了愈發多樣而靈活的應用場景,而深度學習在計算機視覺任務中獲得的巨大成功,也令神經網絡的安全問題逐漸暴露。
  • 騰訊朱雀實驗室首亮相,披露新型AI攻擊手法
    隨著技術研究的不斷深入,安全專家也開始探索更高階的攻擊方式,通過模擬實戰中的黑客攻擊路徑,從而針對性的進行防禦建設。騰訊朱雀實驗室發現,通過對AI模型文件的逆向分析,可繞過數據投毒環節,直接控制神經元,將AI模型改造為後門模型。
  • 騰訊朱雀實驗室首度亮相 披露新型AI攻擊手法
    這也是國內首個利用AI模型文件直接產生後門效果的攻擊研究。該手法更貼近AI攻擊實戰場景,對於喚醒大眾對AI模型安全問題的重視、進行針對性防禦建設具有重要意義。騰訊安全平臺部負責人楊勇表示,當前AI已融入各行各業,安全從業者面臨著更複雜、更多變的網絡環境,我們已經看到了網絡攻擊武器AI化的趨勢,除了框架這樣的AI基礎設施,數據、模型、算法,任何一個環節都是攻防的前線。
  • 騰訊朱雀實驗室首度亮相,業內首秀控制神經元構造AI模型後門
    騰訊朱雀實驗室發現,通過對AI模型文件的逆向分析,可繞過數據投毒環節,直接控制神經元,將AI模型改造為後門模型。甚至在保留正常功能的前提下,直接在AI模型文件中插入二進位攻擊代碼,或是改造模型文件為攻擊載體來執行惡意代碼,在隱秘、無感的情況下,進一步實現對神經網絡的深層次攻擊。
  • 騰訊最神秘的團隊之一!朱雀首次亮相,披露新型AI攻擊手法
    作為騰訊最神秘的團隊之一,朱雀實驗室專注於實戰攻擊技術研究和AI安全技術研究,以攻促防,守護騰訊業務及用戶的安全。這群首次亮相的「神秘人」在本次峰會上有何看點呢?騰訊安全平臺部負責人楊勇表示,當前AI已融入各行各業,安全從業者面臨著更複雜、更多變的網絡環境,我們已經看到了網絡攻擊武器AI化的趨勢,除了框架這樣的AI基礎設施,數據、模型、算法,任何一個環節都是攻防的前線。作為安全工作者,必須走在業務之前,做到技術的與時俱進。
  • IJCAI 2019 提前看|神經網絡後門攻擊、對抗攻擊
    本文對 3 篇神經網絡安全相關論文進行了介紹。近年來,深度學習在計算機視覺任務中獲得了巨大成功,但與此同時,神經網絡的安全問題逐漸引起重視,對抗樣本熱度持續不下,神經網絡後門攻擊也悄然興起。本文選取了 IJCAI2019 的 3 篇論文,從目標檢測對抗攻擊、實時對抗攻擊、神經網絡後門攻擊三個方面,為大家梳理最新進展。
  • D1net閱聞:騰訊披露新型AI攻擊手法
    騰訊披露新型AI攻擊手法 第19屆XCon安全焦點信息安全技術峰會上,騰訊朱雀實驗室高級安全研究員分享了AI安全方向的最新研究成果:模擬實戰中的黑客攻擊路徑,擺脫傳統利用「樣本投毒」的 AI 攻擊方式,直接控制 AI 模型的神經元,為模型「植入後門」,在幾乎無感的情況下,可實現完整的攻擊驗證。
  • 3種方式:攻克AI!騰訊研究「Z1黑科技」
    不知道大家有沒有想過,我們在網上下載的AI模型,有可能被植入了木馬程序,整個AI模型就會發生崩潰,而這時,AI監控被幹擾,最近,這種針對AI模型的新型程序攻擊,已經被騰訊實現了,可能很多人看到這裡會很迷惑,攻克了AI模型有什麼意義嗎,黑客們又是如何做到的呢,那作為普通人我們應該注意些什麼呢,大家不用著急,還請耐心看下去。
  • 無觸發後門成功欺騙AI模型 為對抗性機器學習提供新的方向
    研究人員將這種技術稱為「無觸發後門」,這是一種在任何情況下都能夠以無需顯式觸發方式對深度神經網絡發動的攻擊手段。機器學習系統中的經典後門後門是對抗性機器學習中的一種特殊類型,也是一種用於操縱AI算法的技術。大多數對抗攻擊利用經過訓練的機器學習模型內的特性以引導意外行為。另一方面,後門攻擊將在訓練階段對抗性漏洞植入至機器學習模型當中。
  • 騰訊安全平臺部孵化的朱雀實驗室亮相,專注AI安全技術研究
    騰訊朱雀實驗室從簡單的線性回歸模型和MNIST開始入手,利用啟發算法,分析模型網絡哪些層的神經元相對後門特性敏感,最終驗證了模型感染的攻擊可能性。在保持模型功能的準確性下降很小幅度內(~2%),通過控制若干個神經元數據信息,即可產生後門效果,在更大樣本集上驗證規模更大的網絡CIFAR-10也同樣證實了這一猜想。
  • 神經網絡的基礎是MP模型?南大周志華組提出新型神經元模型FT
    據論文介紹,這項研究為神經網絡提供了一種新的基本構造單元,展示了開發具有神經元可塑性的人工神經網絡的可行性。 當前的神經網絡大多基於 MP 模型,即按照生物神經元的結構和工作原理構造出來的抽象和簡化模型。此類模型通常將神經元形式化為一個「激活函數複合上輸入信號加權和」的形式。
  • Translated_AI 第三代神經網絡突破進展|一周AI最火學術
    數據集:https://github.com/Robotics-BUT/Brno-Urban-Dataset原文:https://arxiv.org/abs/1909.06897BERT模型的新型量化方法為了最小化BERT模型的性能退化,UCBerkeley的研究人員提出了一種有效量化Q-BERT的方案。
  • 騰訊聯合港中文提出新型神經網絡壓縮方法
    InfoQ 將通過選題的方式逐一介紹各大公司在模型壓縮上的技術創新和落地實踐。在行動裝置和許多在線應用中,實時性能好的輕量級模型是一大重要需求,而為了保證神經網絡的實時性,很多時候都有必要對模型進行壓縮;但與此同時,幾乎所有神經網絡模型壓縮算法都會在壓縮過程中減損原始模型的準確度。因此,在進行模型壓縮時,需要在實時性和準確性之間找到一個合適的平衡。
  • Google展示AI新實力:讓神經網絡設計神經網絡
    核心要點:第二代TPU發布,以及TPU研究云為行動裝置優化的TensorFlowLiteAutoML強化算法,讓神經網絡設計神經網絡Google.ai上線,所有AI成果都在這裡展示相關數據:月活安卓設備已達20億部5億活躍的Google相冊用戶Google地圖每日導航超過10
  • AI安全最全「排雷圖」來了!騰訊發布業內首個AI安全攻擊矩陣
    9月25日,騰訊正式發布業內首個AI安全攻擊矩陣。這是一份具有高實用性的AI安全技術指導框架,首次全面梳理了學術及工業界最前沿的AI安全研究,從攻擊者的視角系統列舉了AI技術研發部署各個環節中的攻擊過程與技術實現手段,幫助AI從業者快速了解全生命周期下AI系統的風險點與對應緩解方法,為AI系統的安全部署和應用落地提供重要的技術參考。