一個照片「隱身衣」,讓微軟曠視人臉識別系統100%失靈|開源

2021-01-07 量子位

魚羊 蕭簫 發自 凹非寺量子位 報導 | 公眾號 QbitAI

左圖,右圖,你能看出區別嗎?

其實,算法已經悄悄給右邊的照片加上了微小的修改。

但就是這樣肉眼根本看不出來的擾動,就能100%騙過來自微軟、亞馬遜、曠視——全球最先進的人臉識別模型!

所以意義何在?

這代表著你再也不用擔心po在網上的照片被某些軟體扒得乾乾淨淨,打包、分類,幾毛錢一整份賣掉餵AI了。

這就是來自芝加哥大學的最新研究:給照片加上一點肉眼看不出來的修改,就能讓你的臉成功「隱形」。

如此一來,即使你在網絡上的照片被非法抓取,用這些數據訓練出來的人臉模型,也無法真正成功識別你的臉。

給照片穿上「隱身衣」

這項研究的目的,是幫助網友們在分享自己的照片的同時,還能有效保護自己的隱私。

因此,「隱身衣」本身也得「隱形」,避免對照片的視覺效果產生影響。

也就是說,這件「隱身衣」,其實是對照片進行像素級別的微小修改,以蒙蔽AI的審視。

其實,對於深度神經網絡而言,一些帶有特定標籤的微小擾動,就能夠改變模型的「認知」。

比如,在圖像裡加上一點噪聲,熊貓就變成了長臂猿:

Fawkes就是利用了這樣的特性。

用 x 指代原始圖片,xT為另一種類型/其他人臉照片,φ 則為人臉識別模型的特徵提取器。

具體而言,Fawkes是這樣設計的:

第一步:選擇目標類型 T

指定用戶 U,Fawkes的輸入為用戶 U 的照片集合,記為 XU。

從一個包含有許多特定分類標籤的公開人臉數據集中,隨機選取 K 個候選目標類型機器圖像。

使用特徵提取器 φ 計算每個類 k=1…K 的特徵空間的中心點,記為 Ck。

而後,Fawkes會在 K 個候選集合中,選取特徵表示中心點與 XU 中所有圖像的特徵表示差異最大的類,作為目標類型 T。

第二步:計算每張圖像的「隱身衣」

隨機選取一幅 T 中的圖像,為 x 計算出「隱身衣」δ(x, xT) ,並按照公式進行優化。

其中 |δ(x, xT)| < ρ。

研究人員採用DDSIM(Structural Dis-Similarity Index)方法。在此基礎上進行隱身衣的生成,能保證隱身後的圖像與原圖在視覺效果上高度一致。

實驗結果表明,無論人臉識別模型被訓練得多麼刁鑽,Fawkes都能提供95%以上有效防護率,保證用戶的臉不被識別。

即使有一些不小心洩露的未遮擋照片被加入人臉識別模型的訓練集,通過進一步的擴展設計,Fawkes也可以提供80%以上的防識別成功率。

在Microsoft Azure Face API、Amazon Rekognition和曠視Face Search API這幾個最先進的人臉識別服務面前,Fawkes的「隱身」效果則達到了100%。

目前,Fawkes已開源,Mac、Windows和Linux都可以使用。

安裝簡易方便

這裡以Mac系統為例,簡單介紹一下軟體的使用方法。使用的筆記本是MacBook Air,1.1GHz雙核Intel Core i3的處理器。

首先,我們從GitHub上下載壓縮安裝包,並進行解壓。

接下來,把想要修改的所有照片放入一個文件夾裡,並記住路徑。

以桌面上的一個名為test_person的圖片文件夾為例,裡面我們放了三張照片,其中一張圖片包含兩個人。

這裡的圖片路徑是~/Desktop/test_person,根據你的圖片保存位置來確定。

接下來,打開啟動臺中的終端,進入壓縮包所在的文件夾。

注意,如果MacOS是Catalina的話,需要先修改一下權限,以管理員身份運行,sudo spctl —master-disable就可以了。

這裡我們的壓縮包直接放在下載的文件夾裡,直接cd downloads就行。

進入下載文件夾後,輸入./protection -d 文件路徑(文件路徑是圖片文件夾所在的位置,這裡輸入~/Desktop/test_person),運行生成圖片的「隱身衣」。

嗯?不錯,看起來竟然能識別一張圖中的2個人臉。

緩慢地運行……

據作者介紹說,生成一張「隱身衣」的速度平均在40秒左右,速度還是比較快的。

如果電腦配置夠好,應該還能再快點。

不過,雙核的就不奢求了…我們耐心地等一下。

從時間看來,處理速度還算可以接受。

Done!

圖中來看,生成3張圖片的「隱身衣」,電腦用了大約7分鐘(一定是我的電腦太慢了)。

來看看生成的結果。

可以看見,文件夾中的3張圖片,都生成了帶有_low_cloaked的後綴名的圖片。

雖然介紹裡說,生成的後綴是_mid_cloaked的圖片,不過軟體提供的模式有「low」、「mid」、「high」、「ultra」、「custom」幾種,所以不同的模式會有不同的後綴名。

以川普為例,來看看實際效果。

兩張圖片幾乎沒有差別,並沒有變醜,川普臉上的皺褶看起來還光滑了一點。

這樣,我們就能放心地將經過處理後的人臉照片放到網上了。

即使被某些不懷好意的有心之人拿去使用,被盜用的數據也並不是我們的人臉數據,不用再擔心隱私被洩露的問題。

不僅如此,這個軟體還能「補救」一下你在社交網站上曬出的各種人臉數據。

例如,你曾經是一名衝浪達人,之前會將大量的生活照po到社交網站上——

照片可能已經被軟體扒得乾乾淨淨了……

不用擔心。

如果放上這些經過處理後的圖片,這些自動扒圖的人臉識別模型會想要添加更多的訓練數據,以提高準確性。

這時候,穿上「隱身衣」圖片在AI看來甚至「效果更好」,就會將原始圖像作為異常值放棄。

華人一作

論文的一作是華人學生單思雄,高中畢業於北京十一學校,目前剛拿到了芝加哥大學的學士學位,將於9月份入學攻讀博士學位,師從趙燕斌教授和Heather Zheng教授。

作為芝加哥大學SAND Lab實驗室的一員,他的研究主要側重於機器學習和安全的交互,像如何利用不被察覺的輕微數據擾動,去保護用戶的隱私。

從單同學的推特來看,他一直致力於在這個「透明」的世界中,為我們爭取一點僅存的隱私。

論文的共同一作Emily Wenger同樣來自芝加哥大學SAND Lab實驗室,正在攻讀CS博士,研究方向是機器學習與隱私的交互,目前正在研究神經網絡的弱點、局限性和可能對隱私造成的影響。

項目連結:https://github.com/Shawn-Shan/fawkes/tree/master/fawkes

論文連結:http://people.cs.uchicago.edu/~ravenben/publications/pdf/fawkes-usenix20.pdf

參考連結:https://www.theregister.com/2020/07/22/defeat_facial_recognition/

相關焦點

  • 給照片穿上「隱身衣」 這款AI工具成功讓人臉識別系統失靈
    原標題:給照片穿上「隱身衣」,這款AI工具成功讓人臉識別系統失靈   在當下的網絡環境,我們幾乎沒有隱私可言。
  • 給照片穿上「隱身衣」,最強人臉識別算法也失靈!業界推出最新AI...
    此前,美國面部識別公司便創建了一個約有30 億張圖像的超大容量人臉資料庫,而這些數據均從 Facebook,Venmo,YouTube 等社交媒體平臺抓取而來。無處不在的面部識別技術和未經授權的數據獲取已經對個人隱私造成了嚴重威脅。面對這些威脅,芝加哥大學Sand Lab團隊提出了一種新的解決思路——或許我們可以為照片添加一層「隱身衣」!
  • 給照片穿上隱身衣,最強人臉識別算法失靈!最新AI工具Fawkes來了
    此前,美國面部識別公司便創建了一個約有30 億張圖像的超大容量人臉資料庫,而這些數據均從 Facebook,Venmo,YouTube 等社交媒體平臺抓取而來。無處不在的面部識別技術和未經授權的數據獲取已經對個人隱私造成了嚴重威脅。面對這些威脅,芝加哥大學Sand Lab團隊提出了一種新的解決思路——或許我們可以為照片添加一層「隱身衣」!
  • 給照片穿上「隱身衣」,這款AI工具成功讓人臉識別系統失靈
    新開發的工具可以給你的自拍照穿上「隱身衣」,從而讓人臉識別系統無法有效識別。從團隊公布的數據看,這套工具已經成功騙過了曠視、微軟、亞馬遜等公司的面部識別算法。團隊將工具命名為Fawkes也很有深意。Fawkes的命名取自Guy Fawkes Mask(蓋伊·福斯克面具)。
  • 給照片穿上「隱身衣」,最強人臉識別算法也失靈!業界推出最新AI工具Fawkes,幫你保護照片隱私數據
    如今,我們在社交媒體上的大量曝光,獲取這些照片數據也變得很容易。此前,美國面部識別公司便創建了一個約有30 億張圖像的超大容量人臉資料庫,而這些數據均從 Facebook,Venmo,YouTube 等社交媒體平臺抓取而來。無處不在的面部識別技術和未經授權的數據獲取已經對個人隱私造成了嚴重威脅。
  • 面部識別也失靈,AI給照片穿上「隱身衣」
    如今,無處不在的人臉識別系統對於我們的隱私造成了巨大的威脅,一些技術公司在網上大規模地搜集我們在社交媒體上分享的照片,將其用於訓練用於商業銷售的算法,任何人都可以購買這些工具系統,在幾秒鐘內辨別出誰是誰。這已經夠可怕了,但更可怕的是,有人會私自用你的照片來打廣告。
  • 芝加哥大學Fawkes軟體,給照片穿上「隱形衣」,巨頭人臉識別失效
    人臉識別現在是科技巨頭們一直在研究的領域,通過實時的人臉識別來做到某些目的和提供某種服務是他們的目標。但是通過照片的人臉識別獲取人們的私人信息也是經常發生的事情,今天我們就來聊一聊一家保護用戶照片信息的工具——Fawkes。
  • 讓人臉識別算法失靈 還能抵抗微信微博照片壓縮!
    魚羊 編輯整理 凹非寺上回書說到,現在,:通過給照片添加肉眼看不出來的對抗性噪聲,來蒙蔽人臉識別AI,達到保護隱私的效果。不過,就有好學的同學提出了這樣的疑問,各種App基本都會對圖片重新進行壓縮,那這種照片「隱身衣」不就會因此失效嗎?
  • Fawkes騙倒人臉識別廠商,100%保護人臉照片隱私安全
    如何保障人臉識別信息安全,已成為許多人工智慧企業亟需解決的問題!2020 年初,一家名為Clearview AI的公司,非法抓取Google、Twitter、Facebook和YouTube 上的人臉照片,創建超 30 億張照片的面部識別資料庫,並通過出售算法牟利。
  • 23歲中國小夥發明AI對抗系統,眾多大廠人臉識別技術100%失靈
    測試顯示,上述系統均無法識別出用 Fawkes 修改後的照片到底是誰,這意味著 Fawkes 成功誕生。這裡舉例解釋一下 API,如果一家公司想給大門裝上人臉識別系統,並且找到亞馬遜來做這件事,那麼該公司就會把員工照片給亞馬遜,後者會幫該公司建一個模型,建好後模型就能在公司大門口做人臉識別。
  • 這個對抗算法讓人臉識別算法失靈,還能抵抗微信微博照片壓縮
    上回書說到,現在,對抗攻擊的理念已經被應用到隱私保護領域:通過給照片添加肉眼看不出來的對抗性噪聲,來蒙蔽人臉識別AI,達到保護隱私的效果。不過,就有好學的同學提出了這樣的疑問,各種App基本都會對圖片重新進行壓縮,那這種照片「隱身衣」不就會因此失效嗎?
  • 這個對抗算法讓人臉識別算法失靈,還能抵抗微信微博照片壓縮
    魚羊 編輯整理 凹非寺量子位 報導 | 公眾號 QbitAI上回書說到,現在,對抗攻擊的理念已經被應用到隱私保護領域:通過給照片添加肉眼看不出來的對抗性噪聲,來蒙蔽人臉識別AI,達到保護隱私的效果。隱身衣」不就會因此失效嗎?
  • 人臉識別被濫用!這款工具給你的照片「上鎖」
    給照片穿上「隱身衣」 這款AI工具成功讓人臉識別系統失靈 臉部識別技術在近年越來越普遍,不少人感覺這項技術對個人隱私造成威脅。AI接受的圖像越多,它就能越能準確地識別隨機視頻和圖像中的人物--甚至包括實時監控等。每一個人的臉部信息,都可能被別用心的人或者公司收集起來,用在各種我們不知道的地方。
  • 李開復稱螞蟻金服為曠視提供人臉數據:一場「口誤」引發的冤案
    各方迅速聲明:共享AI技術非人臉數據李開復原本想講述的是曠視從技術到商業化路徑的探索過程,強調自己在這當中扮演的角色,沒想到透露了一個意思,就是曠視曾從螞蟻金服那裡拿到人臉數據。 螞蟻集團率先通過微博做出回應, 「我們關注到李開復先生在公開場合提及螞蟻金服和曠視科技的合作,需要澄清的是:第一,螞蟻集團在與曠視科技合作事宜上從未與李開復先生有過接觸;第二,螞蟻集團從未提供任何人臉數據給曠視科技,雙方過往合作僅限曠視科技授權其圖像識別算法能力給螞蟻單獨部署和使用,不涉及任何數據的共享和傳輸。
  • 微軟刪除最大的公開人臉識別數據集,只因員工離職?!
    作者 | 神經小姐姐責編 | 郭芮前幾日,微軟靜悄悄地刪除了一個公開的名人圖片數據集。這個本為世界上最大的公開人臉識別數據集,現在已經不能通過微軟的渠道訪問。這個數據集包含了 10 萬張名人面部圖像,常被用來作為人臉識別的訓練。
  • 「曠視難題」,人臉識別技術遭遇歐美多國禁止
    2018年底,亞馬遜的人臉識別門鈴專利因涉嫌侵犯隱私遭到強烈抗議,2019年6月微軟刪除了自己未經授權採集來人臉識別資料庫,2019年8月,人工智慧換臉應用「ZAO」因違規收集人臉數據引發風險爭議。隨著人臉識別技術的紅燈不斷亮起,曠視面臨挑戰越來越大,怎樣做才能令人滿意? 人臉識別技術為啥遭遇紅燈?
  • 戴口罩也能人臉識別?百度AI放大招!兩年前這項技術曾獲世界大獎
    戴口罩也能人臉識別?在這場肺炎抗疫戰中,AI人工智慧正扮演著越來越重要的作用。昨天,百度正式宣布免費開源業內首個口罩人臉檢測及分類模型。目前在國內,僅有曠世、商湯等少數科技公司能提供人臉檢測與熱成像智能測溫技術。2月4日,曠視在北京地鐵站上線試運營了一套AI 測溫系統,該系統採用「人體識別+人像識別+紅外/可見光雙傳感」方案,不少網友誤認為這套技術可以實現「戴口罩人臉識別」。
  • 「人臉識別」很火,但你不知道的還有很多
    從馬雲在 CeBIT 大會上的「刷臉」支付到最近微軟推出的「how - old」,關於「面部識別」技術的討論一直備受關注,但基於這項技術的具體應用和發展狀況的市場認知卻十分有限。事實上,隨著機器學習和深度神經網絡兩個領域的迅速發展以及智能設備的普及,「面部識別」技術正在經歷前所未有的發展。
  • 人臉識別再曝安全漏洞:清華創業團隊推出全球首個AI模型殺毒軟體
    4 月 7 日,來自清華的 RealAI(瑞萊智慧)發布了 RealSafe 人工智慧安全平臺,隨之推出的測試結果令人驚訝:通過平臺對微軟、亞馬遜雲服務的人臉比對演示平臺進行測試顯示,基於 RealSafe 平臺生成的對抗樣本「噪音」能夠極大幹擾兩大主流人臉比對平臺的識別結果。當前較為領先,且廣泛被採用的多家人臉識別技術,現在可以被輕易破解了。
  • 人臉識別:深度學習引入識別系統,更準確但仍有偏見
    深度學習引入識別系統,更準確但仍有偏見 十年前,「深度學習」被引入這個領域以來,從那時起,人臉識別的準確性已經有了很大的提高。 但是,這是否意味著它足夠好,可以用於低質量的「野外」圖像,是一個極具爭議的問題。 這大多數都涉及一個多階段的過程,使用深度學習來訓練大量數據集上的大規模神經網絡來識別模式。