人臉識別再曝安全漏洞:清華創業團隊推出全球首個AI模型殺毒軟體

2020-12-26 機器之心Pro

機器之心報導

參與:澤南

瑞萊智慧剛剛發布的首個 AI 安全平臺,發現了迄今為止最為「重大」的人臉識別安全漏洞。

4 月 7 日,來自清華的 RealAI(瑞萊智慧)發布了 RealSafe 人工智慧安全平臺,隨之推出的測試結果令人驚訝:通過平臺對微軟、亞馬遜雲服務的人臉比對演示平臺進行測試顯示,基於 RealSafe 平臺生成的對抗樣本「噪音」能夠極大幹擾兩大主流人臉比對平臺的識別結果。

當前較為領先,且廣泛被採用的多家人臉識別技術,現在可以被輕易破解了。

RealAI 研究團隊選取了一組不同的人臉圖片,通過 RealSafe 平臺對其中一張圖片生成對抗樣本,但不影響肉眼判斷,添加「對抗樣本」前後分別輸入微軟、亞馬遜人臉比對平臺中。

最終結果顯示,添加「噪音」擾動前,兩張圖片相似度低,微軟、亞馬遜平臺判定為「不相同」,但添加擾動後,幾套系統均錯誤識別為「相同」,甚至在微軟平臺前後相似度的變化幅度高達 70% 以上。

檢測出人臉識別系統「漏洞」的 RealSafe 人工智慧安全平臺,是全球首個針對算法模型本身進行安全的檢測平臺,內置領先的攻防算法模型,旨在為企業用戶提供從算法測評到防禦升級的整體解決方案。

而針對人臉比對系統的攻擊測試,是 RealSafe 人工智慧安全平臺為用戶提供的對抗樣本攻防在線體驗。

具體是什麼樣的效果,可以看這個 Demo 視頻:

通過 RealAI 提供的測試工具,只需要上傳一張圖片作為示例,為原圖生成的帶有幹擾圖片即可讓各家大廠的人臉識別系統將人物錯誤地識別為指定的別人。

攻陷所有人臉識別平臺

真的能像視頻中那樣嗎?在正式發布之前,我們得到了對 RealSafe 系統進行測試的機會,上手進行了一番體驗。首先是用兩個人的照片進行原圖對比,AI 可以識別出是不同的人:

點擊「生成對抗樣本」按鈕,經過十秒的處理時間,模型就為我們生成了一個基於 C 羅照片的「梅西」對抗樣本照片:

對於人類來說,除了人臉部位的多了一些不清晰的擾動之外,經過處理後的圖片(上圖右)完全不會讓我們認錯圖片上的人。但對於目前的人臉識別算法來說情況就不一樣了:

在其他公司的人臉相似度對比模型上,AI 把 C 羅的照片錯認為是梅西:「同一個人的可能性極高」。我們嘗試了上傳梅西的不同照片,相似度應該是 95% 左右。而如果用 C 羅未處理過的照片,或者貝爾的照片,相似度則只有 75% 左右,並顯示「同一個人的可能性較低」。

「對抗樣本」成為「AI 病毒」

我們測試了國內幾家科技巨頭的人臉識別模型,對抗樣本的「偽裝」效果均比較明顯。瑞萊智慧的研發人員告訴我們:這種對抗樣本同樣也可以使亞馬遜、微軟等人臉識別平臺的服務出現嚴重的識別錯誤。

在人臉解鎖手機和支付系統如此普遍的今天,對抗樣本方法的進步讓我們開始擔心財產與隱私安全。在一些需要通過人臉進行身份驗證的場景,比如金融遠程開戶、人臉門禁、酒店入住管理等場景,有意的攻擊都有可能做到頂替身份,造成財產、隱私等損失。

即使在應用了活體檢測的場景,也有被對抗樣本攻擊的可能,其實 RealAI 在去年就已通過佩戴一副含有對抗樣本圖案的眼鏡攻破了具備活體檢測功能的某些主流品牌手機。

RealAI 表示,這是世界唯一通過 AI 對抗樣本技術攻破商用手機人臉解鎖的案例。

看來破解 AI 形成的隱患離我們並不遠,為避免可能的損失,我們要更加注意對個人信息的保護。例如在一些刷臉支付場景中,在通過人臉驗證是否為本人後,進一步需求輸入手機號等信息進行二次驗證。在深度學習模型普遍脆弱、容易被攻擊成功的當下,普通消費者不能只依賴人工智慧技術,還需要保持足夠的警惕,保護個人信息,不然仍有可能出現身份被盜取等問題。

瑞萊智慧表示,經過不斷的升級演化,今天的對抗樣本攻擊不僅僅停留在數字世界,針對物理世界的攻擊早已開始出現:在路面上粘貼對抗樣本貼紙模仿合併條帶誤導自動駕駛汽車拐進逆行車道、佩戴對抗樣本生成的眼鏡破解手機面部解鎖、胸前張貼對抗樣本貼紙即可實現隱身.……

通過 AI 對抗樣本圖案躲避 AI 車輛檢測。

對抗樣本可以導致人工智慧系統被攻擊和惡意侵擾,產生與預期不符乃至危害性結果,對於人臉識別、自動駕駛等特定領域,可能造成難以挽回的人員和財產損失,對抗樣本已經成為人工智慧系統可能面臨的新型「病毒」。

目前以「對抗樣本」為代表的算法安全仍是新興領域,業界對於如何評價算法模型的安全性並沒有清楚的定義,並且對抗樣本等攻擊手段變得愈發複雜。在開源社區、工具包的加持下,高級複雜攻擊方法快速增長,相關防禦手段的升級卻難以跟上。

另一方面,對抗樣本等算法漏洞檢測存在較高的技術壁壘,目前市面上缺乏自動化檢測工具,而大部分企業與組織不具備該領域的專業技能來妥善應對日益增長的惡意攻擊。在潛在層面上,隨著人工智慧的大規模應用,算法安全漏洞帶來的安全威脅將持續升級。

為 AI 時代打造「殺毒軟體」

當然,RealSafe 還可以幫助人們修復這些漏洞。正如網絡安全時代,網絡攻擊的大規模滲透誕生出殺毒軟體,發現計算機潛在病毒威脅,提供一鍵系統優化、清理垃圾跟漏洞修復等功能。RealAI 團隊希望通過 RealSafe 平臺打造出人工智慧時代的「殺毒軟體」,為構建人工智慧系統防火牆提供支持。

除了對抗樣本技術,今天推出的 RealSafe 平臺支持另外兩大功能模塊:模型安全測評和防禦解決方案。

模型安全評測主要為用戶提供 AI 模型安全性評測服務。用戶只需接入所需測評模型的 SDK 或 API 接口,選擇平臺內置或者自行上傳的數據集,平臺將基於多種算法生成對抗樣本模擬攻擊,並綜合在不同算法、迭代次數、擾動量大小的攻擊下模型效果的變化,給出模型安全評分及詳細的測評報告。目前 RealSafe 已支持黑盒查詢攻擊方法與黑盒遷移攻擊方法。

防禦解決方案則是為用戶提供模型安全性升級服務,RealSafe 平臺支持五種去除對抗噪聲的通用防禦方法,可實現對輸入數據的自動去噪處理,破壞攻擊者惡意添加的對抗噪聲。根據上述的模型安全評測結果,用戶可自行選擇合適的防禦方案,從而達到一鍵提升模型安全性的目的。

瑞萊智慧表示,隨著模型攻擊手段在不斷複雜擴張,RealSafe 平臺還將持續提供更加豐富的 AI 防禦手段,幫助用戶獲得實時且自動化的漏洞檢測和修復能力。

「零編碼」+「可量化」:高效應對算法威脅

由 2018 年 7 月成立的瑞萊智慧,是一家孵化自清華大學 AI 研究院的科技公司,它由清華 AI 研究院院長張鈸、教授朱軍擔任首席科學家,田天任 CEO。RealAI 在 AI 安全領域擁有國際領先的技術優勢,團隊曾率先提出多項攻防算法,相關研究成果曾被圖靈獎得主作為代表性方法大幅引用,被主流開源軟體 FoolBox、Cleverhans 等收錄為標準的對抗攻擊算法。

在人工智慧領域的國際大賽中,RealAI 團隊與清華聯合組成的戰隊曾戰勝斯坦福、騰訊安全等世界頂級高校、研究機構獲得多項世界冠軍。

RealAI 表示,本次推出的算法模型安全檢測平臺,除了可以幫助企業高效應對算法威脅還具備以下兩大優勢:

組件化、零編碼的在線測評:相較於 ART、Foolbox 等開源工具需要自行部署、編寫代碼,RealSafe 平臺採用組件化、零編碼的功能設置,免去了重複造輪子的精力與時間消耗,用戶只需提供相應的數據即可在線完成評估,極大降低了算法評測的技術難度,學習成本低,無需擁有專業算法能力也可以上手操作。

可視化、可量化的評測結果:為了幫助用戶提高對模型安全性的概念,RealSafe 平臺採用可量化的形式對安全評測結果進行展示,根據模型在對抗樣本攻擊下的表現進行評分,評分越高則模型安全性越高。此外,RealSafe 平臺提供安全性變化展示,經過防禦處理後的安全評分變化以及模型效果變化一目了然。

考慮到當前人臉識別技術應用最為廣泛,RealAI 此次推出的 RealSafe 人工智慧安全平臺主要支持針對人臉比對場景的模型安全評估與檢測。未來 RealSafe 平臺還將持續迭代,陸續上線針對目標檢測、圖像分類等應用場景的模型安全檢測,旨在通過安全可控的人工智慧為更多場景保駕護航。

今年 3 月,RealAI 獲得了天使+輪的融資,近兩輪總額已達到 1 億元人民幣。對於這家公司而言,如何探索技術商業化的道路已成為擺在面前的挑戰。這家公司表示將致力於打造安全可控的第三代人工智慧,實現安全(Robust)、可擴展(Extendable)、可靠(Assurable)和落地(Landable)的 AI 解決方案。

RealAI 表示,此次推出的安全平臺只是研發人員們的一小步嘗試,這家公司希望能通過安全可控 AI 賦能行業,向金融領域提供更可靠的大數據風控、反欺詐、營銷等解決方案,在工業領域提供生產運維智能決策和智能裝備解決方案,在公共安全治理領域提供公共數據安全、網絡內容安全等解決方案。

此前在金融領域內,該公司已推出了開箱即用的建模平臺 RealBox。其內嵌了 RealAI 自研的貝葉斯深度學習算法。通過貝葉斯算法,該工具實現了對現實世界不確定性的刻畫以及可描述變量之間的關係,解決了當前 AI 普遍存在的不可解釋的痛點。

相關焦點

  • RealAI推出可在線測評算法模型的安全平臺
    4月8日,孵化自清華AI研究院的創業團隊RealAI(瑞萊智慧)正式推出國內首個針對算法模型本身安全的檢測平臺——RealSafe人工智慧安全平臺。作為人工智慧時代的「殺毒軟體」,RealSafe提供從測評到防禦完整的解決方案,快速緩解對抗樣本攻擊威脅。
  • 人工智慧有了「殺毒軟體」 可在線測評算法模型安全性
    人民網北京4月9日電(趙竹青)大規模的網絡攻擊曾經倒逼了殺毒軟體的誕生,應用日漸廣泛的人工智慧,又該如何抵禦「病毒」的攻擊?記者從清華人工智慧研究院獲悉,該院RealAI(瑞萊智慧)創業團隊8日推出針對算法模型本身安全的檢測平臺,意味著人工智慧也有了「殺毒軟體」。
  • 數字經濟發布|清華團隊推全球首個AI模型;三星PC晶片「擋住」新冠...
    數字經濟頭條1人臉識別再曝安全漏洞:清華創業團隊推出全球首個AI模型「殺毒軟體」4 月 7 日,來自清華的 RealAI(瑞萊智慧)發布了 RealSafe 人工智慧安全平臺,隨之推出的測試結果令人驚訝:通過平臺對微軟
  • ...AI發布首個企業級隱私保護機器學習平臺與升級版AI模型殺毒軟體
    驅動AI產業「第二增長曲線」,清華系RealAI發布首個企業級隱私保護機器學習平臺與升級版AI模型殺毒軟體
  • GeekPwn2020完美落幕,清華-RealAI聯合戰隊斬獲虛假人臉AI識別大賽冠軍
    10月24日,國際安全極客大賽GeekPwn 2020在上海完美落幕。本次大賽聚焦雲、AI、5G等前沿技術,結合社會熱點安全話題,發起首屆CAAD虛假人臉AI識別大賽,RealAI與清華大學計算機系聯合戰隊TSAIL以絕對比分優勢拿下該賽目的冠軍。AI遇上假臉傻傻分不清楚?
  • 360城市安全:AI安全時代來臨,360視覺構建人臉識別安全生態
    如今,人臉的捕捉、特徵的提取、特徵的比對都已經進入300毫秒以內,人證比對的識別率也達到了99.99%。算法達到可商用的程度,諸多廠商紛紛將算法與硬體終端相結合,推出了一系列的人臉識別門禁、人臉識別閘機、人臉識別人證核驗、人臉識別抓拍機等產品。這些產品隨即被應用到政府、社區、寫字樓、園區、機場、酒店、火車站、長途汽車站、自助服務大廳等場景中。
  • GeekPwn2019:匯聚全球頂尖黑客 解剖雲、AI、隱私等安全攻守道
    雲安全挑戰賽參賽隊伍  今年,由GeekPwn與騰訊安全雲鼎實驗室聯合推出的全新命題專項賽「雲安全挑戰賽」,是首個基於真實通用雲環境的安全挑戰賽,覆蓋全路徑攻擊與防禦,通過攻防對決實戰開拓防禦思路,鼓勵選手積極探索雲上攻防問題,提升雲計算整體的安全性。賽題設定了四個難度級別,共十六道真實攻擊場景賽題。
  • 360視覺入局人臉識別:終結行業「裸奔」,「安全」是終極法則
    「現在市面上的人臉識別產品都是大同小異的,但是在安全防護上,可以說絕大部分產品都不能做到讓人滿意。」 「今年是人臉識別行業進入智能化的第六個年頭,預計今年年底或者明年年初,整個行業將會迎來一次大的洗牌。」 「進入人臉識別行業,沒有早晚之分,好時機時時都存在。
  • 黑客騙過人臉識別?清華系AI公司發布首款人工智慧殺毒軟體
    類似的技術戲法如今已被廣泛應用,黑客可以通過一副「對抗樣本」眼鏡輕鬆實現身份偽裝,破解手機面部解鎖,或是偽裝成他人完成銀行和政務系統的身份認證,甚至打開人臉識別門鎖,竊取財產。提升AI能力需要最大限度的挖掘數據價值,但是在金融、醫療、公共安全等場景的AI應用中,需要用到的數據往往涉及個人隱私信息,這些攻擊行為都給AI落地帶來了巨大的挑戰。
  • 黑客用一副紙眼鏡,就能「弄瞎」人臉識別算法
    攻擊算法尋找、挖掘、抓住不同人臉識別模型之間的相似性,同時放大,這樣就有攻擊的機會。換句話說,只要攻擊者能夠從人臉識別模型裡面挖掘出漏洞(相似性),就能夠攻擊模型。研發攻擊算法的過程中,挖掘相似性是一件很耗神、很熬人的事。我們都知道,手機裡的人臉識別算法需要將攝像頭採集到的人臉信息作為輸入的信息。手機上裝載的人臉識別算法對黑客來說就是黑盒。
  • 阿里和清華聯手一呼:我們給錢給資源,求解這些AI安全難題
    全球首個針對目標檢測算法的對抗攻擊競賽從這樣的一件T恤中,我們可以發現,AI模型還是比較脆弱的。或許在我們人類眼中,輕微的圖像擾動並不會造成失誤判斷,但對於AI模型來說卻不是如此。安全,向來是個不可忽視,且需要持續關注的問題,新鮮的血液和思想的碰撞必不可少。像穿了一件具有「對抗性」圖案的T恤,就識別不出人臉,打不上卡這種事情,也會對我們的日常生活造成困擾。
  • 清華孵化、張鈸加盟的這家公司,現在把「第三代人工智慧」落地了
    首個編譯級隱私保護機器學習平臺RealSecure,讓隱私保護學習從「雕版印刷」走向「活字印刷」 首個企業級人工智慧安全平臺RealSafe,相當於AI算法的「殺毒軟體」 還有可解釋機器學習建模平臺、拿下了世界冠軍的deepfake「殺手」…… 張鈸院士還在親自給這家公司的產品路線定下了關鍵詞
  • 中科院AI生成模型,人臉識別的正確用法
    近日,中國科學院北京分院的研究團隊研發出一個AI人像生成模型。該模型可以依據簡筆畫生成逼真的人臉肖像。這在日常當中,可以被人當做娛樂遊戲來進行消遣,但是其實它有更重要的作用,那就是幫助警察叔叔了解嫌疑犯的面容形象。
  • 瑞萊智慧的「長期主義」:走出清華,給AI產業畫一條新的「增長曲線」
    在這些基礎設施的支撐下,數據和算力的快速增長作為「外部驅動力」,帶動了AI產業在包括人臉識別、語音識別等領域的一波浪潮,驅動AI產業「第一增長曲線」的出現。但是,走這條路線的公司,具備較長的布局周期和極強的技術和資源粘性,這對於一般的創業團隊來說,是一個不小的挑戰。兩款新平臺:數據安全與算法安全RealAI在這次發布會上共發布了兩款新品,還是從數據安全和算法安全兩方面入手。
  • AI假臉王生成!新一代GAN攻破幾乎所有人臉識別系統,勝率95%
    日前,Idiap 生物識別安全和隱私小組負責人 (註:Idiap研究所是瑞士的一家半私人非營利性研究機構,隸屬於洛桑聯邦理工學院和日內瓦大學,進行語音、計算機視覺、信息檢索、生物認證、多模式交互和機器學習等領域的研究)、瑞士生物識別研究和測試中心主任 Sébastien Marcel 和他的同事、Idiap 研究所博士後 Pavel Korshunov 共同撰寫了論文,首次對人臉識別方法檢測
  • 人臉識別概念股有哪些?首個生物特徵檢測國際標準發布
    綜投網(www.zt5.com)5月11日訊  據報導,5月8日,由全球領先的人工智慧平臺公司商湯科技SenseTime 參與主編的IEEE首個生物特徵活體檢測國際標準《生物特徵識別活體檢測標準》(IEEE
  • 「靠臉吃飯」安全如何保障?創業者研發3D人臉識別技術,不看顏值看...
    然而與此同時,人臉信息被「破解」「盜刷」的消息也頻頻曝出,比如用列印照片刷臉騙過了快遞櫃,用視頻騙過了酒店身份錄入系統。那麼人臉識別的應用可以讓老百姓放心嗎?為此,陳俊逸團隊潛心研發了帶有防偽功能的3D人臉解決方案,為智能零售打造安全密鑰。早在2007年,陳俊逸就對人臉識別的安防應用產生了濃厚的興趣,並開始組建團隊。
  • 這家創企用AI化解安全難題
    比如用深度偽造技術製作的「換臉」視頻,已經被一些不法分子用到黑產;再比如AI信貸風控模型中存在對於特定地區通過率較低的「倖存者偏差」,人臉識別的種族歧視等一系列算法公平性問題,以及技術濫用引發金融欺詐,甚至是政治宣傳引導輿論等等。當惡性AI安全事件頻現,如何平衡AI發展與安全保護?
  • 驅動AI產業」第二增長曲線」,清華系RealAI發布首個企業級隱私保護...
    比如信貸模型中」倖存者偏差」、人臉識別的種族歧視等一系列算法公平性問題的出現,以及技術濫用引發金融欺詐,甚至是政治宣傳引導輿論等等。要突破」三大關卡」,AI原生基礎設施需要實現三大塊能力,分別是算法可靠、數據安全和應用可控,以實現對現有AI平臺升級賦能,拓展AI在各類場景上的可用性。田天認為,這是現階段人工智慧產業需求,也是產業目標。
  • 人臉識別如何侵犯公民個人信息?不法分子製作3D人臉模型騙過支付寶
    這些判例披露的犯罪行為,主要集中在網貸平臺通過非法獲取公民人臉識別信息開通網貸帳號,或將人臉識別信息共享給催收公司,或將這些信息變賣獲利。此外,也有電信公司人員在未告知公民的情況下,違法採集公民個人信息開通手機卡。值得注意的是,有兩份判例披露了不法分子製作3D人臉模型騙過支付寶人臉識別系統,進而實施詐騙的情況。