人臉識別60年︱法律能保護人們的「臉」嗎?

2020-12-09 澎湃新聞
人們對「臉」的焦慮或許來自近些年,隨著技術應用的不斷擴張,人們擔心隱秘處藏著的攝像頭,也擔心另一端不知名的數據處理者——誰有權獲取我的臉部信息?系統的識別準確率高嗎?「它」對「我」的判斷是否公允?

早在1973年,瑞典就推出了首個《數據法》,如今全球約有130多個國家出臺了數據保護相關的法律。但它們的效力如何?能夠保護我們的「臉」嗎?

今年9月,紐約大學AI Now研究中心發布了一份報告「Regulating Biometrics: Global Approaches and Urgent Questions」(生物識別技術監管:全球舉措及關鍵問題),評估了各國法律的效力。

經授權,澎湃新聞市政廳將翻譯該報告的部分章節,呈現來自全球的不同思考、疑慮與行動。本文來自該報告的第一章的前半部分,不久前我們採訪了本章的作者安巴·卡克(Amba Kak)。

臉識別技術也被應用於校園,2019年瑞典對一所高中開出罰單,認為學校使用人臉識別技術進行考勤,違反了歐盟通用數據保護條例GDPR。圖片來源:Getty

對生物識別系統的監管很大程度上是通過數據保護法實現的。生物識別數據通常被認定為高度敏感類別的個人數據,此類數據的收集、存儲和公開需要受控於一系列限制條件。2016年通過的《歐盟通用數據保護條例》(General Data Protection law,GDPR)正是其中代表。現今已有140多個國家出臺了數據保護法,覆蓋了公私部門的數據使用。與歐盟不同,美國缺乏類似GDPR的綜合性聯邦數據隱私法規,但一些州法律沿用類似的方式對生物識別數據進行監管,如2018年出臺的《伊利諾州生物識別信息隱私法》(Illinois Biometric Information Privacy Act,BIPA)。

一些國家正在將生物識別數據納入公民身份系統建設,也沿用了類似的數據保護方法。例如印度2016年通過的《阿德哈爾法案》(Aadhaar Act),澳大利亞2019年通過的《身份服務匹配法案》(Identity Services Matching Bill),肯亞2019通過的《服務編號法案》(Huduma Namba bill)。報告第一章的第1部分審視了這些監管生物識別信息的法律法規,它們在實施過程中已經暴露出一些關鍵問題。

數據保護法的出臺,促使政府和企業在個人數據的收集、保存和使用方式上有了根本性改變,但它們在應對新形式的數據驅動技術時存在局限性,比如生物識別和分析技術。

現有的數據保護法聚焦於對個人的危害(而非群體),未能有效解決數據歧視和算法畫像等問題。此外,將數據作為監管對象,往往掩蓋了這些系統和平臺在實際運行時對全社會帶來的更為深廣的挑戰,技術不透明,削弱了已有的權責關係、異見表達和民主決策方式。

一些國家出臺了一系列法案(主要是在美國),禁止在特定領域、特定用途或特定時段使用某些系統,直到更具參與性和協商性的決策方式出現。此外,還出現了若干專門針對特定部門的法規,關注刑事司法、僱傭或教育領域中生物識別數據濫用的危害。報告第一章的第2和第3部分追溯了這些新顯現的問題及法律手段和方法。

以下是本輯彙編所提出問題的摘要,列明了所需開展的研究、實施的監管和組織的社區參與,希望為政策制定者和行動者提供借鑑:

1. 數據保護法的效力

• 法規如何定義「生物特徵數據」?

• 為何數據保護法無法阻擋公共部門推進生物識別監控的基礎設施建設?

• 面對生物識別系統,「告知」和「同意」有效嗎?現有的數據保護法大多基於用戶同意,它存在哪些局限性?還有哪些補充或替代方式?

2.  隱私之外:準確性、數據歧視、人為審查和正當程序

• 監管應如何確保生物識別技術的準確性和非歧視性?

• 技術標準制定機構給出的準入指標在多大程度上具有參考性?

• 對生物識別系統進行「人工審查」有效嗎?如何才能為監督和問責提供保障?

• 從使用目的上看,生物識別技術應用於「識別」(identification)和「驗證」(verification)具有不同風險,監管法規是否應該做出區分?

• 對於用於身份驗證的人臉識別技術,監管較為寬鬆,這存在哪些潛在風險?

• 執法部門使用生物識別技術,需要哪些正當程序?

• 除了驗證身份,生物識別數據還會被用於哪些其他目的,例如識別或推測人的情緒狀態、人格特質或人口統計學特徵?現有的生物識別信息法規如何涵蓋這些使用場景和使用方式?

• 越來越多證據表明其危害,是否應允許技術的無限擴張?

3. 新興的監管工具和執行機制

• 近些年,美國通過了哪些不同類型的「禁令」和暫停令?

• 如何對暫停條件加以強化,以確保最終的立法或審議程序穩定可靠?

• 現有的禁令主要針對公共部門,這會對生物識別系統的私人開發與生產造成哪些影響?  

• 哪些監管工具可以提高生物識別的技術開發、採購和使用等方面的公眾透明度?

• 社區(community-led advocacy)可以如何參與監管法規的制定?

歐盟的《通用數據保護條例》GDPR被稱為「史上最嚴數據保護法」,但一些批評認為,它仍存在一定局限性。圖片來源:Wikimedia Commons

法規如何定義「生物特徵數據」?

在定義生物特徵數據和系統時,法律還反映出人們對生物特徵識別技術穩定性和準確性的認知。例如,GDPR定義的生物特徵數據是「允許或確認自然人唯一身份的」身體、生理和行為數據,而伊利諾州BIPA則給出了一整套可算作生物特徵數據的標識符列表,它們可以「用於識別個人身份」。

這些法律基於一種假定,即生物特徵數據可作為個人身份的唯一識別方式,但近些年這一假定本身面臨巨大爭議。

研究表明,面對老年人、有色人種、體力勞動者、非英語母語者或其他人口統計學上的少數派,生物識別的準確率較低。但法規未能觸及這些問題,仍然假定識別的準確性和平等性無誤。

在數據保護法中,符合「生物特徵數據」或「生物特徵信息」的定義,這是啟用法律保護的前提條件,它還決定了在哪個階段(比如信息採集、處理、存儲和使用階段)實施保護。諸如GDPR等更寬泛意義上的個人數據保護法會將生物識別數據與其他類型的個人數據區分開,以提供特殊或更嚴格的保護。此外還有專門針對生物識別數據的法律,比如BIPA。

一些政府正在將生物特徵信息納入數字公民身份ID,相較於常見的數據保護法,這些數字ID計劃的相關法律還對生物特徵數據的定義有所擴展,允許機構擴展其採集的生物識別信息的種類。肯亞法律草案和印度Aadhaar 法規都列出了在當前項目之下允許採集的一系列標識符,同時也允許政府在必要時採集其他類型的個人數據。

超越了傳統對數據隱私和安全的討論,法規開始關注更多問題,是否使用這些系統、如何使用,以及當系統出現故障時誰應承擔責任,因而法律法規的關注焦點由「數據」轉向了「系統」。比如,美國最近出臺了一些限制性法令,管控對象是「人臉識別系統及服務」或「監控系統」,卻未對生物識別做出任何界定。對這些術語的界定也暗含了其使用目的(例如監控、標識、驗證或跟蹤)。

人臉識別技術已被大規模應用於機場。圖片來源:Wikimedia Commons

生物特徵數據通常被定義為經技術界定的對身體特徵的數位化表達,經處理可用於機器或算法分析。你可能聽過一些術語,諸如「模板」(templates)、「幾何圖形」(geometry)等,在GDPR中,數據是指那些已經過「特定的技術處理」的信息。「模板」(templates)是算法處理的初級階段,從圖像或錄音中提取出數據。現代機器學習系統不需要所有的數據,而是從聲音或圖像中提取有意義的部分,並與資料庫中已有的「模板」進行比較。因而人臉照片並不屬於BIPA和GDPR中所定義的生物特徵數據

(編者註:因為人臉照片是未經處理過的「原始」數據)

然而,對生物識別數據的狹隘定義留下了一系列漏洞。Els Kindt在她所撰寫的章節中解釋了

GDPR的局限性——將照片、錄音或其他形式的所謂「原始」生物數據排除在外。

她指出,儘管要求用戶「同意」,但在數據收集和存儲的最初階段,「同意」已經形同虛設(比如,當你講照片上傳到社交網站上),執法機關在使用這部分數據時,同樣享有「豁免權」,可以未經用戶許可使用。

考慮到當前商業性和政府的生物識別系統已被大規模應用,把(原始的)人臉照片和錄音排除在外也會造成麻煩。從網絡上獲取與人臉照片,並與姓名匹配,這是創建人臉-姓名資料庫的常用方法。而這些資料庫是私人公司所開發的先進的秘密監控工具的基礎,這些開發計劃往往秘密進行,缺少監管。類似的秘密監控活動也在針對錄音信息展開。

2018年《加州消費者保護法》(California Consumer Protection Act,CCPA)對生物識別數據做出了不同的定義,或許可以彌補上述漏洞。CCPA的定義是,可從模板中提取標識符進行算法處理的「能力」(ability to extract an identifier template)。

製圖:白浪

 

(本文來自澎湃新聞,更多原創資訊請下載「澎湃新聞」APP)

相關焦點

  • 評:「人臉識別第一案」宣判,用法律為人臉識別釐清邊界
    原標題:「人臉識別第一案」宣判,用法律為人臉識別釐清邊界「人臉識別第一案」判了。去年4月,郭兵支付1360元購買了杭州野生動物世界雙人年卡,當時確定指紋識別入園方式。郭兵給園方留存了電話號碼等信息,並錄入指紋。之後,園方單方面要求改成人臉識別。
  • 法律明確規制 方能把人臉識別系統引入法治軌道
    一家之言    保護公民隱私,不能光靠政府部門的行政要求或決定,還得靠法律的明確規制、約束。  地產圈熱議的售樓處安裝人臉識別系統在南京有了新進展:江蘇南京已有多家售樓處接到相關部門電話通知,要求拆除現有的人臉識別系統,這在全國尚屬首例。  對於人臉識別系統的「刷刷刷」,民眾擔憂已久。
  • 防止人臉識別濫用,還須法律護航
    來源:錢江晚報據廣州日報報導,隨著人工智慧的發展,人臉識別技術得到廣泛應用,「臉」的應用場景被不斷拓寬,比如,點完餐看一下攝像頭就能完成支付,住酒店刷臉後就能登記,上公廁取廁紙也得刷個臉……筆者不禁發問:人臉識別是不是用得太多了?如果用其他更安全的方法也能快速解決問題,為什麼非要刷臉?
  • 人臉識別時代,我們該如何保護自己的隱私?
    如今,臉的用途越來越廣泛了。人們刷臉支付、刷臉安檢、刷臉入住酒店……幾乎時時處處都要把臉推到前臺,但是頻繁刷臉背後是否存在安全隱患,我們的「臉」有沒有被盜用或濫用,到底應該如何在享受便利的同時保護自己的「臉」。凡此種種,都成為生活在人臉識別時代的我們需要關注的問題。
  • 走到哪都可能「丟臉」,人臉識別技術的法律邊界在哪
    新華社天津12月4日消息,買房、存包、取廁紙,上班、上學、逛動物園……人臉識別已經全面嵌入生活。  近期,戴頭盔看房、人臉識別第一案、天津出臺條例禁止採集生物識別信息等相繼成為熱點,透露出人們對人臉信息洩露的焦慮。走到哪都需要「刷臉」,有必要嗎?人臉信息被「弄丟」的風險高不高?我們又該怎麼保護自己的「臉」?
  • 多地試點人臉識別社保認證 「刷臉」辦事靠譜嗎
    多地試點人臉識別社保認證 「刷臉」辦事靠譜嗎 原標題:   7月5日,人力資源和社會保障部召開專題新聞發布會,宣布全面取消領取社會保險待遇資格集中認證,推廣基於網際網路的生物特徵識別認證等服務渠道。
  • 邢會強:人臉識別的法律規制 | 比較法研究202005
    關鍵詞:人臉識別;生物識別;個人信息;場景正義;風險預防原則  隨著技術的發展,人臉識別(俗稱 「刷臉」)在我國逐漸盛行。我國目前對人臉識別技術尚無專門的法律規定,無論是政府、社區、事業單位還是商家,均可以任意安裝人臉識別技術,強制人們刷臉驗證。而人們若拒絕刷臉,則基本上無法使用相關服務。
  • 誰偷了我的臉?遍地開花的人臉識別,被忽視的巨大風險
    借著疫情防控和智慧小區建設的趨勢,人臉識別系統很快在城市的多個小區迅速推開。2017年,北京住房和城鄉建設委員會啟動智慧小區建設時,早已提出這樣的暢想:「您能想像未來小區沒有門禁卡就能開門,停車共享車位、分時租賃,居家老人實現機器人陪護的生活嗎?」但是,嶄新科技所敘述的振奮人心的故事,同樣也存在被科技打破的風險。
  • 到處都是人臉識別,我們如何保護個人隱私?
    當警方利用人臉識別技術,在張學友演唱會上逮捕嫌犯時,人人拍手稱快;當人臉識別可應用到進站檢票、app登陸、辦理各種業務等生活化的場景時,人們不由得感嘆其帶來的便利;此時,人臉識別這個大時代的又一產物顯然得到了大家的認可。
  • 人臉識別技術濫用存在哪些風險?在法律上又該如何築牢防線呢?
    隨著國內「人臉識別第一案」日前宣判,人臉數據信息保護問題再一次引發關注和討論。11月20日,杭州野生動物世界因強制刷臉入園,被判賠償當事人郭先生1038元。緊隨其後的21日,合肥市公安局也在政務平臺上答覆了市民對刷臉門禁是否會洩露信息的擔憂。與快速應用的人臉識別技術共同發展起來的,是人們隱私保護意識的不斷增強。那麼,人臉識別技術濫用存在哪些風險?
  • 兩元能買上千張人臉照片 專家:人臉識別亟待完善法律防止濫用
    對於一些沒有明確法律規定的場景,不宜使用人臉識別作為唯一的驗證方式  如今,我們已進入「刷臉」時代。從掃碼支付、指紋支付到人臉識別,數位技術的發展成熟將人們的生活不斷簡化,人們對新技術在社交、生活場景中的廣泛應用也習以為常。  然而,隨著人臉識別技術的廣泛運用,個人信息洩露、信息被盜取的情況時有發生。
  • 人臉識別存在法律風險該如何防範?
    當前隨著信息化的迅猛發展,生物識別技術在警務實戰及個人財產保護中得到廣泛的應用。作為生物識別技術的一種,人臉識別技術以其獨特的優勢,利用人的個體面部特徵的區別,廣泛用於政府、軍隊、銀行、電子商務、安全防務等多重領域。
  • 什麼是人臉識別?你真的了解人臉識別技術嗎?
    由於人工智慧的發展,近年來,基於海量數據的人臉識別技術被廣泛應用於各個領域。火車、地鐵通道、人臉通道、微郵服務、一些工作人員測繪設施等都是人臉識別技術的特殊應用。要了解人臉識別保護個人信息的難點,首先要了解人臉識別技術被廣泛應用的原因及其適用範圍,這樣才能對人臉識別技術保護個人信息進行法律監督。
  • 拆除人臉識別系統邁出保護公民隱私實質一步
    還有不少人在生活、消費過程中對相關單位的刷臉系統提出了質疑,做出了抵制。前不久,《杭州市物業管理條例(修訂草案)》明確規定物業服務人員不得強制業主通過指紋、人臉識別等生物信息方式使用共用設施設備,引發社會熱議,引發很多人的共鳴。
  • 「刷臉」帶來隱私保護新挑戰,專家:行業自律法律監管缺一不可
    之前不久,一則「戴著頭盔看房」的視頻廣為流傳,因為一些售樓處的工作人員會通過人臉識別判斷購房者身份,進而決定是否給予購房優惠。網際網路時代,「刷臉」等新技術的發展和應用帶來便利的同時,也為個人信息保護帶來了新挑戰。近年來,圍繞人臉識別的爭議不斷。這些爭議一定程度上反映了人臉識別應用之廣泛及由此引發的公眾擔憂。網際網路時代如何保障個人信息安全?
  • 上千張人臉照片流出,人臉識別安全性引熱議,還能「刷臉」嗎?
    文丨張居正 審丨易桉導讀:隨著科學技術的發展,越來越多的生活信息領域都可以通過刷臉來完成,這得益於人臉識別技術的快速發展人臉識別技術是進步的產物,會越來越深入人們生活的方方面面,給人們的生活提供更加便捷的選擇。除此以外,人臉識別技術還能帶來更加安全的信息體驗,這也意味這項技術需要不斷完善和更新。在享受人臉識別技術的方便的同時,人們也越來越意識到目前在部分領域人臉識別技術存在被濫用的嫌疑,這樣一來,可能會給人們帶來一定風險。
  • 擔憂人臉識別技術有照片洩露風險 如何應對?
    當你的臉變成 一串「密碼」之後……不少人對於人臉識別技術的應用表示擔憂,主要認為其有照片洩露的風險。照片洩露就是人臉識別技術的「鍋」嗎?面對洩露風險,我們要如何應對?伴隨著人臉識別技術的發展,其爭議始終存在。
  • 人臉識別引發道德倫理擔憂!你的臉被監視了嗎?
    然而,在許多國家,對人臉識別的抵抗聲也在不斷高漲。研究人員、公民自由倡導者和法律學者都受到人臉識別技術興起的困擾。他們正在跟蹤其使用,揭露其危害並開展運動以尋求保障甚至是徹底禁止技術的使用。  近期,《自然》雜誌的一系列報導對人臉識別系統背後的道德倫理學進行了探討。一些科學家正在分析人臉識別技術固有的不準確和偏見,對其背後存在的歧視發出警告,並呼籲加強監管、提高技術透明度。  《自然》雜誌對480位從事人臉識別、人工智慧和計算機科學領域研究的研究人員的調查顯示,人們對人臉識別研究的倫理學普遍存在擔憂,但也存在分歧。
  • 人臉識別60年︱安巴·卡克:行動者們正在打開「黑箱」
    製圖:馮婧圍繞人臉識別技術有諸多討論:它的識別準確性如何?數據會「歧視」哪些群體?作為敏感信息,「人臉」是如何存儲的?使用後,數據會被銷毀嗎?經過六十年的發展,它不再是加州一間小辦公室裡技術探索者的古怪實驗,人們試圖去理解,「黑箱」裡有什麼。
  • 兩元錢能買到上千張人臉照片 人臉識別存在信息洩露風險
    目前,在生活中使用最多的生物識別技術是指紋識別和人臉識別  ● 人臉信息屬於個人信息中的敏感個人信息,其一旦洩露或者被非法使用,可能導致人臉的主體受到歧視或者人身、財產安全受到嚴重威脅或危害  ● 在法律法規已有明確要求的「強認證」場景(如公共安全、金融支付)下,使用人臉識別完成精確的身份比對和驗證,有其必要性和合理性,但也要對人臉數據進行妥善保管,不得洩露、濫用。