2019年,中國藥科大學部分試點教室安裝了人臉識別攝像頭,用於日常考勤和課堂紀律管理,試圖杜絕逃課和「替同學籤到」的現象,但此舉也引發爭議。圖片來源:東方IC
許多地區的公共部門正將生物識別技術應用於城市基礎設施建設,對此數據保護法能做什麼?必要性(necessity)和
相稱性(proportionality)是國際人權法中基本的合法性原則,這也反映在世界各地的數據保護法中。這兩大原則要求,非必要情況,不得侵犯隱私或數據保護權利,且應當在使用方式和預期目標之間平衡。相稱性原則在世界各國的隱私權判例中也極為重要,當然存在一些地區差異,其測度通常也會權衡個人隱私與可能與之衝突的其他權利或公共利益。
數據保護法中,這些原則體現在可採集的數據類型、使用方式及可存儲時間上。GDPR和一些類似的數據保護法列出了
「數據最小化」原則(data minimization),要求機構可採集的個人數據需限制在「充分、相關,就使用目的而言必要」的程度。就執法機構而言,《數據保護法實施指令》(Data Protection Law Enforcement Directive,DP LED)要求採用更高的標準來判定採集生物識別數據是否「必要」。
這些規定質疑,
很多場景下,是否有收集生物特徵數據的必要。例如,瑞典數據保護委員會(Swedish Data Protection Authority)判定,校方出於考勤目的使用人臉識別違背了「相稱性原則」,因為有其他侵入性更小的手段,進而在學校中禁用人臉識別。法國數據保護局(French Data Protection Authority,也被稱為CNIL)和馬賽地區法院也做過類似裁定,禁止在法國採用人臉識別考勤系統。
為確保人道主義援助物資的有效發放,國際紅十字會使用了生物識別技術,但他們並未將這些數據視作「金礦」,而是放棄建立一個中心化的資料庫。圖片來源:國際紅十字會官網
本報告中,Ben Hayes和Massimo Marelli將會談及國際紅十字會(ICRC)的案例,他們在分發人道主義援助物資時使用了生物識別技術,同時注意保護「相稱性」原則。紅十字會會確定有必要使用生物識別系統,但他們設計了一套去中心化的系統,由用戶持有安全存儲自己生物識別數據的卡,紅十字會不會保留或為了其他目的使用這些數據,也放棄建立資料庫。如果人們希望撤銷或者刪除自己的數據,只需退還卡片,或者自行銷毀。
(編者註:在接受澎湃新聞採訪時,Amba Kak談及,想像一個中心化的資料庫,存儲了大量難民的生物特徵數據,它會被視作「蜂蜜罐」honeypot,紅十字會選擇放棄打造這樣一種資料庫。)不幸的是,實際生活中,人們鮮少使用這些原則去挑戰生物識別系統和資料庫的創建,特別是系統初步建立或「試點」階段。通常,對「必要性」的論述是為了促成生物識別系統的應用
(編者註:如企業出於合規目的),而非限制。
即便一些國家或地區的法律中提及數據最小化原則,在面對「效率」、「法律和秩序」或「國家安全」等詞語時,政府會為技術應用大開綠燈,而不會審查目的與手段是否相符。2020年,歐洲數字權利組織(EDRi)發布了關於生物識別監控的報告,歐盟通用數據保護條例GDPR在各國的實施力度不一,報告認為,雖然各國都設置了國家級別的數據保護委員會,但它們缺少資源,相對弱勢。
一些國家尚未出臺數據保護法,也未成立數據保護主管機構,面對將生物識別數據納入國民身份系統的項目時,人們通常會忽略相稱性原則,容易認同「技術更高效」等泛在話語,甚少去討論,是否存在替代性、較少侵權的方式。
「目的限制」原則(purpose limitation)限制了超出最初採集數據用途之外目的的數據使用,出於特定用途採集的數據不可用於其他「不相兼容」的目的。然而,泛化的「安全」要求常常模糊了犯罪、福利和移民程序之間的界限,對「兼容」做了模糊化處理
(編者註:即哪些使用目的「相互兼容」?誰說了算?)。
在美國聯邦安全社區計劃(S-COMM)之下,各州都需向罪犯資料庫和移民資料庫提交被捕者的指紋,移民和海關執法局(ICE)可以訪問這些信息。在美國多個州,ICE還要求對駕照資料庫進行人臉識別搜索的權限。澳大利亞內政部則一直在對各州駕駛執照資料庫進行匯總,以用於更廣泛的警務和執法目的。印度將生物識別納入國民身份ID的Aadhaar計劃,最初是為了匹配社會福利和物資發放,但政府也表示可能在特定情況下出於國家安全目的使用這些數據,印度國家犯罪記錄局(National Crime Records Bureau)已公開表示,希望利用該系統開展刑事調查。這些系統的設置可以規避和消除數據使用的目的限制。
法規應在多大程度上依賴技術標準制定機構所設定的性能和準確性標準?目前,圍繞生物識別技術的討論關注準確性和「誤差率」的度量標準,在機器學習領域,它們也被用來比較不同系統的性能。為「證明」系統的有效性,證明自動化相優於人工,開發、營銷和應用系統的人會聲明自己使用的這種系統具有一定的準確性(accuracy claims)。
然而,面對某些根據狹義標準測度出的、聲稱具有「高準確率」的人臉識別系統,當人們按照年齡、種族、性別和殘疾等人口統計數據進行細分時,準確率降低了。而「誤差」並非均勻分布,時常含有種族、性別、體能偏見
(編者註:即對殘障人士更不友好),與既有的不平等相關。
為解決這一問題,研究者呼籲對特定人群和表型亞組的
(編者註:系統識別)的準確性進行審核,並採取措施對系統誤差進行糾偏。
審核需要求助於技術標準制定機構,設定系統準確性、性能和安全性的行業準入基準。比如美國國家標準技術研究院(NIST)2019年推出的「人臉識別供應商測試」,他們可以評估算法在面對數據集涵蓋的不同統計人群時的差異。
美國國家標準技術研究院NIST推出了「人臉識別供應商測試」Face Recognition Vendor Test。圖片來源:NIST官網
監管機構和立法部門開始召集技術標準制定機構進行審核,為技術的準確性、性能和安全性設定基準。2020年3月,英國平等與人權委員會(UK Equality and Human Rights Commission)叫停了人臉識別技術在英格蘭和威爾斯的應用,直到獨立審查完成,這些審查會分析算法對某些弱勢群體的歧視問題。
2020年3月通過的《華盛頓州SB 6280法案》要求人臉識別技術開發公司合作,允許獨立測試,測試系統在面對包括種群、膚色、民族、性別、年齡或殘疾狀況在內的各個亞群體時的準確性和偏誤。如果獨立測試顯示確有「不公平表現差異」(material unfair performance differences),技術開發者必須在90天內糾正問題。
另一個正在擬議的聯邦法案(S.2878:2019面部識別技術保證法案)要求聯邦執法機構與NIST合作建立測試系統,以確保算法在面對不同性別、年齡和種族時,準確性相對一致。
這些標準走在正確的方向上,但它們遠非衡量系統性能的唯一標準,它們並不能充分反映這些系統在使用時可能產生的更廣泛的歧視性影響。
首先,研究人員和倡導組織發現,許多「通過了」當前基準評估的系統在現實環境下使用時仍然表現不佳。另外,當前還沒有標準的操作方式來記錄和傳達基準數據集的歷史和限制,因此沒有辦法確定它們針對特定系統的適用性或針對特定環境的適合性。
此外,單憑設置一個技術性限值對歧視性影響進行判斷,可能會在實操時造成更大的影響。例如,人臉識別系統在少數族裔社區往往有更大規模的應用
(編者註:比如少數族裔社區設置了更多攝像頭),這本身已是歧視。
值得注意的是,許多情況下,基準只是一個「複選框」(checkbox),技術供應商和科技公司們可以自行勾選,聲稱技術是安全和公平的,而無需考慮其使用方式,或在特定環境下的適用性。
製圖:白浪
(本文來自澎湃新聞,更多原創資訊請下載「澎湃新聞」APP)