洛杉磯警察局(Los Angeles Police Department)已經禁止使用面部識別技術,因為據稱警員未經授權使用面部識別技術。
近年來,由於反覆的研究表明這些系統存在嚴重的偏見,因此這些系統面臨著越來越多的審查。
無論在哪裡部署面部識別系統,公眾都需要相信它們被公平地使用——這是迄今為止還沒有任何部署能夠做到的。
本周,在25名洛杉磯警察局官員被指控在三個月內用面部識別系統進行近475次非官方的身份識別之後,令公眾對面部識別的信任進一步受損。
據報導,警察局副局長約翰·麥克馬洪和警察局IT部門的負責人向整個洛杉磯警察局發出了一條指令,稱警察現在只能使用洛杉磯郡自己的身份識別系統,該系統使用的是警察拍攝的圖像並在逮捕後添加,而不是有爭議的Clearview人工智慧系統,該系統使用的是從網上收集的數百萬張圖像。
今年6月,底特律警察局長詹姆斯·克雷格(James Craig)表示,面部識別有大約96%的機率會認錯人。
克雷格發表此番言論的幾天前,美國公民自由聯盟(ACLU)就底特律警方因面部識別錯誤而錯誤逮捕黑人男性羅伯特 威廉士一事向底特律警方提出了投訴。
底特律警方逮捕了威廉士,據稱他在2018年10月從一家商店偷走了價值3800美元的5隻手錶。一個模糊的閉路電視圖像被人臉識別算法匹配到威廉士的駕照照片。
眾所周知,目前的人工智慧算法存在種族主義問題。大量研究一再表明,面部識別算法在白人男性身上幾乎100%準確,但在深色膚色和女性身上就有嚴重問題。
面部識別正越來越多地用於對抗議活動進行大規模監控,比如「黑人的命也是命」。鑑於有證據顯示此類技術對少數族裔存在偏見,這將導致災難性後果。
在英國,面部識別測試也完全失敗了。2016年諾丁山狂歡節的首次試驗沒有發現一個人被識別出來,而第二年的後續試驗沒有發現合法匹配,但出現了35個假陽性。
去年,彼得·福西(Peter Fussey)教授和達拉·默裡(Daragh Murray)博士對倫敦警察所進行的面部識別試驗進行了一份獨立報告,得出的結論是,只有19%的案例可以證實其準確性。
今年6月,1000名專家聯名寫了一封公開信,回應一篇名為《利用圖像處理技術預測犯罪行為的深度神經網絡模型》的令人毛骨悚然的論文。
「機器學習程序不是中立的;研究議程和他們使用的數據集往往繼承了對這個世界的主流文化信念。」
除非能證明面部識別和機器學習系統是公正的,否則部署將會對受害者和公眾對這類技術的容忍和認知造成傷害。