人臉識別60年︱安巴·卡克:行動者們正在打開「黑箱」

2020-12-05 澎湃新聞

製圖:馮婧圍繞人臉識別技術有諸多討論:它的識別準確性如何?數據會「歧視」哪些群體?作為敏感信息,「人臉」是如何存儲的?使用後,數據會被銷毀嗎?經過六十年的發展,它不再是加州一間小辦公室裡技術探索者的古怪實驗,人們試圖去理解,「黑箱」裡有什麼。

「越來越多人開始關注,算法如何利用我的數據來定義我,它將如何影響政府和商家,他們會以此做出哪些關於我的決定」,長期關注數據法的研究者安巴·卡克(Amba Kak)在接受澎湃新聞(www.thepaper.cn)專訪時這樣表示。

卡克是紐約大學AI Now研究中心的全球戰略及項目總監,今年9月,他們發布了一份報告,梳理全球範圍內人臉識別技術引發的爭議,並評估了現有數據保護法及相關條例的效力,報告提出,仍有諸多問題未能得到有效回應,即便是被稱為「史上最嚴格數據保護法」的歐盟《通用數據保護條例》(GDPR)。

澎湃新聞:談談這份報告的緣起吧。

安巴·卡克:差不多一年前,我們啟動了這個項目。當時我們能感受到,世界範圍內,圍繞生物識別——特別是人臉識別,各種討論達到了高峰。熱度既來自這項技術的大規模應用,也暗含人們對它的擔憂。人們期待,能有更針對性的法律規範這項技術。

實際上,全世界範圍內,大約有130個國家擁有數據保護法,它們都涵蓋了生物特徵數據,一些地區有更針對性的法律,比如美國伊利諾州的《生物識別信息隱私法》(BIPA)、歐盟的《通用數據保護條例》(GDPR)。但深入研究,這些法律條文仍有局限,比如,它們仍然無法有效解決人臉識別技術的準確性、數據歧視等問題。

這份報告收錄了8個來自世界不同地區的案例,我們希望梳理目前生物識別技術在應用中的諸多困境。

澎湃新聞:人們對於人臉識別技術的擔憂似乎存在一些地區差異,比如,美國的研究和行動者聚焦在種族歧視問題,人臉識別技術對於少數族裔的誤識率很高,當它應用於警察執法會造成偏誤。而中國更關注數據隱私和安全性等問題。

安巴·卡克:確實有差異,但我認為,其中存在共性。

先談「歧視」,很有趣的一點,談及這個詞,很多人第一反應是種族,特別是美國,如你所說,目前很多研究都集中在這一領域,它確實引發了一些誤捕事件,所以才有了之後許多城市的禁令,警察執法不得使用這項技術。

但「歧視」還會涉及更多群體,比如女性、老年人。舉個例子,我來自印度,2009年印度政府啟動了Aadhaar項目,計劃為11億人口建立一個生物特徵資料庫,每個公民的指紋、虹膜,甚至人臉信息都將納入其中,作為公民身份的唯一標識符(編者註:identifier,指用來標識某個實體的一個符號,來源於計算機程式語言),與教育、醫療、保險、金融等社會生活的方方面面綁定。

Aadhaar的初衷之一是為了減少社會福利的冒領、漏洞,減少中間環節,避免因官員腐敗,救濟無法到達需要的人手中。但很快人們發現了各種問題。許多底層勞動者由於長期勞作,指紋嚴重磨損,難以被識別,無法獲得救濟。

Aadhaar打造了一套唯一身份系統,但這些群體卻被排斥在外。除此之外,Aadhaar計劃還有很多問題,比如數據安全,我們的報告中也有一章專門講Aadhaar計劃。

或許相較於「歧視」,更準確的詞是「排斥」(exclusion),如果你生活在一個人口結構並不那麼多元的社會,種族歧視似乎離你較遠,不如想想排斥,你是否被某種系統排斥在外了。

Aadhaar計劃建立了一套生物特徵資料庫。圖片來源:Getty澎湃新聞:比如數字鴻溝也會造成排斥?新冠疫情期間,中國的「健康碼」發揮了很大作用,但對於一些不習慣使用智能設備的群體,他們的生活也遇到了障礙。安巴·卡克:沒錯。幾乎每個地區都有數字鴻溝,可能是某些地區的網絡覆蓋率有限,也可能是某個人群不習慣使用智能設備。

Aadhaar使用唯一識別碼(UIDAI)與社會福利綁定,可以追問兩個問題,涉及到社會福利領取這種社會基礎服務時,是否可以保留其他「低技」的、非數位化的方式?技術的初衷是為了提高效率,但對於某些群體而言,它恰恰起到了相反作用。另一個問題是,當個人對識別結果存疑時,是否有申辯機制?

澎湃新聞:人臉識別的準確性引發了各種討論,技術供應商往往宣稱很高的準確性,但一些獨立測評顯示,對於某些群體誤識率更高,可以對準確性提出「行業標準」嗎?報告中提到了一點,立法者開始意識到需要對技術供應商進行審查,如美國國家標準技術研究院(NIST)會設置基準,他們有自己的數據集,可以進行獨立測試。

安巴·卡克:是的,比如NIST的「2019人臉識別供應商測試」(Face Recognition Vendor Test,FRVT),它會評估同一個算法對於不同人群的表現。

值得注意的是,這套標準可能只適用於美國獨特的社會人口結構,比如種族、年齡、性別等等。如果在亞洲、拉美地區,數據集和標準可能完全不同。

設置準入標準是正確的方向,允許專業機構對準確性進行評估。但目前,包括NIST等標準設置機構在內,他們提出的標準具有多大效力,學界也有不同意見。有研究者發現,一些已經通過了標準測試的算法,在實操環節仍然低於預期。

2018年底,倫敦警方曾使用安裝有攝像頭的麵包車來監視街道安全,這在當時引發民眾抗議。圖片來源:視覺中國澎湃新聞:2019年舊金山提出人臉識別禁令後,多個城市紛紛通過了類似的禁用措施,主要禁用範圍是警察執法。最近波特蘭也提出,禁止私人公司在公共場所使用這項技術。有人擔心,一刀切式的禁止是一種「技術恐懼論」。安巴·卡克:這個問題非常有趣。

首先,媒體報導中使用了一個非常乾脆的詞,「禁令」(Ban),但許多城市出臺的是類似「暫停令」(Moratorium),暫時叫停這項技術的應用,直到有更深入的研究,或更健全的法律,可以切實保障個人權利。

這一輪人臉識別禁用浪潮可能會造成一種印象——這是一個糟糕的技術,但我認為,恐懼論會讓人們遠離它,而非了解它。

這一輪禁令浪潮背後有很多討論會,有的由城市的市政部門組織,有的由公民團體組織。很多人試圖去理解「黑箱」裡運行的技術——算法如何利用我的數據來定義我,並做出關於我的決定。

舉個例子,我們正在研究新冠疫情期間,全球的各種防疫軟體。中國有健康碼,用不同顏色區分你的安全級別,據我了解,持有綠碼者可以通行無阻,而紅碼就無法進入某些地方。人們會關心顏色為何發生變化,如果它對我的判斷有誤,我能否挑戰它,為自己申辯?

類似的討論在全球各處都能看到,越來越多,透明度和申辯機制都很重要。所以我並不贊同技術恐懼論,相反應該鼓勵人們「打開」黑箱。

澎湃新聞:目前,世界範圍內,很多數據保護法都強調了「同意」的重要性,但這份報告似乎持有不同觀點,為什麼?

安巴·卡克:是的,同意並不重要,或者說,它並不如你想像中那麼重要。

個人需要有知情權,了解數據具體的使用場景、使用目的,如何獲取、存儲、處理、銷毀。但「同意」並不等於你真的有選擇權。

現有的「同意」機制存在問題,比如,當你想要安裝一個App,手機會彈出的說明框,你可以選擇同意,但如果不同意就意味著你無法使用這個App。不要對「同意」有什麼浪漫化的想像,它不能保護我們的權益,相反,它可能會被惡意曲解為一種「授權」。

無論從技術還是法律的專業背景上,個人與科技公司都是不對等的,保護個人信息安全不該是個人的責任,而應是政府的職責。所以相較於一個模糊而形式化的「同意」,政府需要更明確的法規,規定數據的獲取及使用。

人臉可以作為一種連接個體信息的標識符,與消費習慣、行蹤軌跡等互通。圖片來源:Flickr澎湃新聞:最近,中國公布了《個人信息保護法(草案)》,並向社會徵詢意見。有法律學者提及,需要限定人臉識別技術的使用目的,它應該被應用於身份驗證,而非其他商業性目的,比如用戶畫像和精準營銷。《歐盟通用數據保護條例》等法規中也提出了一些原則,比如「必要性原則」、「使用目的限定原則」,實際操作中,這些原則的效力如何?安巴·卡克:可以拆分成兩個問題。

首先要警惕一種簡化的對比,認為「識別」(Identification)是高風險的,而身份「驗證」(Verification)是100%安全的,但就像我前面提到的那些因素,Aadhaar就是一種身份驗證,但很多人無法識別指紋。

使用目的限定原則(Purpose-limitation Principle)非常重要。比如,我可以將我的個人數據放心交給住房委員會,因為我清楚他們會如何使用我的數據。但如果數據洩露,或是被賣給了保險公司,他們可能會對我做出判斷,比如拒絕為我貸款。

這個設想很好,但在執行層面上看存在困難。如Google這樣的科技巨頭,業務涵蓋多個領域,彼此之間會不會進行數據互通?比如,我的健康數據會不會分享給保險公司,或者廣告精準營銷?所以實際操作層面,立法者、公民團體或許需要做更多實踐。

澎湃新聞:報告中提到了一個有趣的案例,國際紅十字會在分配人道主義救援時使用了生物識別技術,但他們決定放棄建立一個中心化的生物特徵資料庫。中心化的資料庫存在哪些風險?

安巴·卡克:新冠疫情期間,你能看到中心化的資料庫,針對防疫它很有效。但它又存在風險性。一是數據安全,當所有敏感信息都存儲在一個中心化的伺服器上,如果遭到攻擊,很容易危及整個資料庫。

第二層風險,我們稱之為「蜂蜜罐」(honeypot),它與前面提到的「使用目的限定原則」存在衝突——將不同來源的數據整合,這件事情誘惑太大了。

這也是紅十字會案例中,人們的擔憂:他們有必要使用生物識別技術,以提升發放救援物資的效率。但試想,如果你擁有一個關於難民的中心化的生物特徵資料庫,會有太多力量想要訪問這些數據。所以紅十字會通過技術手段,儘量減少生物識別技術的實際保留。

澎湃新聞:報告的最後一章提到了一個案例,紐約的一處公立學校,家長們反對校方以安保為名使用人臉識別技術。針對這項技術的應用倫理,社區在其中可以起到什麼樣的作用?

安巴·卡克:我們想通過這個案例告訴大家,行動是可能的。

這個案例中,家長們討論的都是最具體的問題,而不再是一些看起來時髦卻有些抽象的詞彙,比如隱私和監控。孩子的日常生活會面臨哪些改變,是否有其他更好的方式使用這筆資金。

實際上,在全球關於人臉識別的討論中,我們能看到這種轉向,從抽象的概念走向具體的問題。

再談談印度。進行國際比較時,我們發現,很難在當地語言中找到一個詞彙來表達「隱私」,這個詞當然是存在的,只是人們在日常生活中很少會用到它。當你去問一個普通印度人,「人臉識別攝像頭會侵犯你的隱私嗎」,或許他無法明白你在說什麼。

這份報告發布後,很多人會問我,「你對我們國家的生物識別技術法律有什麼建議嗎?」這個問題太大了,不如看看周圍,如就業、居住、子女教育,人臉識別技術對你的生活產生了哪些影響?你同意它對你的判斷和決策嗎?

(市政廳得到AI Now授權,近期將翻譯報告中的部分內容,呈現不同城市的行動與思考。)

(本文來自澎湃新聞,更多原創資訊請下載「澎湃新聞」APP)

相關焦點

  • 人臉識別60年︱法律能保護人們的「臉」嗎?
    臉識別技術也被應用於校園,2019年瑞典對一所高中開出罰單,認為學校使用人臉識別技術進行考勤,違反了歐盟通用數據保護條例GDPR。圖片來源:Getty對生物識別系統的監管很大程度上是通過數據保護法實現的。生物識別數據通常被認定為高度敏感類別的個人數據,此類數據的收集、存儲和公開需要受控於一系列限制條件。
  • 我國人臉識別上市公司匯總
    人臉識別,是基於人的臉部特徵信息進行身份識別攝像機或攝像頭採集含有人臉的圖像或視頻流,並自動在圖像中檢測和跟蹤人臉,進而對檢測到的人臉進行臉部的一系列相關技術,通常也叫做人像識別、面部識別。人臉識別技術是人工智慧的典型應用。
  • 在人臉識別的「統治」陰影之下……
    早在1964年,當布萊索(Bledsoe)、海倫·陳(Helen Chan)和查爾斯·比森(Charles Bisson)一起嘗試用計算機識別人類面部時,人類對人臉識別的探索就已經開始了,隨後經歷了不斷失敗和發展的過程。歷史學家認為布萊索等人是自動化人臉識別的開拓者。
  • 看AI偵探如何破解深度學習的黑箱
    身為Uber研究科學家的Yosinski正在對運行在他的筆記本上的AI進行某種腦科手術。就像眾多很久快將對現代生活的方方面面提供動力的AI(包括Uber的無人車)一樣, Yosinski的程序用的也是深度神經網絡,其架構靈感也部分源自大腦。就像大腦一樣,該程序外部是很難理解的:它是個黑箱。這個特別的AI已經用海量的標籤圖像進行了訓練,使得它可以識別諸如斑馬、消防車、安全帶等隨機對象。
  • COVID大流行推動人臉識別技術應用
    打開APP COVID大流行推動人臉識別技術應用 51CTO 發表於 2021-01-07 15:55:58 在全球範圍內,人工智慧和各種監控技術正逐步成為抗擊新冠肺炎的武器
  • 人臉識別技術理論
    人臉識別,是基於人的臉部特徵信息進行身份識別的一種生物識別技術。用攝像機或攝像頭採集含有人臉的圖像或視頻流,並自動在圖像中檢測和跟蹤人臉,進而對檢測到的人臉進行臉部識別的一系列相關技術,通常也叫做人像識別、面部識別。
  • 人臉識別的「囚徒困境」
    先是行業外BAT等巨頭攜著資本、品牌力量順勢攪局;緊接著身處於這個行業的老兵也不甘示弱,紛紛「揭竿而起」,一場人臉識別登陸戰就此拉開。對於人臉識別這個狹小AI賽道上的熱鬧景象,早在2017年3月份,李開復就驚嘆「國內出現了四家以人臉識別為主的創業公司現象不合理」,甚至還有投資人表示,2018年6月份可能就是AI的冬天。
  • 從百度「臉優」看人臉識別技術 或將開啟中國技術驅動
    百度世界大會發布一款名為臉優的娛樂性APP,這是其人類識別技術的具體應用。目前,國內很多領域正在或將要實現人臉識別技術應用。人臉識別技術,很有可能開啟中國的技術驅動革命。事實上,目前人臉識別已經不是技術上的空談,已經有很多領域正在或將要實現人臉識別技術應用。譬如安防、銀行等領域,人臉識別最容易應用的就是安全領域。除了這些公共單位,有沒有面向大眾的應用?答案是肯定的,百度世界大會發布的臉優就是這樣一款產品。什麼是臉優?簡單的說,臉優是個可以實時貼臉拍照錄像的娛樂性APP。
  • 人臉識別的商業應用
    每當您識別某人的臉部時,便會使用內部形式的人臉識別。在幾毫秒內,您的大腦就會分解出人臉的各個部分,將它們重新組合在一起,然後將總和與已經存儲在內存中的那些人臉進行匹配。當流程無縫運行時,您甚至都沒有意識到它的發生。
  • 人臉識別60年︱高富平:形式化的同意何以保障個人信息安全
    製圖:馮婧繼機場、小區、智能路燈之後,人臉識別技術的應用延伸到了售樓處。近日,據央廣《中國之聲》報導,多地售樓處上線了人臉識別系統,隱藏攝像頭可以拍下到訪者的臉部信息,進行身份識別和分析,並採取差異化的營銷策略。為避免「殺熟」,一些看房者無奈戴上了頭盔。
  • 人臉識別行業分析
    從公開專利數量來看, 2007-2017年,我國人臉識別專利公開數量總體呈上升趨勢,為人臉識別商業化應用打下基礎。從每年新增數量來看, 2007 年新增專利尚不足百例,至 2015 年迎來了爆發,全年新增專利已達到 1398 例,至 2017 年,我國人臉識別專利公開數量 2698 項,達到近年來最大值;截至 2018年7月,專利公開數量為2163 項, 技術實力的顯著增強也為國內商業化產品的迅速普及打下了堅實的基礎。
  • 多地試點人臉識別社保認證 「刷臉」辦事靠譜嗎
    此前,已有廣東、廣西、浙江、山東等地開始運用人臉識別技術進行社保認證。  前瞻產業研究院數據顯示,預計到2021年,中國人臉識別行業市場規模將達到51億元。用指紋解鎖手機、登錄帳號、付錢買單,已經是不少人習以為常的動作。也許在不久的將來,人們將像按指紋一樣熟練地「刷臉」。「刷臉」如何讓生活更便捷,又如何保護用戶的財產安全和信息安全?
  • 人臉識別技術面臨的困難與挑戰
    據微信公眾號"App個人信息舉報"29日消息,一份萬人問卷調查顯示,人臉識別技術的便捷性受到認可,但受訪者對其安全性感受一般,很多時候遭遇強制要求使用現象;六成受訪者認為人臉識別技術有被濫用的趨勢。  網絡平臺過度掠取信息  2020年國家網絡安全宣傳周特別節目對部分App應用人臉識別技術過程中的典型問題進行曝光和分析。
  • 40款智能門鎖,15%被特斯拉線圈輕易打開,人臉識別無一合格
    智能門鎖近幾年逐漸進入越來越多的家庭,截至2018年6月底,我國智能門鎖生產企業已超過1500家,2018年預計銷量2100萬套。作為傳統門鎖的升級版,智能門鎖是否更加安全?看《每周質量報告》的調查。調查:「小黑盒」幾秒鐘能打開智能門鎖不久前,網傳視頻顯示,有人用一個煙盒大小的盒子在幾臺智能門鎖前來回晃動,幾秒鐘後,門鎖就自動打開了。
  • 關於「人臉識別」的濫用和隱患 你需要知道的都在這裡!
    並非新興事物 人臉識別已經有近60年歷史 1960年代,舊金山灣區的帕洛阿爾託尚未因矽谷聞名。當地一家名為「全景研究」(Panoramic Research)的公司正在進行一項古怪實驗,教計算機認識人臉。
  • 人臉識別系統應用優勢及組成
    打開APP 人臉識別系統應用優勢及組成 人工智慧實驗室 發表於 2020-12-01 10:13:59   一、人臉識別、人臉識別系統技術現狀   隨著科技的發展和技術的提高,很多公眾場所公司園區企業等出入口控制朝著智能安全高效管理方向發展,比如安裝部署出入門禁系統,通道閘機等,其中門禁系統中跟多趨向採用生物識別技術如人臉識別、人臉識別。
  • 新技術變成「危險武器」 誰在濫用人臉識別?
    酒店接待旅客,刷臉登記入住,馬路上車輛川流不息,司機們習慣於通過人臉識別解鎖手機,而他們頭頂的攝像頭,正在利用同樣的技術自動抓拍。 作為近年來AI浪潮中的標誌性技術,人臉識別已經大規模落地,並應用於安防、金融等日常生活的重要場景中。
  • 【乾貨】中國人臉識別產業鏈全景圖!
    ——政策頻發,助推產業發展。人工智慧的浪潮湧起,讓人臉識別技術得到了快速發展的機遇;中國人工智慧政策的支持,為人臉識別的發展提供了堅實保障。根據soopat最新數據顯示,近年來我國人臉識別技術專利申請量和公開量不斷提高,2017年我國人臉識別專利申請量和公開量分別為3368項和2698項,及至2018年專利申請量增長至3487項,而公開量增長近一倍達到5200項。
  • 聽慣了AI人臉識別,來看看我們大腦的人臉識別能力有多強
    自從有了獨特的臉部外貌特徵,我們大腦的對應功能區也如AI一樣進化出了獨特的人臉辨識能力,但這種能力存在個體差異。最近一項研究顯示,大腦的面部辨識能力正如IQ一樣,不僅有超級識別者,也有不善於辨識的臉盲困擾。
  • 王者榮耀人臉識別提示無相關判決書 無需人臉識別是什麼意思
    :原標題:王者榮耀人臉識別提示無相關判決書 無需人臉識別是什麼意思 王者榮耀人臉識別認證功能已經啟用,主要針對疑似未成的成年帳號強制人臉識別的,不過由於功能還在完善中,所以在人臉識別時會出現錯誤代碼或則一些比較複雜的情況,估計多數玩家看到提示無相關判決