人臉識別「熱」中的冷思考:道德倫理問題值得深思

2020-11-27 中國青年網

圖片來源:視覺中國

科技日報11月27日報導,人臉識別系統已經給我們的城市帶來諸多方便。然而,在許多國家,對人臉識別的抵抗聲也在不斷高漲。研究人員、公民自由倡導者和法律學者都受到人臉識別技術興起的困擾。他們正在跟蹤其使用,揭露其危害並開展運動以尋求保障甚至是徹底禁止技術的使用。然而,技術發展的潮流浩浩蕩蕩,更多人認為該技術的存在是「不可避免的」,但是其背後存在的道德倫理問題值得我們深思。

近期,《自然》雜誌的一系列報導對人臉識別系統背後的道德倫理學進行了探討。一些科學家正在分析人臉識別技術固有的不準確和偏見,對其背後存在的歧視發出警告,並呼籲加強監管、提高技術透明度。

《自然》雜誌對480位從事人臉識別、人工智慧和計算機科學領域研究的研究人員的調查顯示,人們對人臉識別研究的倫理學普遍存在擔憂,但也存在分歧。

有些未經同意獲取數據

為了使人臉識別算法正常工作,必須對大型圖像數據集進行訓練和測試,理想情況下,必須在不同的光照條件和不同的角度多次捕獲這些圖像。過去,科學家普遍招募志願者,只為收集各種角度的照片;但現在,大多數人未經許可即被收集人臉圖像。

在《自然》雜誌的480位受訪者中,當被問及對應用面部識別方法從外表識別或預測個人特徵(如性別、年齡或種族)的研究有何看法時,約三分之二的人表示,此類研究只能在獲得面部識別者知情同意的情況下進行,或者在與可能受到影響的群體代表討論後進行。

大多數人認為,使用人臉識別軟體的研究應事先獲得倫理審查機構(例如機構審查委員會)的批准。他們認為,對於在學校、工作場所或由私人公司監視公共場所時使用人臉識別進行實時監視感到最不舒服,但是他們通常會支持警察在刑事調查中使用人臉識別系統。

從法律上講,目前尚不清楚歐洲的科學家是否可以未經人們的同意而收集個人人臉的照片以進行生物識別研究。歐盟的通用數據保護條例並沒有為研究人員提供明顯的法律依據。在美國,一些州表示,商業公司未經其同意使用個人的生物識別數據是非法的。

受訪者強烈認為,應該有其他法規來規範公共機構使用人臉識別技術。超過40%的人則希望禁止實時大規模監視。

存在性別和種族偏見現象

人臉識別系統通常是專有的並且保密,但是專家說,大多數系統涉及一個多階段過程,該過程通過深度學習對大量數據進行大規模神經網絡訓練。

美國國家標準技術研究院(NIST)在去年年底發布的報告中稱,人臉識別的準確率有了顯著提高,深度神經網絡在識別圖像方面效果明顯。但NIST同時也證實,相對於有色人種或女性,大多數人臉識別對於白人男性面孔的準確性更高。特別是,在NIST的資料庫中被歸類為非裔美國人或亞裔的面孔被誤認的可能性是那些被歸類為白人的面孔的10—100倍。與男性相比,女性誤報的可能性更高。

領導NIST圖像小組的電氣工程師克雷格·沃森認為,這種不準確很可能反映了每家公司培訓資料庫構成的不平衡,一些公司可能已經開始解決這個問題。

有待嚴格立法和監管

致力於人臉識別或分析技術的研究人員指出,人臉識別有很多用途,比如尋找走失的兒童,追蹤罪犯,更方便地使用智慧型手機和自動取款機,通過識別機器人的身份和情緒來幫助機器人與人類互動,在一些醫學研究中,還可以幫助診斷或遠程跟蹤同意的參與者。

人臉識別技術有好處,但這些好處需要根據風險進行評估,這就是為什麼它需要得到適當和細緻的監管。

目前,許多研究人員以及谷歌、亞馬遜、IBM和微軟等公司都呼籲在人臉識別系統方面出臺更嚴格的監管措施。

麻薩諸塞州波士頓東北大學研究面部監控的計算機科學家、法學教授伍德羅·哈特佐格說視人臉識別技術為「史上最危險的發明」,說如果美國立法者允許公司使用人臉識別,他們應該編寫規則,從健身房到餐廳都應當禁止「面部指紋」的收集和儲存,並禁止將人臉識別技術與自動化決策(如預測性警務、廣告定位和就業)結合使用。

尚須謹慎研究和思考

密西根州立大學東蘭辛分校的計算機科學家阿尼爾·賈恩說:「在我們的社會中,我們需要大量正當而合法的人臉和生物識別應用。」但一些科學家表示,研究人員也必須認識到,在人們不知情的情況下對人臉進行遠程識別或分類的技術從根本上是危險的,應該努力抵制其被用來控制人們的做法。

作為人工智慧領域的首要會議之一,神經信息處理系統會議是今年首次要求進行這種道德考量,即提交有關人臉識別論文的科學家必須添加一份聲明,說明他們的工作中存在的倫理問題和潛在的負面後果。

此外,《自然機器智能》雜誌也在試圖要求一些機器學習論文的作者在文章中加入一項聲明,考慮到更廣泛的社會影響和倫理問題。

紐約伊薩卡市康奈爾大學從事技術倫理研究的社會學家凱倫·利維認為,研究人臉識別的學者意識到道德倫理問題,「感覺像是科學界真正的覺醒」。

來源:科技日報

相關焦點

  • 人臉識別「熱」中的冷思考:道德倫理問題值得深思
    然而,技術發展的潮流浩浩蕩蕩,更多人認為該技術的存在是「不可避免的」,但是其背後存在的道德倫理問題值得我們深思。 近期,《自然》雜誌的一系列報導對人臉識別系統背後的道德倫理學進行了探討。一些科學家正在分析人臉識別技術固有的不準確和偏見,對其背後存在的歧視發出警告,並呼籲加強監管、提高技術透明度。
  • 人臉識別「熱」的冷思考:道德倫理問題發人省
    然而,技術發展的潮流浩浩蕩蕩,更多人認為該技術的存在是「不可避免的」,但是其背後存在的道德倫理問題值得我們深思。近期,《自然》雜誌的一系列報導對人臉識別系統背後的道德倫理學進行了探討。一些科學家正在分析人臉識別技術固有的不準確和偏見,對其背後存在的歧視發出警告,並呼籲加強監管、提高技術透明度。
  • 人工智慧「大火熱」,道德倫理卻要「冷思考」,4大場景敲響警鐘
    外出購物付款時,華為等手機的前置攝像頭善解人意,能夠智能識別用戶、感知外界環境,自動提供相應的服務。步入老年後,銀行工作人員將老年人抱起來進行人臉識別,只有這樣,才能完成相關業務的辦理!人臉識別等人工智慧技術「大火熱」以上的4大場景是真實存在的,已經發生或者正在發生,其均與人臉識別等人工智慧技術有關,而人工智慧是當今「大火熱」的科技潮流。
  • 人臉識別引發道德倫理擔憂!你的臉被監視了嗎?
    然而,技術發展的潮流浩浩蕩蕩,更多人認為該技術的存在是「不可避免的」,但是其背後存在的道德倫理問題值得我們深思。  近期,《自然》雜誌的一系列報導對人臉識別系統背後的道德倫理學進行了探討。一些科學家正在分析人臉識別技術固有的不準確和偏見,對其背後存在的歧視發出警告,並呼籲加強監管、提高技術透明度。
  • 美480位人臉識別專家爭議道德倫理
    然而,技術發展的潮流浩浩蕩蕩,更多人認為該技術的存在是「不可避免的」,但是其背後存在的道德倫理問題值得我們深思。近期,《自然》雜誌的一系列報導對人臉識別系統背後的道德倫理學進行了探討。一些科學家正在分析人臉識別技術固有的不準確和偏見,對其背後存在的歧視發出警告,並呼籲加強監管、提高技術透明度。
  • 美480位人臉識別專家爭議道德倫理
    然而,在許多國家,對人臉識別的抵抗聲也在不斷高漲。研究人員、公民自由倡導者和法律學者都受到人臉識別技術興起的困擾。他們正在跟蹤其使用,揭露其危害並開展運動以尋求保障甚至是徹底禁止技術的使用。然而,技術發展的潮流浩浩蕩蕩,更多人認為該技術的存在是「不可避免的」,但是其背後存在的道德倫理問題值得我們深思。
  • 「人臉識別」,我們還能承受多少風險?
    在這場疫情戰中,科技為人類帶來的優勢已毋需多言。但隨科技而來的各類風險又如何規避呢?大數據的運用、人工智慧的探索對隱私安全、網絡犯罪、社交倫理造成了史無前例的衝擊。科技的工具屬性弱化的同時,是否可能變成攻擊人類的危險武器呢?科技的開發者與管理者如何思考和應對,對於我們理解這一系列的棘手問題也許有更為直觀的幫助。
  • 如何治理科技發展中的倫理問題?
    當今世界,人們享受著前所未有的科技發展紅利,也面臨著前所未有的科技倫理風險。如何治理科技發展中的倫理問題,防止科技濫用、科技作惡、學術不端?以科技倫理規範為依據,對每一環節進行有效規範,是科技倫理治理的基本任務。健全科技倫理監管制度,需要依據科技倫理規範對科研活動進行全過程跟蹤和監管,發現並糾正各種科技倫理問題,懲戒學術不端,力戒浮躁之風。比如,基於人臉識別、聲音識別等技術的「深度偽造」防不勝防,必須加強技術發展的法治規範。 完善科技倫理監管程序。
  • 工程教育中的性別問題和倫理問題
    無標題文檔工程教育中的性別問題和倫理問題——國際工程教育中的新熱點 新聞中心通訊員 郭歆   在第三屆國際工程教育大會上,除了大會擬定的三大主題之外,工程教育中的性別問題以及工程教育的倫理問題成為了本屆討論會的熱點。
  • 到處都是人臉識別,我們如何保護個人隱私?
    這個問題值得我們每一個人深思。引人爭議的面部識別人臉識別帶來的便利不可忽視,然而,技術的發展沒有邊界,但技術的使用必須有邊界,可這個邊界,現今看起來是如此模糊。哪些場景可以應用,哪些領域可以擴展,均無明顯規範。因此,當其無意間逾越了邊界,自然就伴生了諸多爭議。
  • 智能人臉識別+紅外熱成像一體機
    智能人臉識別+紅外熱成像一體機 蜂鳥智能型號:HC-SJP08S-T 概述 智能紅外熱成像人臉識別是基於人的臉部特徵信息進行身份識別的一種生物識別技術,它的唯一性和不易被複製的良好特性為身份鑑別提供了必要前提。
  • 倫理道德與大眾意識形態領域的「中國問題」
    兩部報告反應了我國當前倫理道德與大眾意識形態總體狀況與發展態勢,提供了當前我國倫理道德與大眾意識形態領域的新發現與新解釋。並對反應出來的「中國問題」提出了解決問題的「中國戰略」。    一、 當前我國倫理道德與大眾意識形態的元素、結構和形態1、 倫理道德與大眾意識形態發展的總體鏡像——二元對峙,十字路口調查發現,當前我國思想道德文化正在多元中逐漸向二元聚集,在許多重大問題的認知與判斷,如德性與公正、義與利、善惡與禍福、經濟發展與幸福感的關係等方面,已經不是多元,而是二元,一種「二元體質」已經開始呈現
  • 防止人臉識別濫用,還須法律護航
    來源:錢江晚報據廣州日報報導,隨著人工智慧的發展,人臉識別技術得到廣泛應用,「臉」的應用場景被不斷拓寬,比如,點完餐看一下攝像頭就能完成支付,住酒店刷臉後就能登記,上公廁取廁紙也得刷個臉……筆者不禁發問:人臉識別是不是用得太多了?如果用其他更安全的方法也能快速解決問題,為什麼非要刷臉?
  • 《道德經》七則名言,值得深思
    《道德經》七則名言,值得深思我們都知道,老子是道家學派的創始人,他所著的名為《老子》也稱《道德經》是一部充滿智慧的經典著作,雖然只有五千言,但是裡面的名句很是值得一讀的。
  • 一種具有AI人臉識別功能的紅外熱成像測溫儀
    打開APP 一種具有AI人臉識別功能的紅外熱成像測溫儀 tmmotion 發表於 2020-12-02 14:18:35 獲悉,湖北省婦幼院使用的紅外熱成像測溫儀,具有AI人臉識別功能,可多目標同時檢測體溫,同時測溫人數多達20人。雙目攝像,活體檢測,0.1s準確測溫,高溫自動報警。 這個紅外熱成像測溫儀安裝在湖北省婦幼院入口預檢分診處,逢人必檢,逢疑必核。
  • 在人臉識別的「統治」陰影之下……
    而如今,這一技術難題的解決把其他的重要問題推到了我們面前,個人隱私、歧視與種族主義,這些都是近來引發巨大關注的話題。在許多國家,高精度人臉識別技術的濫用已引發不少法律問題。結合熱成像技術的人臉識別科技一種特殊的面部數據提取方法是使用熱成像或紅外攝像機,這一方法能夠幫助相機排除眼鏡、帽子、妝容等外飾的影響,檢測到人真正的頭部形狀。它也使得相機能夠在低光照下或夜晚獲取臉部圖像,從而避免打開閃光燈,暴露相機位置。
  • 「企鵝熱」中的冷思考
    在眾多動物中,憨態可掬的企鵝人氣最旺,受到遊客熱捧。不過,在「企鵝熱」中,還需有些「冷思考」。企鵝是動物界鳥綱企鵝目鳥類的統稱,共有18種,大多分布在南半球,僅有1種分布在赤道附近的加拉帕戈斯島。在18種企鵝中,有5種屬於瀕危物種,它們分別是北跳巖企鵝、翹眉企鵝、黃眼企鵝、南非企鵝和加島企鵝。
  • 人臉識別技術或將被禁
    所以美國警方嚴肅地表示,人臉識別技術實在是「必不可少的」、突破性的現代刑偵工具。「人臉識別威脅論」的支持者們對此深感欣慰,他們認為這項技術是「邪惡」而「危險」的,理由是這是政府實施高壓監控的手段。同時,諸多民權倡導者和人工智慧研究者也加入了這次反對運動中,旨在向立法者和美國民眾揭露人臉識別的缺陷。
  • 人臉識別普遍應用為時尚早
    2019年4月,遊客郭兵購買了野生動物世界雙人年卡,確定指紋識別入園方式。後野生動物世界將年卡客戶入園方式從指紋識別調整到人臉識別,簡訊通知郭兵入園識別系統更換,要求激活人臉識別系統,否則無法入園。此後,雙方就入園方式、退卡等事宜協商未果,郭兵於是提起訴訟。由於涉及人臉等個人生物識別信息採集、使用等問題,這起案件受到輿論廣泛關注,被稱為「人臉識別第一案」。
  • 關於環境倫理的思考
    關於環境倫理的思考  文/鄭 度  20 世紀人類社會在科學技術上取得了長足的進步,創造了前所未有的燦爛文明。然而,在新世紀人類社會仍然面臨著人口、資源、環境和發展等一系列問題。貫穿其中的主線是正確認識人與自然的關係,處理好環境與發展的協調。