亞馬遜面部識別軟體存膚色偏見 麻省理工研究測驗不過關

2021-01-12 東方財富網

  亞馬遜開發的面部識別軟體受用於美國區政府和聯邦執法部門,是一個強力的打擊罪犯工具。然而,上周四一份研究報告顯示,該軟體在一些基本測試不通過,包括分辨人的性別。

  麻省理工學院的研究人員表示,亞馬遜名為Rekcognition的面部識別系統在評估淺色膚色的面孔時結果較準確,測試淺膚色的男性結果表現最佳,但在約30%的測試中錯誤辨識皮膚較黑的女性性別。人們擔憂警察在公共場所例如機場或學校使用此項人工智慧技術,有可能因膚色不同導致有偏差的結果。

  人工智慧工程師說,這些出錯的問題在於,系統訓練的大量圖像都嚴重偏向白人。然而,研究表明,在經過嚴格的審查和企業投資改善結果後,一些系統的正確率在過去一年迅速增長。

  亞馬遜對於這項研究結果提出異議,稱研究測試的算法與FBI測試的面部識別系統工作方式不同,認為強制讓某種軟體算法選擇特定的男女性別答案會產生誤導結果,這也並非警察,工程師或其它使用者在使用這個面部識別軟體的原理。佛羅裡達州和華盛頓警察部門已就此展開調查。

  監督人工智慧和機器學習的亞馬遜網絡服務高管馬特伍德(Matt Wood)在一份聲明中表示,研究人員在測試他們的系統時基於「面部分析」算法,該算法可以檢測和描述圖像中人臉屬性,例如人是否在微笑或戴著眼鏡。相反,亞馬遜的「面部辨識」算法用於匹配不同的面部圖像,尤其應用在尋找逃犯或失蹤兒童的情況。

  伍德說:「如果用『面部分析』算法來做辨識人臉測試,無論是什麼應用(包括執法),都不能測出其『面部辨識』的準確率。這個研究的測試方法並非系統的正確使用方法。」他還表示,測試是用未更新的軟體進行,最近內部在最新軟體上進行了同樣測試,準確率有所提升。亞馬遜在11月曾表示,系統已更新其面部分析和面部識別功能,能更準確地配對結果,並更準確取得的年齡,性別和情感特質等資料。

  但獨立研究人員認為,這項研究結果顯示了亞馬遜人工智慧發展的嚴重問題。

  去年,計算機科學家布奧拉姆維尼(Buolamwini)和添姆尼·格布魯(Timnit Gebru)在IBM,微軟和中國科技公司Face++開發的面部識別系統中發現了類似的性別分類錯誤,以及膚色深淺的準確性誤差。

  幾個月後,IBM和微軟都宣布他們已經改進軟體算法,在性別和膚色上能得到更準確結果。研究證實,雖然準確性提高,但這些系統對於膚色較深的人面仍然不能準確辨認性別。

  這些測試使用的人臉是來自歐洲和非洲中六個國家月1200名國家議會成員的面部圖像進行。研究表明,亞馬遜所有面孔辨識錯誤率為8%,IBM為4%,微軟則不到1%。

  喬治城法學院隱私和技術中心高級助理卡拉兒·嘉威(Clare Garvie)說道,從多方面來說,要求一個系統進行性別分類,讓機器學習比進行識別更容易,因為識別使用的不僅是二進位,而是數以百萬計的公式。

  Garvie補充:「但亞馬遜對於此研究具自我防禦性,且不願意仔細找出產品的潛在問題。事實上,承認一個行業已知的問題並努力尋求解決方案,這樣才能(讓微軟和IBM)成為一個負責任的人工智慧開發商。然而,無論亞馬遜怎麼回應,這個研究已被審查了很多遍,也已經引領了行業變革。」

  美國商務部國家標準技術研究所評估了39個面部辨識系統的準確性,並表示近年來看見準確性的增9長。但是該評估是自願參與的,亞馬遜和谷歌等公司都拒絕參與。布奧拉姆維尼敦促亞馬遜提交其辨別系統模型,參與國家的基準測試。她還提醒使用者注意系統結果偏差,並「立即停止在警察和政府監管等高風險環境中使用」。

  人工智慧的面部識別技術能精準地識別遠方人群,這引發科技公司數百萬美元的投資競爭,認為該技術可以加速警方調查,改善公共安全,挽救生命。

  FBI反恐官員在去年11月的亞馬遜網絡服務會議上發表講話,當局在2017年拉斯維加斯槍擊事件中使用過亞馬遜的辨識系統,以取得可觀結果。

  但是群眾不僅對於系統準確性的問題存疑,更擔憂技術被用於未取得人民同意下監視用途,威脅到公眾抗議和自由言論的權利。公民權利和隱私權倡議者紛紛擔心新技術對自由民主造成致命影響。例如,軟體結果錯誤可能導致警察或執法人員對無辜的人做出暴力對待。

  這項人工智慧的技術軟體也引發了美國矽谷與華府之間的對立關係,科技發展與隱私使用等的矛盾,政客要求政府立法保護隱私權。一些亞馬遜股東和員工認為公司不應把軟體轉售給警方,其他公司的高管也敦促政府加緊管控該行業的發展。

  微軟執行長薩蒂亞·納德拉(Satya Nadella)正在開發面部識別軟體,但同時呼籲加強監管。布奧拉姆維尼也表示,面部分析技術的武器化和濫用的可能性不容忽視。

  政府的監管規條遠遠追不上面部識別技術的發展速度,如今在機場,音樂廳和餐館都能找到面部識別系統。未經檢驗的系統也以安全為由,將在美國各個學校,社區中心掃描所有的父母,兒童和訪客。

  面部識別系統通過將圖像分解到名為哈希(Hashes)的複雜數字代碼來運作,這些代碼可與其它圖像的哈希龐大資料庫快速比較。類似的人工智慧技術用於臉書的照片建議人物標籤,蘋果手機面部解鎖或美國各地機場的旅客面部識別系統等等。

  當面部識別或面部分析算法回報結果時,結果包括了對於辨識結果的可信程度,比如直接匹配的會有99%可信度,但模糊不清或不確定的配對的可信程度就較低。

(文章來源:格隆匯)

(責任編輯:DF506)

相關焦點

  • 識別深色皮膚女性的平均錯誤率達35%,誰才是讓AI產生偏見的幕後推手?
    誰才是讓AI產生偏見的幕後推手?視覺中國供圖美國麻省理工學院媒體實驗室研究項目顯示,人工智慧識別淺色皮膚男性的平均錯誤率不超過1%,識別深色皮膚女性的平均錯誤率達35%……人臉識別所導致的偏見問題一直受到廣泛關注。
  • 人臉識別,禁!
    比如,廣為流傳的2018年麻省理工學院媒體實驗室和史丹福大學的一篇論文,針對來自三家主要商業公司發布的面部分析程序分析發現,人臉識別系統顯示出皮膚類型和性別偏見。 在研究人員的實驗中,三家公司的人臉識別系統在確定淺膚色男人的性別方面的錯誤率從未低於0.8%。但對於膚色較黑的女性,錯誤率急劇上升,其中一種錯誤率超過20%,另一種錯誤率超過34%。
  • IBM宣布將不再提供和開發面部識別技術,指責執法機構或私企濫用行為
    (圖源:網絡)集微網消息(文/Jimmy),IBM執行長Arvind Krishna在今天致國會的信中表示,IBM將不再提供通用面部識別或分析軟體。IBM對The Verge表示,公司也將不再開發或研究這項技術。Krishna在信中表示,IBM堅決反對,也不會容忍各種用於質量監控、種族歧視、違反基本人權和自由或任何不符合IBM價值觀和原則的面部識別技術。Krishna認為,現在需要一場全國性的對話,討論面部識別技術是否應該被國內執法機構使用及如何使用。
  • 人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見
    他們發現,在識別女性和有色人種的性別方面,領先的面部識別軟體包的表現要比識別男性和白人的表現差得多。這引起了人們對面部識別的巨大爭議。今年6月,全球最大的科學計算機協會——位於紐約市的計算機協會敦促私人和政府暫停使用人臉識別技術,理由是「基於民族、種族、性別和其他人類特徵的明顯偏見」。
  • 美五大科技巨頭語音識別系統被曝存偏見 黑人語音誤識率比白人高1倍
    把亞馬遜搭載智能助手Alexa的智能音箱放在咖啡桌上,我們就可以從房間的任何地方點歌。與其他設備相比,它們可能更深入地理解某些聲音。然而最新研究顯示,來自美國五大科技公司——亞馬遜、蘋果、谷歌、IBM以及微軟的語音識別系統,在黑人用戶中的識別錯誤要比在白人用戶多出近倍。史丹福大學研究人員得出結論稱,這些系統在白人中錯誤識別單詞的可能性約為19%。
  • 加州理工VS 麻省理工,到底誰才是美國理工大學屆的扛把子?
    加州理工學院位於西海岸加州洛杉磯附近的帕薩迪納市,而麻省理工學院位於東海岸麻薩諸塞州波士頓郊外的劍橋市,兩校相距甚遠。 無論是本科生還是研究生,還是教授數量,麻省理工都比加州理工要多得多。儘管兩所大學的師生比一樣,但麻省理工學院的學生可以接觸到的教授人數是加州理工的三倍多。 那麼,這裡就涉及到兩個因素:班級規模和校園人口。
  • 《麻省理工科技評論》「50家聰明的公司」首現光谷身影,它是誰?
    楚天都市報7月2日訊(記者胡長幸 通訊員 梁曉紅)6月29日,世界上影響力最大的技術商業類雜誌《麻省理工科技評論》舉行全球聰明公司峰會,對外揭曉了「麻省理工科技評論50家聰明的公司榜單(TR50)」,包括騰訊、阿里雲、英偉達等企業,其中,首次出現了光谷企業的身影,其「黑科技」之一就是讓機器視覺
  • 蓬佩奧:中國「收買」了美國的大學,麻省理工怒懟
    蓬佩奧:中國「收買」了美國的大學,麻省理工怒懟一直以來,蓬佩奧都在宣稱中國「滲透」了美國的校園,並且以此對中國留學生進行限制,甚至敦促美國的大學對來自中國的學生進行審查。種種言行都表達了蓬佩奧對中國的偏見,而蓬佩奧抹黑中美教育交流的行為可不止這一點。近日蓬佩奧表示,自己曾計劃在麻省理工學院進行演講,但被校方拒絕了。憤怒的蓬佩奧再次將被拒絕「這筆帳」算在了中國的頭上,稱麻省理工學院被中國收買了。
  • 被譽為「南方的麻省理工」,學生評價這裡是「工程師的地獄」!
    提起世界最知名的理工科院校,麻省理工學院的大名如雷貫耳,在2018-19年US News全美研究生院排名中,麻省理工位列工程學第一、計算機科學第一,與史丹福大學、加州大學伯克利分校一同被稱為工程科技界的學術領袖。
  • 知人知面不知心:為什麼面部表情不能真實反映情緒?
    大數據文摘出品來源:nature編譯:趙吉克、馬莉、李雷、錢天培AI面部情緒識別軟體鋪天蓋地,但心理學家對其根本假設就存有質疑。該項目於2007年推出,但它受到了科學家、美國國會議員和美國公民自由聯盟(American Civil Liberties Union)等組織的廣泛批評,稱它不準確,存在種族偏見。這樣的擔憂同樣適用於科技企業的行為。一些公司已經開發了軟體來評估求職者的適合程度、檢測謊言、讓廣告更具吸引力,以及診斷從痴呆症到抑鬱症的各種疾病。
  • 還有麻省理工數學博士
    不過,這不是今天要講的話題,今天來說說,那些腦子絕頂聰明,還打職業體育的牛人。我們平時生活,有很多先入為主的認知,譬如一提起東北人,就聯想起喜歡幹仗暴脾氣,一說上海人,就感覺精明小氣,等等。美國人也有很多對華人先入為主的認知,譬如華人數學好,但是體育不行,開車技術不好,怕惹事,唯唯諾諾,很難做領袖,眼睛小,不喜歡給母隊捐款。
  • 美國面部識別系統咋回事?認錯黑人致其入獄,認白人比較準
    在全國各地,數以百萬計的人們不僅對個別警察的行為表示抗議,還抗議用於監控社區、確定起訴對象的系統性偏見。美國警察使用面部識別系統已有二十多年的歷史。麻省理工學院和美國國家標準與技術研究院最近的研究發現,雖然該技術對識別白人男性的準確率相對較高,但對其他人種的識別結果卻不太準確,部分原因是用於開發基礎資料庫的圖像缺乏多樣性。
  • 考不上印度理工,才「屈就」麻省理工,印度理工是什麼樣的存在?
    導語:考不上印度理工,才「屈就」麻省理工,印度理工是什麼樣的存在? 說到麻省理工學院,我想大家都不會陌生了,因為這是一所頂尖的大學。
  • 西安交大教授沈超入選《麻省理工科技評論》
    12月10日,《麻省理工科技評論》2020年中國區「35歲以下科技創新35人」榜單出爐。其中,AI領域相關人物共5人入選,西安交大沈超教授入選。沈超獲獎理由為:致力於智能系統的行為感知和可信計算,實現在對抗環境下智能系統的安全可靠和可信計算。
  • ...麻省理工科技評論》「35歲以下科技創新35人」2020年中國區榜單
    韓達入選《麻省理工科技評論》「35歲以下科技創新35人」2020年中國區榜單 2020-12-11 13:17 來源:澎湃新聞·澎湃號·政務
  • 權威發布:《麻省理工科技評論》2020年「全球十大突破性技術」
    今天,《麻省理工科技評論》一年一度的「十大突破性技術」(TR10)榜單如期而至。自 2001 年起,《麻省理工科技評論》每年都會評選出當年的「十大突破性技術」,這份在全球科技領域舉足輕重的榜單曾精準預測了腦機接口、智能手錶、癌症基因療法、深度學習等諸多熱門技術的崛起。
  • 足球解說中的膚色偏見
    足球世界裡也有膚色偏見。英格蘭職業足球運動員協會(PFA)勢力不小,從球員薪酬到退役規劃,大事小情操碎心。研究者分析了2019年至2020年歐洲7個電視網對英超、法甲、意甲和西甲進行的80場直播,挑出其中針對643名球員的解說評論,發現針對膚色較淺球員有1361段,膚色較深的球員只有713段。 統計顯示,膚色較淺球員更容易高頻次被讚譽「聰明和智慧」(佔比62.6%),同時還會更自然地被誇贊擁有「職業道德」(佔比60.4%),總體評價更趨向積極正面(佔比62.8%)。
  • 來自算法正義聯盟的信:與面部監控技術的鬥爭刻不容緩
    算法正義聯盟是一個將藝術和研究相結合的組織,旨在闡明人工智慧對社會產生的影響和危害。其使命是提高公眾對人工智慧影響的認識,為倡導者提供實證研究以支持各項活動,為受影響最嚴重的社區構建話語權和選擇權,並激勵研究人員、政策制定者和行業從業者減輕人們對人工智慧的偏見和帶來的傷害。
  • 美國麻省理工學院開發新冠檢測AI:聽咳嗽聲識別無症狀感染者
    為了檢測出這一部分人群,麻省理工學院(MIT)的研究人員開發了一款人工智慧(AI)工具,可通過咳嗽聲的細微差別發現無症狀感染者。目前,研究者正對這一AI工具進行臨床測試,並向美國食品和藥物監督管理局(FDA)提出申請,希望能用來篩查無症狀感染者。