-
人臉識別惹爭議:應對技術偏見,行業缺乏統一標準
面部識別技術逐漸成為日常生活的一部分。你可能已經靠「刷臉」登錄你的手機或電腦,或者完成網銀付款前的身份驗證。在中國,面部識別技術更為常見,通過人臉識別,你可以購買快餐或者在公共廁所中領取衛生紙。但這種技術的廣泛應用掩蓋了其背後潛在的結構性問題,尤其是偏見問題。
-
推文照片預覽有種族偏見?Twitter回應:將開源算法
先前,Twitter將面部檢測功能納入裁剪圖像的部分,但這種方法並不適用於沒有面孔的圖像,所以社交網絡轉而採用了基於顯著性的算法。但即使Twitter算法並沒有有意地產生「種族偏見」,但也有足夠多證據證明,其在研發過程中的缺陷導致「種族歧視」出現。
-
IBM呼籲美國限制面部識別技術出口!納尼?
IBM 在致美國商務部的一封信中表示,美國商務部應限制面部識別系統的出口,尤其是針對那些可能將該技術用於大規模監視、種族歧視或其他侵犯人權行為的國家而言。今年 6 月份,因為擔心可能被用來促進種族和性別歧視,該公司曾宣布全面停止 AI 人臉識別相關技術業務 。
-
人工智慧也存在偏見?是的。千萬不要讓你的偏見進入這些技術領域
人類天生就有偏見,這是我們社會的一個不幸事實。當人類傾向於種族少數群體、宗教、性別或民族時,這種情況可能會有意識地發生,甚至可能在出生以來由於社會、家庭和社會條件的影響而產生偏見的情況下無意識地發生這種情況。不管是什麼原因,偏見確實存在於人類之中,現在它們也被傳遞到人類創造的人工智慧系統中。
-
當人臉識別遭遇種族歧視——IBM選擇了政治正確
6月8日,IBM 的執行長克裡什納宣布要退出人臉識別技術研發,目的是為了進一步消除種族歧視。要知道,人臉識別技術,是未來人工智慧技術發展至關重要的一個環節。IBM的放棄,充滿了壯士斷腕的勇氣和決心,詮釋了對種族歧視問題的堅定立場。縱觀古今這可以看成人類在幾千年的歷史長河中,科技創新與文化之間的又一次較量。
-
面部識別技術是一個多維概念 所面對各種行業技術解決方案
這是面部識別技術,您需要了解的所有信息。面部識別技術的應用不僅限於物理安全,還包括指南針網絡安全。由於不需要與用戶進行任何聯繫,因此當前的身份驗證方法可實現快速識別和驗證。因此,公司還可以使用面部識別技術代替密碼來訪問計算機和系統。
-
面部識別的「骯髒小秘密」:數百萬照片未經同意被使用
面部識別技術可以讓您輕鬆登錄到iPhone,可以通過人群跟蹤犯罪分子,也可以識別商店中的忠實客戶。基於算法的面部識別技術雖不完美但快速迭代。算法會學習如何識別人臉以及數百種獨特的識別方法,為了做到這一點,必須為這些算法提供數十萬個不同的面部圖像。
-
人臉識別:深度學習引入識別系統,更準確但仍有偏見
故事中的主人公威廉士被證明了清白,因為他有比面部識別更強有力的證據——不在場證明。 但疑問也來了,面部識別真的奏效嗎?畢竟,誤判的後果會給被害人帶來不可彌補的傷害。 2016年至2019年間,倫敦的首都警察實驗室測試了實時面部識別技術,他們在一輛警車的控制室裡監控一些試驗。
-
全面解讀關於AI人臉識別技術常見的五大「誤解」
這是為什麼需要強有力的生物特徵隱私立法的另一個原因,包括有關怎樣以及何時可以將某人添加到面部識別系統的嚴格規定,這樣有助於防止技術被濫用。誤解3:面部識別應該被禁止,因為它帶有種族偏見。不對。其實,任何新興技術的提供者和運營者都必須遵守高標準,確保技術的開發和使用符合人權和消費者權利。
-
IBM要停用人臉識別技術:關閉所有相關研發
藍色巨人IBM,在一封呈交美國國會的信件中表示,將停止交付通行的人臉識別和分析軟體,並不再開發或者研究相關技術。信中,IBM CEO Arvind Krishna稱,IBM堅決反對也不會容忍使用任何面部識別技術,包括其他供應商提供用於大規模監視、種族貌相、侵犯基本人權和自由,或任何不符合我們價值觀、信任、透明度原則的目的的面部識別方案。事實上,得益於人工智慧的進步,在過去十年裡,面部識別軟體有了很大的改進。
-
人臉識別登上Nature封面!看臉的世界,AI卻心懷偏見
今年6月,全球最大的科學計算機協會——位於紐約市的計算機協會敦促私人和政府暫停使用人臉識別技術,理由是「基於民族、種族、性別和其他人類特徵的明顯偏見」。人臉識別系統通過分析人臉的幾何形狀來生成「faceprint」,這是一種可以用來識別或確認一個人的生物特徵識別系統。另一種用法是面部分析,通過性別、年齡、種族、情緒等標籤,給一張面孔下定義。
-
亞馬遜宣布禁止警察使用其面部識別軟體,為期一年!
以下是亞馬遜對該禁令的完整說明:我們正在實施一項為期一年的禁令,禁止警方使用亞馬遜的面部識別技術。我們將繼續允許像Thorn、國際失蹤和被剝削兒童中心和Marinus Analytics這樣的組織利用亞馬遜重新認識幫助營救人口販運受害者,並使失蹤兒童與家人團聚。
-
研究發現AI生成的藝術作品存在種族、性別偏見
研究發現AI生成的藝術作品存在種族、性別偏見 站長之家(ChinaZ.com)12月29日 消息:隨著人工智慧技術研究不斷推薦,由算法生成的藝術作品的受歡迎程度也在持續增長。
-
人臉識別遭禁令:隱私與偏見爭議未休,美國又一州禁用面部識別軟體
據外媒報導,紐約州立法機構剛剛通過了一項法令,禁止在學校中使用人臉識別和其他生物特徵識別技術,直至 2022 年。該法案將由州長 Andrew Cuomo 籤署。此前,舊金山、麻薩諸塞州薩默維爾市等多地也已正式通過了在公共場所禁用人臉識別軟體的法案。
-
雲甄科技:算法也有偏見?微軟等禁向該國警察售該技術
據外媒報導,上月民主黨立法者提出一項新法案,該法案旨在禁止聯邦執法機構使用面部識別技術。《紐約時報》曾報導,密西根州一名無辜黑人在被面部識別軟體錯誤識別後被捕。在美國,不少黑人認為,「面部識別技術不僅對我們的隱私構成嚴重威脅,這實際上還威脅著美國黑人和其他少數民族」。
-
微軟拒絕向警方出售面部識別技術,亞馬遜、IBM也曾發聲
來源:藍鯨財經微軟總裁稱,在有監管面部識別技術的聯邦法律出臺之前,不會向警方出售這種技術。近期美國各地爆發反種族歧視大遊行,人們擔心面部識別技術會被不公平地用於對付抗議者。另外,研究發現,對於膚色較深的人,人臉識別的準確度較低,即錯誤的人臉識別可能導致不公正的逮捕。一天前,亞馬遜也發表聲明稱其將會實施一項一年期禁令,禁止警方使用其面部識別軟體。IBM也曾致信美國國會,稱IBM不會再向美國國會提供面部識別或分析軟體。
-
面部識別、深度偽造、隱私和自動化定義的AI 2019
2019年1月份,麻省理工學院的一個科學家團隊聲稱:亞馬遜公司的面部識別和分析軟體reko在某些種族中的性別識別準確性低於其他面部識別解決方案。具體來看,reko未能在特定場景中確定女性和深色皮膚的面孔的性別,從而錯誤地將女性的照片分別識別為男性和深色皮膚的女性分別為19%和31%。
-
面部識別和人工智慧可用於識別罕見遺傳病
就像普通的人臉識別軟體一樣,該公司通過分析人臉數據集來「訓練」他們的算法。FDNA通過一款名為Face2Gene的智慧型手機應用程式收集了17000多張圖像,涵蓋200種不同的症候群。面部識別掃描可能在不久的將來成為標準醫學檢查的一部分。研究人員展示了算法如何識別與遺傳病相關的面部特徵,潛在加快臨床診斷。
-
技術間的種族差異需要縮小……
這則視頻在全球廣泛流傳,被分享成百上千次,也激起不少民憤;這告訴了我們一個簡單的道理:不同於長期以來技術推動人類進步的說法,技術仍然存在種族差異。技術在娛樂應用程式裡的失敗技術應用是一回事,但環顧四周會發現,生活中常用的技術出現種族差異是另一回事。如果你懷疑世界建立之初就只考慮到了白人,不妨看看新一輪技術熱潮是如何在早期開發過程中忽略「有色人種」的。
-
人臉識別,禁!
對於波特蘭市來說,禁止當地執法部門使用面部識別技術的決定「尤其重要」,「任何人都不應該因為技術算法誤判了無辜的人而被不公平地推入刑事司法系統。」不過,更重要的因素應該是該市的人口組成情況,種族和民族的多樣化也使得政策制定者更加難以處理國家面對的挑戰。事實上,這也是僅有幾個禁止政府使用人臉識別的城市包括諸如奧克蘭、舊金山這些城市的原因。