算法中的種族主義和性別歧視 | 人工智慧

2020-12-23 澎湃新聞

譯 as

人類容易出錯和有偏見,但這並不意味著算法一定會更好。儘管如此,技術已經在對你的生活做出重要的決定,並可能決定你看到哪些政治廣告,如何篩選你理想工作的申請,如何在你的社區部署警察,甚至預測你家的火災風險。

但這些系統可能會基於構建者、開發方式以及使用方式而產生偏差。這通常被稱為算法偏差。很難確切知曉系統是如何易受算法偏差影響的,特別是因為這種技術往往在公司的黑匣子裡運行。我們常常並不清楚一個特定的人工智慧或算法是如何設計的,什麼數據幫助構建它,或者它是如何工作的。

算法對個體的影響到底是什麼?這問題值得每個人深思

一般來講,你只知道最終的結果:如果你在第一時間意識到了人工智慧和算法的使用,它對你有什麼影響。你得到那份工作了嗎?你在自己的社交媒體時間線上看到各種宣傳廣告了嗎?面部識別系統認出你了嗎?這使得解決人工智慧偏差的問題變得很棘手,但更重要的是要搞懂怎麼回事。

當思考「機器學習」工具(人工智慧的一種)時,最好想一下「訓練」這個概念。這涉及到讓計算機接觸一堆數據——任何類型的數據——然後計算機學習對它基於模式處理的信息做出判斷或預測。

舉一個非常簡單的例子,假設你想訓練你的計算機系統根據一些因素,如紋理,重量和尺寸,來識別對象是否是一本書。人類也許可以做到這一點,但計算機可以更快地做到這一點。

為了訓練系統,需要給計算機顯示許多不同對象的度量。你給計算機系統提供每一個對象的度量,告訴計算機這些對象什麼時候是書,什麼時候不是書。在不斷地測試和改進之後,系統應該能夠知道什麼表示一本書,並且,可以期望它將來能夠根據這些指標去預測一個對象是否是一本書,而無需人工幫助。

這聽起來相對簡單。如果您對第一批數據進行了正確分類,並且包含了一系列適用於許多不同類型書籍的度量指標。

然而,這些系統通常應用於比這項任務後果要嚴重得多、又未必有「客觀」答案的情況。通常,這些用於訓練或檢查這些決策系統的數據並不完整,不平衡或選擇不當,這就會成為算法偏差的主要來源(儘管當然不是唯一的來源)。

布魯金斯學會智囊團技術創新中心的研究員Nicol Turner Lee解釋說,我們可以從兩個主要方面考慮算法偏差:準確性和影響。對於不同的人群,一個人工智慧會有不同的準確率。同樣,當一個算法應用於不同人群時,它可以做出截然不同的決策。

重要的是,當你想到數據時,你可能會想到在正式研究中需要仔細考慮人口統計學和表現形式,權衡各種限制,然後對結果進行同行評審。但那些被用來對你做出決定的基於人工智慧的系統不一定是這樣。

讓我們來看看每個人都可以訪問的數據源:網際網路。一項研究發現,通過教人工智慧在網際網路上抓爬——僅僅閱讀人類已經寫下的東西——這個系統會對黑人和婦女產生偏見。

藝術家Trevor Paglen和AI研究專家Kate Crawford在2019年合作了一個叫做「ImageNet輪盤賭」的藝術項目,證實這個圖片分類系統會產生種族主義和各種歧視的標籤。

另一個訓練數據是怎麼在算法中產生性別歧視的例子發生在幾年前,當時亞馬遜試圖使用人工智慧構建一個簡歷篩選工具。據路透社報導,該公司希望技術能使求職申請的分類過程更加高效。

它用公司10年來收集的簡歷建立了篩選算法,但這些簡歷往往來自男性。這意味著,最終這個體系學會了歧視女性。最後,它還學會了考慮性別指代因素,比如申請者是否上過女子大學。(亞馬遜方面表示從未使用過該工具,由於好幾個原因,它不起作用。)

在討論算法偏差時,使用人工智慧的公司可能會說他們正在採取預防措施,使用更具代表性的培訓數據,並定期審核其系統,以防對某些群體產生意外偏差和不同影響。但是,哈佛大學應用數學和哲學專業的博士候選人、研究AI公平性的胡莉莉(Lily Hu音譯)表示,這些並不能保證您的系統將來會表現得公平。

「你無法給出任何保證,因為你的算法對舊數據集執行『公平』,這是機器學習的一個基本問題所在。機器學習對舊數據和訓練數據起作用。而且它不適用新數據,因為我們還沒有收集到這些數據。」

但,我們不應該只製作更具代表性的數據集嗎?這可能是解決方案的一部分,不過值得注意的是,並非所有旨在構建更好數據集的努力都是合乎道德的。不僅僅是數據問題。

正如《麻省理工學院科技評論》(MIT Tech Review)的人工智慧報導記者Karen Hao所解釋的那樣,人工智慧也可以被設計成以一種根本上有問題的方式來構建一個問題。例如,一個旨在確定「信譽度」的算法,其程序是為了實現利潤最大化,最終可能決定發放掠奪性的次級貸款。

還有一件事要牢記:對一種工具進行了偏差測試(即假設正在檢查偏差的工程師實際上了解了偏差的表現和操作方式)也不夠,針對一個群體做了並不意味著對另一類型的群體做了。

當一種算法同時考慮多種身份因素時也是如此:例如,一種工具可能被認為對白人女性相當準確,但這並不一定意味著它適用於黑人女性。

預測未來犯罪的軟體會判別左邊黑人比右邊白人更有犯罪風險。Josh Ritchie拍攝,來自propublica.org

在某些情況下,可能無法找到沒有偏見的訓練數據。以美國刑事司法系統產生的歷史數據為例。很難想像,一個充斥著系統性種族主義的機構所提供的數據能夠被用來建立一個有效和公平的工具。

正如來自紐約大學和AI Now研究所的研究人員所言, 預測性的警務工具可以被輸入「髒數據」,包括反映警察部門意識和隱含偏見的警務模式,以及警察腐敗。

因此,你可能擁有構建算法的數據。但是,誰來設計,以及誰來決定如何部署它?誰來決定不同群體的可接受準確度水平?誰來決定人工智慧的哪些應用符合道德,哪些不符合道德?

雖然在人工智慧領域的人口統計學還沒有廣泛的研究,但我們確實知道人工智慧往往由男性主導。根據美國平等就業機會委員會(Equal Employment Opportunity Commission)的數據,從廣義上講,「高科技」行業往往白人佔多數,而黑人和拉丁裔佔少數。

Turner Lee強調,當提出這些系統時,我們需要考慮誰能在談判桌上佔有一席之地,因為這些人最終決定了有關其技術的道德部署的討論。

但還有一個更廣泛的問題,就是人工智慧可以幫助我們回答哪些問題。胡莉莉認為,對於許多系統來說,建立一個「公平」系統本質上是荒謬的,因為這些系統試圖回答不一定有客觀答案的社會問題。例如,那些聲稱預測一個人會不會再次犯罪的算法,並不能最終解決倫理問題,即一個人是否該獲得假釋。

「沒有客觀方法來回答這個問題,」她說,「當你嵌入一個人工智慧系統,一個算法系統,一臺計算機時,它不會改變問題的基本背景,也就是說問題沒有客觀的答案。從根本上講,這是一個我們的價值觀是什麼,以及刑事司法制度的目的是什麼的問題。」

請記住,某些算法可能不應該存在,或者至少它們不應該有如此高的濫用風險。一項技術是準確的,並不意味著它是公平或道德的。

算法偏差看起來如此不透明的一個原因是,就我們自己而言,通常無法判斷它何時發生(或者某個算法是否處於混在其中)。Turner-Lee說,這也是為什麼一對夫妻申請蘋果信用卡但信用額度懸殊的爭議引起如此多關注的原因之一。

這是一個罕見的例子,兩個人至少看起來像是暴露在同一個算法,可以很容易地進行比較。儘管監管機構目前正在調查該公司的信用卡,但此案的細節仍不清楚。

蘋果信用卡背後的算法也是深不可測

但實際上消費者很少能夠對算法結果進行這種「蘋果對蘋果」的比較,這就是為什麼倡導者們要求提高對系統工作方式及其準確性的透明度的部分原因。最終,這可能不是我們個人層面可以解決的問題。

即使我們確實知道算法可能存在偏差,但這並不意味著公司會坦誠允許外部人員研究其人工智慧。對於那些追求更公平的技術系統的人來說,這是一個挑戰。如果你無法真正訪問一個算法的內部工作流程,或無法測試其大量決策,那你又怎麼能批評這個算法(一種黑匣子)呢?

總的來說,公司都會聲稱自己是準確,但不總會透露他們的訓練數據,請記住,這是人工智慧在評估新數據(比如,你的工作申請)之前對其進行訓練的數據。

許多公司似乎並沒有接受第三方評估人員的審核,也沒有公開共享其系統在應用於不同人群時的表現。麻省理工媒體實驗室的Joy Buolamwini和微軟研究院的Timnit Gebru在一篇文章裡指出,共享用於訓練的數據和用於檢查人工智慧的數據的人口統計信息,應該是透明性的基線定義。

我們可能需要新的法律來規範人工智慧。在美國,有一項法案將迫使公司讓聯邦貿易委員會(FTC)檢查他們的系統是否存在偏見,此外還提出了立法來規範面部識別,甚至禁止該技術進入聯邦資助的公共住房領域。

Turner-Lee告誡道:「有一群非常了解它的人,他們是技術人員,還有一群根本不真正了解它或了解得很少的人,成為了決策者。」但這並不是說沒有技術上的努力來對有缺陷的人工智慧「消除偏見」,重要的是要記住,這些技術也不能解決公平和歧視的根本挑戰。

原文連結:

https://www.vox.com/recode/2020/2/18/21121286/algorithms-bias-discrimination-facial-recognition-transparency

(譯文略有刪減)

ABOUT.

科學藝術研究中心是一家非營利機構,以「跨界促生變革」為核心,致力於打造國內首家科學藝術家們的研究與創新平臺,來促進不同學科領域間的高度交叉融合。科學藝術研究中心集創作與傳播為一體,推動科學知識的大眾普及。

閱讀原文

相關焦點

  • 算法中的性別歧視,應被看見被糾正
    算法是以數學方式或計算機代碼表達的意見,由算法模型和數據輸入決定著預測的後果。隨著人工智慧時代的加速到來,我們將生活在一個算法無所不在的世界,尤其是隨著算法決策開始介入並主導人類社會事務,算法對我們的生活和未來都將產生不可估量的影響。基於此,由於算法偏見可能帶來的法律與倫理風險也開始引起人們重視。
  • 算法為何也有性別歧視
    在前兩個有男性及中性人稱代詞的句子中,系統能正確識別。第一個例子中,「他的」指的是「外科醫生」,在第二個例子中,「他們的」指的是「外科醫生」。然而在有女性人稱代詞的句子中,系統無法識別。相反,系統認為「這」是指代「外科醫生」的人稱代詞。這只是一個關於算法性別歧視的例子。
  • 什麼是性別歧視?定義一個關鍵的女權主義術語
    性別歧視是指基於性別或性別的歧視,或者認為男性優於女性,歧視其實是合理的,因為這種信念可能是有意識的或無意識的。在性別歧視中,與種族主義一樣,兩個(或更多)群體之間的差異被視為一個群體優越或劣等的跡象。對女孩和婦女的性別歧視是維持男性統治和權力的一種手段。壓迫或歧視可以是經濟,政治,社會或文化。
  • 反種族歧視 谷歌替換程序中的「種族主義詞彙」
    反種族歧視 谷歌替換程序中的「種族主義詞彙」 源 / 新財網 文 / 新財網 2020年06月09日 15時38分
  • 人工智慧時代的算法裁判及其規制
    [12]這些算法在實踐中均有不同的適用對象和範圍。  目前, 以大數據、機器學習、人工智慧、算法等為核心的自動決策系統的應用日益廣泛, 從購物推薦、個性化內容推薦、保險評估等, 再到司法程序中的犯罪風險評估, 越來越多的決策工作為機器、算法和人工智慧所取代, 算法可以為人類社會中的各種事務和決策工作帶來完全的客觀性。[13]240算法裁判即是人工智慧對司法實踐影響的重要體現。
  • 人工智慧還是人工智障?——大型算法翻車現場
    然而,在短短的12小時之後,Tay從一位友好的機器人變成了一個滿嘴髒話、充滿種族主義並說出「女權主義者都應該死在地獄裡燒死」惡魔機器人,這讓開發它的微軟經歷了場公關噩夢,微軟被迫迅速將Tay關閉,而這離它上線還沒有超過24小時;Tay是人工智慧映射人類偏見的一個縮影,目前的人工智慧算法最本質的規則就是它需要有大量的數據對其進行訓練
  • 算法歧視?大數據折射人類社會偏見與陰暗
    縱觀近幾年,眾多科技公司的算法都被檢測出歧視,谷歌的搜索算法將黑人標記為「大猩猩」;微軟公司的人工智慧聊天機器人Tay出乎意料的被「教」成了一個集反猶太人、性別歧視、種族歧視等於一身的「不良少女」……這些事件都引起了軒然大波,並且最終也導致了算法被叫停。
  • 命運和算法:一些人生重大決定算法替你做了,活在算法中的人們
    那個年代沒有大數據、算法。假如他活在今天呢?大數據、算法、人工智慧、網際網路、物聯網......科技的發展為人類生活帶來各種便利的同時,也在靜悄悄地決定著人們的生活軌跡和命運。除了這種「十字路口」式的人生關鍵節點,算法在現代人生活中很多方面扮演著「無形之手」的角色,而我們未必知道。記者克雷頓(James Clayton)和克萊恩曼(Zoe Kleinman)梳理了幾個算法左右命運的平臺。
  • 它們從人類的語言中學會了性別和種族歧視
    李杉 編譯自 IEEE Spectrum量子位 出品 | 公眾號 QbitAI在性別和種族問題上,人工智慧能夠消除人類的偏見嗎?《科學》上發表的一項最新研究給我們潑了一盆冷水。普林斯頓大學信息技術政策中心計算機科學家Arvind Narayanan和他的同事們發現,機器學習算法會輕易模仿其訓練數據集中隱含的偏見。
  • 蘋果信用卡遭監管部門調查 信用額度存在性別歧視?
    美國監管部門將調查蘋果公司與金融巨頭高盛合作提供的信用卡服務,緣由是客戶指認服務存在性別歧視。  美國信息技術行業企業家戴維·海涅邁爾·漢松本周在社交媒體「推特」寫道,發卡方給予他妻子的蘋果信用卡信用額度只有他的二十分之一,但是他與妻子共同報稅,且後者信用積分更高。
  • 被指性別歧視和醜化中國人,「大陰陽師」J.K.羅琳又翻車了!
    在轉推中,她標出「來月經者」一詞,被網友怒批陰陽怪氣,歧視跨性別者。 (註:跨性別者指一個人在心理上無法認同自己與生俱來的生理性別,相信自己應該屬於另一種性別,比如跨性別女性就是認同自己是女性的男性)
  • 英語中的性別歧視
    英語中的性別歧視(Sexism in English)是20世紀六十年代英語國家廣泛關注的問題。
  • 「NIPS」人工智慧會議在30多年後因性別歧視投訴而重新命名
    組織神經信息處理系統會議的董事會 - 世界上最著名的研究人工智慧研究人員的事件之一 - 已經改變了該事件名稱的首字母縮寫詞,因為與會者抱怨這個名字引起了性別歧視的氣氛。機器學習研究人員和統計人員參加的活動一直是從事AI工作的公司和實驗室的主要招聘基地。
  • 《科學》雜誌:人工智慧毀於學習人類種族偏見
    據澎湃新聞4月14日報導,去年3月,微軟的人工智慧(AI)聊天機器人Tay(小冰的美國姊妹版)在推特上線,可以與任何@她的推特用戶聊天。短短24小時後,一個甜美、禮貌的「小姑娘」竟然開始髒話連篇,甚至爆出不少種族主義和性別歧視的言論。這個速成的「AI希特勒」引發網民震驚,被微軟草草關進「小黑屋」。
  • 美CDC員工致函機構主管:望解決種族主義和歧視問題
    據外媒報導,美疾病控制與預防中心(CDC)的員工呼籲該聯邦機構解決他們所說的針對黑人員工的「持續不斷的種族主義和歧視行為」。據悉,1000多名CDC員工聯名給主任Robert Redfield寫了一封信,在信中,他們描述了職場中普遍存在的有害的種族歧視文化。信件寫道:「根據最近這個國家乃至全球在呼籲的正義,我們,作為專門的公共衛生專業人員,再也無法對在CDC廣泛存在的種族主義和歧視行為保持沉默,事實上,這破壞了機構的核心使命。」。
  • 消除種族歧視國際日 | 如何根除種族主義?
    在3月21日消除種族歧視國際日之際,教科文組織將組織圓桌會議,討論種族偏見的根源、種族主義的影響以及當代社會中仍持續存在的種族偏見。會議將於10:00-13:00(巴黎時間)在教科文組織總部11號廳舉行。
  • 人工智慧面試會有偏心的現象嗎
    招聘人員越來越多地使用人工智慧來進行第一輪篩選簡歷,並確定是否向你發布招聘廣告。這些工具通常會根據以前收集到的有關數據或類似求職者的數據進行訓練,因此可以減少招聘人員所需的時間和精力。2018年,在接受領英調查的招聘經理和招聘人員中,67%的人表示人工智慧節省了他們的時間。求職者可以在整個招聘過程中利用人工智慧,發布廣告、吸引潛在求職者,甚至預測求職者的工作表現。
  • 如何避免性別歧視和年齡歧視
    新東方網>英語>英語學習>語法詞彙>流行語>正文如何避免性別歧視和年齡歧視 2004-12-09 11:07 來源:萬千英語族 作者:張宏
  • 「天生的標籤」:美國種族主義思想為何難以根除?
    每個可被識別的黑人團體都經歷了批判性種族理論家金伯利·克倫肖(Kimberlé Crenshaw)所說的「交叉性」——交叉在一起的種族主義思想和其他形式的偏執(如性別歧視、階層歧視、民族中心主義和恐同症)所帶來的偏見。
  • 英語寫作話題:職場中的性別歧視
    在上一篇我們總結了關於政府社會問題懲治犯罪類的討論我們可以有一些怎麼樣的思路,同樣是當今社會很嚴重的一個問題,也是英語作文中經常考察的一個話題。就是當今越來越嚴重的性別對立問題。計劃生育以來,由於獨生女的存在,女性地位有了一些提高,性別意識逐漸覺醒,女權主義也有了些許抬頭的趨勢。