人類天生就有偏見,這是我們社會的一個不幸事實。當人類傾向於種族少數群體、宗教、性別或民族時,這種情況可能會有意識地發生,甚至可能在出生以來由於社會、家庭和社會條件的影響而產生偏見的情況下無意識地發生這種情況。不管是什麼原因,偏見確實存在於人類之中,現在它們也被傳遞到人類創造的人工智慧系統中。
這些偏見可以傳遞給人工智慧偏差在人工智慧系統中,當他們接受包括人類偏見、歷史不平等或基於人類性別、種族、國籍、性取向等不同判斷指標的數據的培訓時。例如,亞馬遜發現他們的人工智慧招聘算法對女性有偏見。該算法基於過去10年提交的簡歷數量和聘用的候選人。由於大多數候選人都是男性,所以算法也比女性更青睞男性。
1.針對黑人的COMPAS算法
COMPASS是一種人工智慧算法,由Northpointe創建,在美國用於預測哪些罪犯在未來更有可能再次犯罪。根據這些預測,法官對這些罪犯的未來作出決定,從繼承人的刑期到保釋的數額不等。
然而,ProPublica一家獲得普立茲獎的非營利新聞機構發現COMPAS存在偏見。黑人罪犯被認為未來重犯的可能性比他們所犯的要大得多。另一方面,被判定為白人罪犯的風險低於COMPAS。即使是暴力犯罪,黑人罪犯也被誤認為更危險,幾乎是白人罪犯的兩倍。COMPAS的這一發現證明,它從某種程度上了解了人類固有的偏見,即黑人比白人平均犯罪要多得多,而且今後也更有可能犯罪。
2.對少數群體有偏見的PredPol算法
預測警務是一種人工智慧算法,其目的是根據警方收集的犯罪數據,如逮捕數量、報警次數等,預測未來犯罪發生的地點。該算法已被美國加州、佛羅裡達州、馬裡蘭等地的警察部門使用,其目的是通過將犯罪預測留給人工智慧來減少警察部門的人為偏見。
然而,美國的研究人員發現PredPol它本身是有偏見的,它一再派遣警察到包含大量少數民族的特定社區,不管該地區發生了多少犯罪。這是因為PredPol中有一個反饋迴路,在這個循環中,該算法預測了更多警察報案的地區的犯罪情況。然而,這些地區可能會出現更多的警察報告,因為這些地區的警察集中程度較高,這可能是由於現有的人的偏見所致。這也導致了算法中的一個偏差,從而向這些地區派遣了更多的警察。
3.亞馬遜的招聘引擎對婦女有偏見
亞馬遜招聘引擎是一種人工智慧算法,用來分析申請亞馬遜的求職者的簡歷,並決定哪些簡歷需要進一步的面試和選擇。這一算法是亞馬遜公司的一項嘗試,目的是使他們對人才的搜尋機械化,並消除所有人力招聘人員固有的人類偏見。但是,Amazon算法結果是在招聘過程中對婦女有偏見。
這可能是因為招聘算法是通過研究亞馬遜對過去10年提交的簡歷的反應來分析候選人簡歷的。然而,過去分析這些簡歷的人力招聘人員大多是男性,他們對女性候選人有著固有的偏見,並將這種偏見傳遞給了人工智慧算法。當亞馬遜研究這一算法時,他們發現它自動妨礙了包含「女性」字樣的簡歷,同時也自動降低了兩所全女子學院的畢業生的等級。因此,亞馬遜最終放棄了這個算法,沒有用它來評估應徵者。
4.針對黑人的谷歌照片算法
GooglePhotos有一個標籤功能,將標籤添加到與圖片中顯示的任何內容相對應的照片中。這是由一個卷積神經網絡(CNN)完成的,該網絡在監督學習中對數百萬幅圖像進行了訓練,然後使用圖像識別來標記照片。然而,這Google算法當一名黑人軟體開發人員和他的朋友的照片貼上大猩猩的標籤時,發現他們是種族主義者。谷歌聲稱,他們對這一錯誤感到震驚和真誠的遺憾,並承諾將在未來糾正這一錯誤。
然而,谷歌直到兩年後才把大猩猩和其他類型的猴子從卷積神經網絡的詞彙中移除,這樣它就不會識別任何照片。谷歌圖片顯示,所有與猴子有關的搜索詞,如大猩猩、黑猩猩等,都沒有結果。然而,這只是一個暫時的解決辦法,因為它不能解決根本的問題。圖像標記技術還不完善,即使是最複雜的算法也只能依賴於訓練,無法識別真實生活中的情況。
5.IDEMIA針對黑人婦女的面部識別算法
IDEMIA公司是一家製造美國、澳大利亞、法國等國家警察使用的面部識別算法的公司。在美國,使用這種面部識別系統對大約3000萬名持槍歹徒進行了分析,以檢查是否有人是罪犯或對社會構成危險。然而,美國國家標準和技術研究所檢查了這一算法,發現與白人女性甚至黑人和白人男性相比,它在識別黑人女性時犯了重大錯誤。
根據國家標準和技術研究所的說法,Idemia算法每10,000名白人女性中就有1名匹配白人女性的臉,而每1,000名黑人女性中就有1名黑人女性的臉與白人女性的臉相匹配。這是10倍以上的假匹配!一般來說,如果人臉識別算法的錯誤匹配率是十分之一,而對黑人女性的錯誤匹配率則要高得多。Idemia聲稱,NIST測試的算法尚未在商業上發布,他們的算法在以不同的速度識別不同種族方面正變得越來越好,因為在種族中存在著物理上的差異。