更偏好白人男性?Science新研究證明人工智慧也能學會偏見

2020-12-04 機器之心Pro

選自Science機器之心編譯參與:吳攀、晏奇

至少從口號上來說,我們一直在追求「人人平等」,但我們也都清楚我們離這一目標還相去甚遠,部分原因是因為世界並不是平的,還有一部分原因是我們的頭腦裡都還存在著偏見。現在隨著人工智慧技術的發展,機器已經開始具備了學習能力,那麼它們在學習各種技能的同時也會學會人類的偏見嗎?於本周發行的新一期 Science 期刊上就刊登了一項有關的研究結果,其表明人工智慧也能習得人類的種族和性別偏見。機器之心在這裡編譯了 Science 網站上對於該研究的介紹以及該報告的摘要和部分結果,相關原文請點擊「文末閱讀」原文查閱。

地址:http://science.sciencemag.org/content/356/6334/183.full

學習人類書寫的文本的計算機會自動表現出特定的男性或女性職業詞

人工智慧的一個偉大願景是創造一個沒有偏見的世界。人們想著,如果讓算法來招聘員工,那麼男人和女人都應該會有同等的工作機會;如果用大數據來預測犯罪行為,那麼就會消除警務工作中的種族偏見。但現實往往會給理想當頭棒喝,最近一項新研究表明計算機也可以產生偏見,尤其是當計算機向人類學習時。當算法通過分析處理大量人類書寫的文本來學習詞句的含義時,它們也會獲得類似於我們的偏見那樣的刻板印象。

「不要把人工智慧看作是什麼仙女教母,」該研究的聯合作者、英國巴斯大學和普林斯頓大學的計算機科學家 Joanna Bryson 說,「人工智慧只是我們已有文化的延伸。」

這項研究的靈感來自於一種被稱為內隱聯想測驗(IAT:implicit association test)的心理學工具。在 IAT 中,詞彙會在一個計算機屏幕上閃現,人們對其做出反應的速度能夠表明其潛意識的聯想。比如在測試中,黑人和白人美國人在將 Brad 和 Courtney(通常是男性名字)與 happy 和 sunrise(積極詞彙)聯想到一起以及將 Leroy 和 Latisha(通常是女性名字)與 hatred 和 vomit(消極詞彙)聯想到一起時的反應速度會更快,反過來則更慢。

為了測試機器「心智」中的類似偏見(bias),Bryson 及其同事開發了一種詞嵌入關聯測試(WEAT:Word-Embedding Association Test)。他們首先基於一個詞通常出現的語境而構建了一個詞嵌入(詞嵌入基本上可以看作是計算機對詞的定義)集合。比如,「冰」和「蒸汽」有類似的嵌入,因為這兩個詞的語境中常常出現「水」這樣的詞,而不會常出現「時尚」這樣的詞。但對於一臺計算機而言,一個嵌入常常被表示成一個數字串,這不是人類所能直觀理解的定義。史丹福大學的研究者通過分析網際網路上的數千個詞而為本研究提供了分析用的詞嵌入,具體方法可參閱論文《GloVe: Global Vectors for Word Representation》。

WEAT 會計算那些數字串之間的相似度,而不是去測量人類的反應時間。通過這個方法,Bryson 的團隊發現,諸如「Brett」和「Allison」這樣的名字的嵌入會與那些涉及到「愛」與「歡笑」這樣的積極詞彙更相似,而諸如「Alnozo」和「Shaniqua」這樣的名字會與如「癌症」、「失敗」這樣的消極詞彙更加相似。對計算機而言,偏見內置於詞之中。

平均起來,IAT 表明:在美國,男人會和工作、數學、科學聯繫起來,而女人會和家庭、藝術聯繫起來。年輕人通常會被認為比年長者更加快樂,所有的這些聯繫都由 WEAT 發現。通過使用同樣的技術來測量它們那些嵌入的積極和消極詞彙的相似度,該程序也推斷認為,花會比昆蟲、樂器和武器更快樂。

隨後,研究者開發了一個詞嵌入真實關聯測試(word-embedding factual association test,WEFAT)。該測試會決定詞彙與詞彙之間關聯的強度,然後對比那些關聯與真實世界中事實的強度。例如,它會去尋找「hygienist」和「librarian」這樣的嵌入詞與如「female」和「woman」這樣的詞的關聯強弱。對每個職業來說,該程序接下來會拿這個計算機生成的性別關係關聯測量結果與女性實際在那個領域的佔比進行比較。我們發現,結果高度相關。因此,該團隊表示,嵌入可以對從花到種族和性別偏見的常見情緒、甚至是關於勞動力的事實等所有東西進行編碼。

「這些算法發現了這些東西,真的很酷,」Tolga Bolukbasi 說道,他是波士頓大學大學的一位計算機科學家,現在正帶領團隊進行類似的研究,他們也得到了類似的結果(參考論文《男性之於電腦程式員猶如女性之於家庭主婦?對詞嵌入的去偏見化(Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings)》地址:http://suo.im/3HFsJE)。「當你正在訓練這些詞嵌入模型時,你實際上不會明確指明這些標籤。」當人們在整理簡歷或貸款申請時,就會發現有偏見的嵌入出現,這一點都不好,他說道。例如,如果一個計算機去搜索關聯「程式設計師」和男人這樣的電腦程式員簡歷,那麼男性的簡歷就會突然出現在所有簡歷的最上面。Bolukbasi 的工作聚焦在對嵌入的「去偏見」方法上,也就是說,從中移除不想要的關聯。

Bryson 還有另一個嘗試。不同於對嵌入的去偏見(因為這本質上丟掉了一些信息),她更傾向於添加額外一層人類或計算機的判斷,以此來決定如何或怎樣在這些偏見之上來行動。在僱傭程式設計師這個例子上,你也許會決定去設定性別的定量指標。

人們長期以來一直認為詞的含義可以通過詞共現(word cooccurrences)而提取出來,「但這遠不是一個可以預期的結論,」華盛頓大學心理學家 Anthony Greenwald 說,他曾在 1998 年發展了 IAT,並為本周發布在 Science 期刊的這篇 WEAT 論文寫了一篇評論,參閱:http://science.sciencemag.org/content/356/6334/133。他說他預計書寫(WEAT 測試的基礎)將能更好地反映明確的態度,而不是隱含的偏見。但相反,WEAT 嵌入更接近於 IAT 偏見,而不是關於種族和性別態度的調查,這說明我們可以會以一種我們沒意識到的方式傳遞我們的偏見。「這有些讓人吃驚,」他說。他也說 WEAT 也許可以被用於測試過去時代的隱含偏見,比如通過分析 19 世紀寫出的書所導出的詞嵌入。

與此同時,Bryson 及其同事也表明即使谷歌也沒能免於偏見。當談論的是一位醫生時,該公司的翻譯軟體會將許多語言中性別中性的代詞翻譯成英語的「he」,如果談論的是護士,那麼就會將其翻譯成「she」。

所有這些研究都表明「注意你的遣詞造句是很重要的,」Bryson 說,「對我來說,這實際上就是對政治正確和平權法案等各種事情的辯護。現在,我看到了它的重要性。」

相關焦點

  • 人工智慧也搞歧視!研究發現AI生成的藝術作品存在種族、性別偏見
    從創作繪畫到發明新的藝術風格,基於人工智慧的生成藝術已經在一系列的應用中展示。富士通(Fujitsu)研究人員在一項新研究中,調查了偏見是否會滲透到用於創造藝術的人工智慧工具中。根據模型,他們聲稱目前的人工智慧方法沒有考慮到社會經濟的影響,並表現出明顯的偏見。
  • 在什麼樣的社會裡,人們更可能持有偏見?
    斯洛爾還希望了解,以社會文化上的「失範」作為對偏見的解釋,與以心理上的「威權主義人格結構」作為解釋相比,哪種更有說服力。因此,他要求被試完成第三份用於測量其威權主義觀點的問卷。他的研究發現,失範這一變量更為重要。
  • AI的偏見:機器就是絕對理性的麼?
    人們很難定義什麼是公平的人工智慧。以下是我能想出的最好的定義:對於社會歧視影響下的特定任務,如果給定的人工智慧模型能夠輸出獨立於敏感性參數(例如性別、種族、性取向、宗教信仰、殘疾等)的結果,那麼這個人工智慧模型就是公平的。本文將討論人工智慧偏見,與之對應的真實例子,及其解決方法。
  • AI 也有種族「偏見」?
    這種技術就像你在電視和電影中看到的畫面,通過「放大和增強」使視覺效果更強。但是,不像好萊塢大片中的特效畫面,軟體不能無中生有地產生新的數據。 為了將低解析度圖像轉換為高解析度圖像,軟體必須使用機器學習來填補空白。
  • AI存偏見和歧視?算法讓用戶喜好趨同?科學家給出證據
    &nbsp&nbsp&nbsp&nbsp流行性偏見的放大還改變了系統對用戶興趣的判斷。在所有的推薦算法中,用戶的偏好與其初始偏好之間的偏差隨著時間的推移而增加。也就是說,這將導致推薦系統為用戶做出的推薦越來越偏離用戶的真實喜好,系統推薦給你的電影將不再符合你的口味。
  • 那些困擾博士後的種族和性別偏見
    在2012年,Moss-Racusin發表了一項研究,該研究發現,生物學,化學和物理學的教師在審查實驗室經理職位的申請後,更喜歡叫約翰(John)的申請者,而不是詹妮弗(Jennifer)的相同申請者。她說,這項新研究今天發表在雜誌上,是一項重要的進步,因為它可以操縱種族和性別。「它當然支持許多軼事發現,自我報告,相關數據,但真正擁有一些艱難的實驗數據……確實非常重要。」
  • 你以為人工智慧看出了「直」或「彎」?它只是看出了你的偏見
    研究的狹隘性斯坦福的研究給出了一個看似很高的判斷精確度:當人工智慧對單張照片分析時,它猜對圖中男性性取向的機率為 81%,而女性則為 71%。當每位被分析人物的照片增加到 5 張時,算法分析男性和女性的性取向正確率分別高達 91%和 83%。
  • 科學家的偏見會較少嗎?
    他在自己負責的最後一期《循環研究》中發表了長達10頁的離別致辭,大談雜誌在他做主編的10年裡如何得以繁榮發展,並專門寫了一個「祈禱」部分,其中寫道:「我祈禱分隔科學與宗教的牆終將被推倒,我祈禱人們終將認識到生物學其實是神學。」他還呼籲讀者拒絕進化論,相信超自然力。對此,美國心臟學會的回應是:「期刊編者按僅代表其個人觀點,與學會無關。」
  • 美國「白人至上主義」運動史中,從未缺席的白人女性
    諷刺的是,儘管這些白人女性運動家們在社區層面持之以恆地做著動員和宣傳工作,她們破壞力巨大的草根行動,卻被全國性政策和男性政客的言論所掩蓋。為了回應既有研究的精英主義視角,麥克雷的觀察始終是自下而上的,著重刻畫女性運動家面對不同社區、不同政治機遇的組織策略,因而也得以揭示白人至上主義在不同情境下看似迥異、實則一致的面孔。比如1930年代,大部分運動家都對新政幹涉州權感到深惡痛絕。
  • 《歷史評論》付成雙:白人種族主義幽靈並未遠去
    不同人類群體之間的差別並非一成不變的,不能以某些差別證明人類不同群體的等級高下,所謂的高下都是建立在偏見基礎上的。這些學者的研究有兩大共同點:第一,認為不同人種人面角度存在差異,黑種人的面部角度與靈長類動物更接近;第二,認為不同種族的腦容量不同,白種人最大,黑種人最小。上述研究被「科學」種族主義者用來支撐他們所謂的「黑種人從生物學上劣於白種人」的荒謬觀點。 達爾文的生物進化論打破了基督教所宣傳的創世論,認為人類與靈長類同源,都是從低級物種不斷進化而來。
  • 阿爾法腦電波:能測出你腦中的偏見
    3月16日,一項發表在《神經科學雜誌》(JNeurosci)上的研究試圖探索腦電波與人腦中的偏見之間的聯繫是人都有好惡,但關於它什麼程度算是「偏見」或「歧視」,這個問題是主觀的。如果你更喜歡某種外表的人,這是否意味著你對不同外表的另一種人有偏見?答案可能是「是」。這涉及到一個「隱性偏見」的概念。有理論認為,人們存在內隱態度(隱性偏見),這來源於人們過去經驗的痕跡,雖然不能被個體意識到或自我報告,但仍會對個體的某些行為產生潛在影響。
  • 偏見是自身價值體系的反射——讀《偏見的本質》
    /後浪 2020年10月出版 ⊙林 頤 戈登·奧爾波特的著作《偏見的本質》誕生於1954年,從那時開始,它的影響力一直在擴大,成為這一領域研究的權威經典。 《偏見的本質》裡也有一段類似的描述:在一個白人玩偶和一個黑人玩偶之間,幾乎所有的孩子都會更喜歡白人玩偶;一般來說,黑人孩子比白人孩子更排斥黑人玩偶。奧爾波特說,這種情況意味著種族意識的初現,意味著社會氛圍對兒童人格、思維和行為的潛移默化的影響。 最高法院做出了學校合併的決定,可能出於奧爾波特著作的啟發,至少是意見相同的。
  • 怎樣消除機器人的「偏見」?先從消除人的偏見做起
    在西南偏南大會上,幾位從事對話人工智慧 ( conversational AI ) 行業的女性專家告訴我,這當中既有偏見,又有道理。偏見的部分指的是,當一個助手在和你對話時,大部分人會更習慣這個助手的性別是女的。因為人們期待 " 她 " 比男助手更加順從、體貼。
  • 美國一新研究引發聯合抵制
    在論文中,研究人員介紹了一種能基於面部圖像預測犯罪的自動化人臉識別軟體,並號稱準確率達到80%。他們認為,人工智慧可以「從圖像中提取出能高度預測犯罪的微小特徵」,還能擺脫種族偏見的影響,有望成為執法利器。今年5月初,哈裡斯堡大學在官網發布消息稱,施普林格·自然集團的研究叢書《計算科學與計算智能的處理》將收錄這篇論文。
  • 在美國,亞裔男性和白人女性結婚的多嗎?
    從通婚比例上來看,白人和亞裔通婚佔比達14.4%,(亞裔)低於白人與西班牙裔(43.3%),高於白人與黑人(11.9%)。亞裔中,有27.7%的人選擇跨族群通婚,為各種族群體最高(白人最低,為9.4%)。再往細裡分,23.6%的黑人男性選擇了跨種族婚姻,而黑人女性只有9.3%。
  • 或許該從排除「隱性偏見」開始
    很多人在不知不覺中將「科學」與「男性」聯繫在一起,潛意識裡認為,男性比女性更適合在STEM(科學、技術、工程、數學)等領域發展。但這個結論似乎並未在全世界達成共識。比如一些美國科學家認為美國不存在性別歧視,科研領域女性數量少緣於女性自身的職業選擇。
  • 2019年10月25日Science期刊精華,浙江大學同時發表兩篇Science論文
    2019年10月29日訊/生物谷BIOON/---本周又有一期新的Science期刊(2019年10月25日)發布,它有哪些精彩研究呢?讓小編一一道來。1.Science:新研究揭示小鼠小腦與人類存在很大不同doi:10.1126/science.aax7526在一項新的針對大腦的研究中,來自美國、義大利、英國、法國和以色列的研究人員發現小鼠小腦可能並不是人類小腦的良好模型。
  • 英國生態學會發起一項大規模研究,「雙盲審稿」能否減少偏見?
    英國生態學會發起了一項大規模研究,劍指「雙盲審稿」是否能減少科學出版中的偏見英國生態學會旗下雜誌Functional Ecology進行了一項為期兩年的隨機對照試驗,這是同類試驗中迄今為止規模最大的一次,目的是評估在同行評審中隱藏作者信息的細節,是否會減少科學出版過程中對特殊群體的偏見
  • 人工智慧助手的性別平權之路
    在新加坡南洋理工大學的研究中,研究者觀察了不同性別的機器人完成不同工作的情況,並對人們的反應進行了測量,研究發現:人們會偏好完成家政工作的女性機器人和完成安保工作的男性機器人,而不是相反。[2]一臺電腦若是發出女性的語音,人們對它的性能預估就不如一臺男性語音主導的電腦。