那些困擾博士後的種族和性別偏見

2020-10-21 記不得老師

在2012年,Moss-Racusin發表了一項研究,該研究發現,生物學,化學和物理學的教師在審查實驗室經理職位的申請後,更喜歡叫約翰(John)的申請者,而不是詹妮弗(Jennifer)的相同申請者。她說,這項新研究今天發表在雜誌上,是一項重要的進步,因為它可以操縱種族和性別。「它當然支持許多軼事發現,自我報告,相關數據,但真正擁有一些艱難的實驗數據……確實非常重要。」

比如虛構一些名字,布拉德利·米勒(Bradley Miller)比何塞·羅德裡格斯(JoséRodriguez)更受僱。張煒比賈馬爾·班克斯(Jamal Banks)更勝任。與瑪麗亞·羅德裡格斯(Maria Rodriguez)相比,Miller和Zhang的能力和聘用能力更高。

儘管教授的簡歷相同,但僅憑姓名來看他們的看法是真實的。這是根據一項新研究得出的,該研究發掘了生物學中種族偏見以及物理學中性別和種族偏見相結合的證據,強調了科學中各種偏見的普遍性質以及重要的學科差異。

首席研究員通常獨立地審查博士後申請,這與研究生入學或教師聘用決定不同,後者通常是由委員會做出的,在某些情況下還包括消除偏見的做法。

Eaton和她的同事要求美國八所研究型大學的251名物理和生物學系教師對簡歷進行評估,並告訴他們這是假設的博士學位。畢業生申請博士後職位。根據每個組的美國人口普查局數據,姓名被操縱以指示申請人的性別以及種族和種族(亞洲,黑人,拉丁裔或白人)。

準確地檢測這些類型的實驗中的偏差要求參與者不知道他們要測試的內容,因此研究人員告訴教師參與者,他們正在嘗試找出哪種CV格式最合適。伊頓說:「人們認為這是一個令人信服的調查:字體,間距和書寫方式如何影響人們對候選人的能力,友善程度和可僱用性的看法。

生物學的教職員工認為,男性和女性申請者具有相似的能力,並且很可能被錄用。 但是在物理學上,情況卻大不相同:教師更喜歡男性申請者,他們的能力等級比女性申請者高1點(9分制),而僱用能力則比女性高2點。

兩個學科的教員都表現出種族偏見。在物理學上,亞裔和白人申請人比黑人和拉丁裔申請人具有更高的能力和可僱用性等級。在生物學上,亞裔和白人申請人比黑人申請人更勝任。與黑人和拉丁裔的申請人相比,亞洲的申請人也被認為具有更高的聘用率。(他們給其他小組的評分在統計上沒有差異。)

在物理學上,黑人和拉丁裔女性處於雙重劣勢,其可僱傭性比白人和亞裔男性低三分。「這真是一個驚人的發現,」對於這部分人來說,這對他們的性別和他們的種族都是打擊。這是科學界需要應對的「雙重危險效應」的證據。

在物理學上,儘管其他學科的女科學家人數激增,但女性人數「仍然頑固地保持在較低水平」,而缺乏對偏見的認識可能是其中一個因素。

有些學生(尤其是有色女性)可能會閱讀研究報告,並想知道這些偏見將如何影響他們獲得博士後職位並前進職業的能力。這些偏見構成了真正的障礙,並且加劇了有色女性經常收到的提醒,給她們以不屬於STEM的印象。

無論是通過閱讀研究研究還是通過個人經驗,都可以意識到這些問題。這具有挑戰性,但我認為從某種意義上說,也可以激發成為一個與眾不同的人, —成為積極的榜樣並激勵其他有女性走類似的道路。

相關焦點

  • 研究發現AI生成的藝術作品存在種族、性別偏見
    研究發現AI生成的藝術作品存在種族、性別偏見 站長之家(ChinaZ.com)12月29日 消息:隨著人工智慧技術研究不斷推薦,由算法生成的藝術作品的受歡迎程度也在持續增長。
  • 馬對騎手的「性別偏見」
    「女士專屬」、「更喜歡男騎手」、「討厭有激情的男騎手」這些都是真實從賣馬帖子上摘下來的描述詞,這些詞所描述的現象被稱為「馬的性別偏見」(gender bias in horses)這個概念在馬主中被廣泛應用,通常用於描述這匹馬更喜歡和男人或是女人相處,表現地也更好。當然,馬可以感受出來自己背上的騎手的水平,但他們是否也能感受到騎手的性別?或是,他們是否有對騎手的性別偏見?
  • 數據告訴你,論文引文裡有多少性別偏見
    在某些情況下,引用者知道他們引文的作者性別,這時偏見是顯性的。但多數情況下,他們並不知情,僅僅憑藉推斷猜測引文的作者性別,偏見則是隱性的。無論是已知或推斷性別,在引用文章時,偏見都有可能在其中起作用。由於感知和親和力偏見,可能導致了男性過度引用男性,而女性輕微過度引用女性的論文。但是研究者發現在考慮了作者社交網絡結構之後,引文性別比例的失衡仍然存在。研究者量化了文章作者與其共同作者社交網絡的性別失衡。共同作者網絡中的男性人數,男性人數更多,這一特徵在以男性為主導的工作中尤為明顯。這種社交網絡中的性別差異,與引文行為中性別差異相似。
  • 偏見是自身價值體系的反射——讀《偏見的本質》
    奧爾波特說,這種情況意味著種族意識的初現,意味著社會氛圍對兒童人格、思維和行為的潛移默化的影響。 最高法院做出了學校合併的決定,可能出於奧爾波特著作的啟發,至少是意見相同的。隨後,在20世紀50年代至70年代所做的研究中,黑人兒童喜歡黑人玩偶的可能性一直在增加。同時,成年黑人開始認為在諸如智力、懶惰和可靠等特質方面,黑人與白人非常相似。
  • 偏見的謀殺:你沒有錯,錯的是這個世界
    美國人格心理學家,實驗社會心理學之父,戈登奧爾波特,在所著的《偏見的本質》一書中如此定義「偏見」:「對屬於某群體的個體持有一種厭惡或敵對的態度,僅僅因為他屬於該群體,就被推定具有人們歸於該群體的那些令人反感的特性。」偏見是有比較級的。
  • Science新研究證明人工智慧也能學會偏見
    於本周發行的新一期 Science 期刊上就刊登了一項有關的研究結果,其表明人工智慧也能習得人類的種族和性別偏見。機器之心在這裡編譯了 Science 網站上對於該研究的介紹以及該報告的摘要和部分結果,相關原文請點擊「文末閱讀」原文查閱。
  • 美國百人會發聲明:譴責種族偏見,鼓勵華人發聲!
    當地時間4月7日,美籍華人精英組織百人會(Committee of 100)發表聲明,譴責正在美國不斷蔓延的、針對美籍華人帶有種族偏見的刻板定性,表示將繼續致力爭取美國華裔的平等權利,並鼓勵美籍華人公開發出正確和公正的聲音。
  • 種族、性別和職業生涯:為什麼說「填滿管道」還是不夠的
    米爾科曼想弄清的是,種族和性別如何影響年輕專業人士的職業流動性,尤其是進入了要想留住就必須得到升遷的那些職業領域的人(比如說,律師事務所、大學、諮詢顧問機構等)。米爾科曼與其研究生院的導師、哈佛商學院教授凱斯琳·麥克金(Kathleen L.
  • 過半博士後想要離開學術界
    即使是對於那些還沒有為人父母的博士後來說,這個職位也嚴重影響了他們的生活計劃。巴西裡約熱內盧聯邦大學的地質學家 Kathryn Cutts 在今年 5 月開始了為期兩年的博士後研究,為此她需要搬家。這是她第四輪博士後,也是在巴西的第二輪。來自澳洲的 Cutts 表示:「我很享受做博士後,我可以在全世界各地轉。」但是在多年居無定所,沒有固定職位的生活後,她感覺人生岌岌可危。
  • AI的偏見:機器就是絕對理性的麼?
    以下是我能想出的最好的定義:對於社會歧視影響下的特定任務,如果給定的人工智慧模型能夠輸出獨立於敏感性參數(例如性別、種族、性取向、宗教信仰、殘疾等)的結果,那麼這個人工智慧模型就是公平的。本文將討論人工智慧偏見,與之對應的真實例子,及其解決方法。問題人工智慧偏見是由於訓練模型的數據所固有的偏見造成的,這導致了社會歧視,進而導致平等機會的缺乏。
  • AI 也有種族「偏見」?
    這種技術就像你在電視和電影中看到的畫面,通過「放大和增強」使視覺效果更強。但是,不像好萊塢大片中的特效畫面,軟體不能無中生有地產生新的數據。 為了將低解析度圖像轉換為高解析度圖像,軟體必須使用機器學習來填補空白。
  • 或許該從排除「隱性偏見」開始
    第二,現實群體衝突理論認為一旦大家為稀缺資源競爭,就會出現偏見。第三,出於社會地位、自我關注和歸屬的需要,人們也會表現出偏見。人類會很自然地將他人分成內群體和外群體,一旦認定我們屬於某個群體,偏見另外一個群體會讓營造自己高人一等的感覺。
  • 看《瘋狂動物城》各個角色如何在「偏見」中逆襲
    這部電影裡反映的平等就是要相信偏見是現實常態, 偏見無法改變, 要接受偏見, 笑對偏見, 而且相信夢想與偏見並不衝突。動物城裡處處是各種偏見, 例如城市居民和鄉村居民的區域偏見, 食肉動物與食草動物之間的種族偏見, 雄性動物跟雌性動物之間的性別偏見等等, 而兔子朱迪和狐狸尼克作為主要人物, 成為動物城中被偏見然後逆襲偏見的傑出代表。
  • AI存偏見和歧視?算法讓用戶喜好趨同?科學家給出證據
    &nbsp&nbsp&nbsp&nbspAI存在偏見和歧視,算法讓用戶喜好趨同?&nbsp&nbsp&nbsp&nbsp除此之外,由於推薦系統的偏見被放大,用戶幾乎只能接觸到流行度高的項目,只能看到那些被更多人打了高分的熱門電影。於是,在推薦系統中他們的偏好都會向一個共同的範圍集中,這就表現為用戶偏好的同質化。而反饋循環造成的偏見對少數群體用戶的影響更大。
  • Science:端粒長度與性別、種族和慢性病相關
    近日,來自美國芝加哥大學的研究人員通過對952個個體的共6000多種不同組織的端粒長度進行檢測,發現遺傳變異影響多種組織類型中的TL,全血中的TL具有足夠的代表性,且TL與年齡、種族、性別等,以及慢性疾病的發生風險相關。相關研究結果於9月11日發表在《Science》上。
  • 種族偏見在美國各地大學引發憤怒 多名校長辭職
    種族偏見在美國各地大學引發憤怒 多名校長辭職 2015-11-12 09:11:21來源:中國新聞網作者:${中新記者姓名}責任編輯:程蘭豔   中新網11月12日電 據美媒報導,種族歧視和偏見的事例在美國各地的高校引發抗議。
  • 從魔法世界裡的「泥巴種」說起:歧視性稱呼背後的偏見心理學解讀
    那些嫁給「泥巴種」的魔法師,往往會遭到家人、朋友們的冷落、排擠,一些所謂的「純血叛徒」被形容為「和泥巴種一樣壞」,伏地魔控制魔法部後,在報紙上大肆宣揚「泥巴種」的糟糕之處,還頻頻對他們進行嚴酷的審訊。魔法世界固然虛幻,在我們所生活的現實社會裡,「偏見」同樣無處不在,並引發各種各樣的負面行為。
  • 中國的多民族文化和美國的種族偏見,同為多民族國家,差異有多大
    在沒有任何證據和拘捕證明的情況下,白人警察僅憑懷疑就對弗洛伊德實施暴力拘捕行為,最終釀成這起悲劇。為什麼這次事件激發如此大的民憤呢?作為視頻的觀看者,我覺得我看的是一場謀殺直播,是白人警察對生命的輕視。殺人者正是擁有政府配槍的警察。
  • 它只是看出了你的偏見
    而且,研究人員聲稱算法的分析只專注於五官研究,而採用的 VGG-Face 軟體可最小化流動性因素,如打光、姿勢和表情等的幹擾。但人工智慧面部識別方向的研究人員 Tom White 則表示,VGG-Face 捕抓那些流動性元素能力也很強。(圖自推特)再者,這個被作為研究的基本數據(來自約會網站的圖片)本身就是有偏見的。
  • 算法習得並強化了人類偏見嗎?如何測量、分析算法中的偏見
    例如隨著深度學習和神經網絡等一系列算法的出現,人們發現本應毫無偏見的計算機也習得了人類社會中的各種偏見。在計算機視覺領域,不同性別用戶發布的圖片內容不同,導致視覺語義標註中也存在性別偏見,如在廚房中的人物總是被識別為女性。對自然語言處理領域的研究發現算法不僅準確複製了訓練數據中的性別偏見,甚至還在下遊應用任務中放大了偏差(Zhao et al., 2017)。