原創 劉河慶 定量群學
引言大數據時代算法對我們個體的生活有著愈來愈重要的影響,從簡歷篩選、貸款申請再到刑事司法系統,算法都在不斷幫助人類做出決策。雖然算法在提高決策準確性方面表現出了相當大的潛力,但在某些情況下,算法可能會對特定社會群體(如女性、黑人)施加不公平對待。
例如隨著深度學習和神經網絡等一系列算法的出現,人們發現本應毫無偏見的計算機也習得了人類社會中的各種偏見。在計算機視覺領域,不同性別用戶發布的圖片內容不同,導致視覺語義標註中也存在性別偏見,如在廚房中的人物總是被識別為女性。對自然語言處理領域的研究發現算法不僅準確複製了訓練數據中的性別偏見,甚至還在下遊應用任務中放大了偏差(Zhao et al., 2017)。本期推文將以詞向量算法中反映的社會偏見為例,為大家介紹目前測量以及分析算法中偏見的相關研究。
01詞向量模型是目前眾多自然語言處理模型的重要組成部分,以word2vec模型為例,該模型將文本作為單詞序列提供給單詞嵌入層,該層將每個單詞映射為向量空間中的實數向量,從而獲得每個詞彙的向量表示。基於詞彙的向量表示,我們可以直接測量模型中的單詞或短語之間的類比或關聯,這些類比許多都是符合預期的,因此被廣泛應用於文檔分類、問答系統等下遊任務。如根據詞彙的向量表示可以得出等式king - man + woman = queen,實現單詞的類比。
圖1
然而,也有些關聯或類比可能會有問題,如Bolukbasi等人使用基於 Google 新聞語料庫的Word2Vec模型,定量地證明了單詞嵌入在其幾何上的偏差反映了在更廣泛的社會中存在的性別刻板印象,發現即使訓練數據為專業性較強的谷歌新聞數據,詞向量算法仍習得並放大了傳統關於性別的刻板印象。具體而言,作者發現對於訓練完成的向量空間中,會發現man - woman = computer programmer – homemaker,也即如果男性對應程式設計師,女性則更可能對應家庭主婦。同時,他們也發現如果父親對應醫生,那母親會對應什麼呢?訓練完成的詞向量給出的答案是護士。
為了準確量化詞向量所學習到的性別偏見,Bolukbasi等同時計算一個詞向量和一對性別特定詞的向量之間的語義距離,例如同時計算護士與父親、母親這一對性別特徵詞的語義距離(類似的性別特徵詞對還包括哥哥-姐姐,男商人-女商人,男孩-女孩等),這樣能準確量化不同性別在向量空間中與不同職業的語義距離。如何圖1左側具體呈現了w2vNEWS中分別與she和he最相關(語義距離更近)的職業,可以明顯看到男性和女性相關職業的巨大差異。圖2右側展示了詞向量模型中可以與she和he類比的詞對(詞對在向量空間中餘弦距離近似即為可類比),上半部分為明顯帶有性別刻板印象的詞對,下半部分為不帶有性別刻板印象的詞對。
圖2
02如何消除或緩解算法所習得的社會偏見呢,Bolukbasi等人嘗試通過消除性別刻板印象,例如服務員和女性之間的聯繫,同時保留所期望的聯繫,比如女王和女性之間的關聯,來減少性別偏差。
他們區分了與性別相關的性別特定詞,如祖父,祖母、兄弟、姐妹,以及與性別不直接相關的性別中性詞。此後,他們確定了兩個正交維度,即性別特定詞與性別中性詞間的差別,進而通過摺疊性別中立的方向去除性別中性詞和性別的關聯。也即是說作者將doctor或nurse等性別中性詞通過移動其在向量空間中的位置來減少或是消除他們的性別歧視趨勢。以圖3為例,圖中上半部分代表在向量空間中有性別偏見的中性詞,其中左側的詞彙跟女性語義距離更近,右側的詞彙跟男性的語義距離更近,作者通過將左側和右側的詞彙向中間移動來達到減少詞向量模型中性別偏見的目的。
圖3
03算法經常被質疑的一個點是其根據人們過往的行為數據或人們所在群體過往的行為數據來進行決策,這往往會強化傳統的群體間的不平等。從本期所推薦的文章可以看到,除行為數據外,算法也可以直接學習到現實社會關於不同群體的刻板印象。詞向量作為當前眾多自然語言處理任務的底層訓練模型,因其能準確學習詞彙間的語義關係而得到廣泛應用,但另一方面也會導致基於詞向量模型所得到的詞彙的向量表示,不僅複製了訓練數據中的性別偏見,甚至還在下遊應用任務中放大了偏差。
本期所推薦的文章從技術角度對如何消除或緩解算法所習得的社會偏見進行了研究,後續也有研究進一步從模型改進、提高訓練數據質量等角度進一步嘗試消除或緩解算法中的偏見,這些研究從表面上減少或隱藏了算法中的偏見,但這種偏見的隱藏在現實實踐中究竟是否起作用,如何更好的平衡算法的公平與效率仍是需要我們不斷思考的問題。
參考文獻Bolukbasi, T., Chang, K. W., Zou, J. Y., Saligrama, V., & Kalai, A. T. (2016). Man is to computer programmer as woman is to homemaker? debiasing word embeddings. Advances in neural information processing systems, 29, 4349-4357.
Zhao, J., Wang, T., Yatskar, M., Ordonez, V., & Chang, K. W. (2017). Men also like shopping: Reducing gender bias amplification using corpus-level constraints. arXiv preprint arXiv:1707.09457.
原標題:《算法習得並強化了人類偏見嗎——如何測量、分析算法中的偏見》
閱讀原文