機器學習如何從上遊抑制歧視性行為?斯坦福 AI 實驗室的最新成果給...

2020-12-05 雷鋒網

雷鋒網 AI 科技評論按:隨著機器學習系統越來越多地運用於許多重大決策中,如何對其公平性實現精細地控制已經成了我們亟需解決的問題。為解決這一問題,目前已有一些研究人員通過引入公平機器學習模型來平衡準確性和公平性,然而,一些包括公司、政府在內的機構態度不明朗甚至持與公平對立的立場,所以他們往往不會選擇使用這些公平模型。在這樣的環境下,斯坦福 AI 實驗室的研究人員通過引入了一種新的方法,即令關注公平的有關方通過對不公平性進行具體限制來控制表示的公平性,從而對機器學習中的公平性實現可控性。斯坦福 AI 實驗室發布文章介紹了這一成果,雷鋒網 AI 科技評論編譯如下。

概述

機器學習系統越來越多地被應用於高風險決策中,對信用評分、刑事判決等領域都帶來了影響。這就提出了一個亟待解決的問題:我們如何確保這些制度不因種族、性別、殘疾或其他少數群體身份而產生歧視性行為?為解決這一問題,一些研究人員通過引入公平機器學習模型來平衡準確性和公平性;然而,一些包括公司、政府在內的機構態度不明朗甚至持與公平對立的立場,所以他們往往不會選擇使用這些公平模型。

值得慶幸的是,目前已有研究人員提出了一些用以學習公平表示的方法。關注公平的有關方(如數據採集者、社區組織者或監管機構) 使用這些方法,可以將數據轉換為公平表示,然後僅呈現表示,進一步提高公平性,從而使所有下遊機器學習模型更難產生歧視性行為。

圖 1 學習和最終以控制良好的數據公平表示呈現,能夠抑制下遊機器學習產生歧視性行為

在這篇文章中,我們介紹了一種基於理論的機器學習公平表示方法,並且我們還發現一系列現有方法都屬於該方法的特例。此外,我們還注意到所有現有的機器學習公平表示方法,也可以用來平衡有用性和公平性,產生有用性和公平性兩者相平衡的表示。然後有關方必須多次運行學習流程,直到找到他們滿意的表示結果。基於這種理論,我們引入了一種新的方法,即令有關方通過對不公平性進行具體限制來控制表示的公平性。與早期的公平表示相比,這種方式可以讓機器更快地學到,同時滿足多個公平概念的要求,並涵蓋更多有用的信息。

公平表示的理論方法

我們首先假設得到一組通常用來表示人的數據點(x)以及他們的敏感屬性(u),這些屬性通常是指他們的種族、性別或其他少數群體身份。我們必須學習一個模型(q)來將任一數據點映射到新的表示 (z) 上。我們的目標是雙重的:該表示應該是能夠表達出信息的,即包含數據點相關的大量有用信息;同時這一表示應該是公平的,即包含有關敏感屬性的限制信息;這樣的做法可以抑制機器學習下遊產生歧視性行為(為了簡潔起見,我們聚焦人口均等,這是一種非常直觀和嚴格的公平概念,但我們的方法適用於許多公平概念,如後面的結果所示)。請注意,僅僅從數據中刪除敏感屬性(例如種族)並不能滿足這種公平概念,因為下遊機器學習模型可能會基於相關特徵(例如郵政編碼),這種做法稱為「劃紅線註銷(redlining)」。

首先,我們將我們的目標轉化為互信息(mutual information)的信息理論概念。兩個變量之間的互信息被正式定義為變量的聯合概率與變量的邊緣概率乘積之間的 KL 散度(Kullback-Leibler Divergence)

;直觀而言,這是共享的信息總數,我們的目標具體如下:

為了實現表現力,我們希望最大化數據點 x 和以敏感屬性 u 條件的表示 z 之間的互信息:max I(x;z∣u)。(通過限制敏感屬性,我們確保刺激數據點中與敏感屬性相關的信息出現在表示中。)為了實現公平,我們希望限制表示 z 和敏感屬性 u 之間的互信息:I(z;u)<,其中 由有關方設置。接下來,由於兩組互信息都很難得到優化,我們需要尋找近似值:

我們用最大化下邊界Lr≤I(x;z∣u)來取代最大化 I(x;z∣u)的方法,而最大化下邊界則依賴於我們引入的一個新模型 pθ(x∣z,u)。我們可以明顯發現,最大化Lr 會有利於映射出,表示 z 加上敏感屬性 u 得到的新模型可以成功地重建數據點 x。接著,我們通過約束上限 C1≥I(z;u)來代替對 I(z;u)的約束。很顯然,對 C1 的約束則可以阻止複雜表示。或者我們也可以約束與 I(z;u)更相關的近似值——C2,它依賴於我們引入的一個新模型 pψ(u∣z)。而約束 C2 可以阻止新模型 pψ 使用表示 z 來重構敏感屬性 u 的映射。綜上所述,我們的最終目標是找到模型 q、 pθ, 和 pψ 來幫助成功實現對數據點 x 的重建,同時限制表示 z 的複雜性,並限制敏感屬性 u 的重構:

圖 2 學習公平表示的「硬約束」目標

其中 1 和 2 是有關方設定的限制。

這為我們提供了一個學習公平表示的原則性方法。我們還得到了一個巧妙的發現:事實證明,現有的一系列學習公平表示的方法優化了我們的雙重目標,得到一個「軟正則化」(soft-regularized)版本!

圖 3 學習公平表示的「軟正則化」損失函數

我們可以看到該框架泛化了一系列現有方法!

學習可控公平表示

現在讓我們仔細觀察「軟正則化」損失函數,可以明顯發現現有的學習公平表示的方法會產生有用性和公平性兼具的表示,表現力和公平性之間的平衡由 λs 的選擇所控制。如果我們能優化我們的「硬約束」目標,那麼有關方就可以通過設置 ,來對不公平性進行具體限制。

所以,我們引入了:

圖 5 機器學習可控公平表示的損失函數

直觀而言該損失函數意味著,每當我們考慮由於 C1>1 或 C2>2 導致的不公平時,λs 將額外強調未滿足的約束;這種額外的強調將一直持續到 C1 和 C2 滿足有關方設定的限制為止。而當 C1 和 C2 在安全在限制範圍內時,將優先考慮最小化 Lr ,進而有利於產生富有表現力的表示。

結果

有了最後一塊拼圖,剩下的就是評估我們的理論是否能使其在實踐中學習可控的公平表現。為了進行評估,我們學習了三個真實數據集的表示:

UCI 德國信用數據集,包含 1,000 個人,其中二進位敏感屬性滿足條件 age<50 / age>50 的應受到保護。來自美國人口普查的 40000 名成人的 UCI 成人數據集,其中二進位敏感屬性 Man / Woman 應受到保護。(性別不是二元的,在使用這些數據集時將性別視為二元是有問題的,也是這項工作的局限)60,000 名患者的遺傳健康數據集,其中要保護的敏感屬性是年齡和性別的交集:年齡組 (9 個可能的年齡組) × 性別 (Man / Woman)不出所料,我們的結果證實在所有三組學習公平表示中,有關方對 1 和2 的選擇,控制了不公平的近似值 C1 和 C2。

圖 6 三個真實數據集實驗數據,我們學到了滿足 C1 ≈ 1 和 C2 ≈ 2 的表示

結果還表明,與現有方法相比,我們的方法可以產生更具表現力的表示。

圖 7 我們的方法(深藍色),現有的方法(淺藍色)

並且,我們的方法能夠同時處理許多公平的概念。

圖 8: 當學習滿足許多(在人口統計、機率均等和機會均等上的)公平性約束的成人數據集表示時,我們的方法學習的表示更具表現力,並且表現比除了一種公平標準外的所有標準都更好。

雖然最後兩個結果可能看起來令人驚訝,但它們得出這一結果的原因是,現有方法要求有關方多次運行學習過程直到找到他們認為大致滿意的表示為止,而我們的方法直接優化了儘可能具有表現力的表示,同時也同等滿足了所有有關方對表示不公平的限制。

總結

為了補充公司和政府可以選擇使用的公平機器學習模型,這項工作朝著將公平機器學習的控制權交給關注公平的一方(如數據採集者、社區組織者或監管機構))邁出了一步。我們為學習公平表示提供了一種理論方法,使機器學習下遊更難以產生歧視性行為,並且提供了一種新方法,使關注公平的一方能夠通過 來對不公平性進行特定限制從而控制表示的公平性。

研究者在進行公平機器學習的研究工作時,認識到局限性和盲點尤為重要;否則就會冒著開發出難以實際應用的解決方案的風險,同時掩蓋其他人所同樣付出的努力。我們這項成果的一個主要限制是,關注公平的一方的 限制了對不公平性的近似值,我們也希望未來的工作可以更進一步,並能夠對 ε 進行映射從而正式保證機器學習下遊的公平性。這項成果的另一個可能存在的限制是,像許多公平機器學習的研究領域一樣,中心人口均等、機率和機會均等等公平概念所帶來的限制。我們認為,未來的工作需要與社會公正所依據的平等概念建立更深層次的聯繫,這樣才能避免狹隘的技術解決方案主義,並建立更公平的機器學習。

論文:Learning Controllable Fair Representations 論文作者:Jiaming Song*, Pratyusha Kalluri*, Aditya Grover, Shengjia Zhao, Stefano Ermon論文下載地址:https://arxiv.org/abs/1812.04218via http://ai.stanford.edu/blog/controllable-fairness/

雷鋒網 AI 科技評論

相關焦點

  • AI 在安全、可靠性方面到底取得了哪些進展?斯坦福 AI 實驗室進行...
    這需要我們人為對這些系統進行保障,其中包括可驗證性、可靠性、魯棒性、可審計性、可解釋性和無偏性,對此,斯坦福 AI 實驗室對近年來關於 AI 安全、可靠性的研究進展進行了總結,並以文章的形式發布在博客上,雷鋒網(公眾號:雷鋒網) AI 科技評論編譯如下。
  • 對話美國「機器學習」教父、走進斯坦福等頂級名校,持續四天的全球...
    AI如何首先在教育產業實現「普惠人類」?教育產業呼喚全球合作,但如何展開、誰將受益?在教育的AI應用和評估體系上,史丹福大學到底有哪些獨家經驗?由鈦媒體 T-EDGE X 與中國領先的AI教育公司松鼠Ai聯合舉辦的人工智慧全球峰會,將持續四天,我們邀請到了人工智慧領域的全球頂尖級科學家,共話人工智慧的發展趨勢。
  • 機器學習之父Michael I. Jordan 親臨2018全球機器學習技術大會
    Jordan(麥可.喬丹)要來了,不是籃球界的飛人喬丹,是機器學習界的開山鼻祖、人工智慧領域根目錄的人物之一;是機器學習領域唯一一位獲得美國科學院、美國工程院、美國藝術與科學院三院院士成就的科學家;是伯克利大學的著名機器學習實驗室AMP Lab的聯席主任。
  • 史丹福大學研發AI醫療軟體,診斷肺炎竟比醫生技高一籌
    【AI星球(微信ID:ai_xingqiu)】11月30日報導(編譯:楊卟咚)近日,史丹福大學的科學家開發了一種全新的人工智慧成像軟體,能幫助醫生診斷肺炎在該項目中,史丹福大學副教授吳恩達(Andrew Ng)帶領著他的研究小組,使用了 112120 張胸部 X 射線圖片來訓練神經網絡,在這些圖片當中,人工標記出的疾病多達 14 種,其中一種就是肺炎。在訓練了一個月後,該軟體檢測肺炎感染的能力超出了先前的計算機檢驗方法。斯坦福機器學習小組讓他們的軟體和四位斯坦福放射科醫生進行 PK,並給了醫生每人 420 張 X 射線圖片。
  • AI 遇冷?斯坦福年度 AI 報告來揭秘
    AI 的發展究竟是處於黃金時代,還是進入了寒冬期,或許能夠從斯坦福最新發布的《斯坦福 2019 全球 AI 報告》中窺見一二。自 2017 年以來,全球 AI 指數報告已成為業界重要參考。在 2019 年,斯坦福聯合 MIT、哈佛、OpenAI 等院校和機構,從研發、學術會議、技術性能、經濟、教育、自動駕駛與自動武器、公眾認知、社會考量、國家戰略與全球 AI 活力九個維度,對全球發展現狀進行了盤點。
  • 史丹福大學研究團隊設計了加速AI推理的晶片
    1月12日消息,著名科學期刊《Nature Electronics》(自然電子)雜誌在線發表了一篇最新研究成果,斯坦福計算機科學家Mary Wootters和Subhasish Mitra等研究人員,開發了一種AI加速晶片Illusion,旨在加速AI應用程式,特別是神經網絡,深度學習和機器學習。
  • AI每日精選:北京地鐵研究刷臉安檢;LG電子波士頓開設機器人實驗室
    大公司新聞1.LG電子將在波士頓開設機器人實驗室LG 電子近日表示,它將在美國開設一個機器人實驗室,以提高其在機器人技術方面的競爭力。該實驗室將於本月晚些時候在波士頓開放。2.消息稱蘋果2億美元收購人工智慧初創公司Xnor.ai消息人士透露,蘋果公司收購了西雅圖初創公司 Xnor.ai,後者是一家專業致力於研究設備人工智慧技術的公司。消息人士稱,蘋果公司以大約 2 億美元的價格收購了 Xnor.ai。
  • 一周AI大事盤點:AI幫助農民精準除草,AI可分析動物行為
    研究人員開發出可區分諷刺和假新聞的AI11月6日消息,喬治華盛頓大學、亞馬遜AWS AI以及AdVerifai公司的研究人員開發了一種機器學習方法來對誤導性語音進行分類。據了解,在未來的工作中,研究人員還計劃研究語言線索,例如荒謬、不協調以及其他與幽默相關的特徵。
  • Jeff Dean撰文:谷歌AI 2018研究成果匯總
    這項研究旨在提供關於洪水可能的程度和範圍的準確、及時的細粒度信息,使那些在洪水易發地區的人們能夠更好地決定如何最好地保護他們自己和他們的財產。 第二個例子是我們在地震餘震預測方面的工作,我們展示了機器學習模型可以比傳統的基於物理的模型更準確地預測餘震的位置。
  • 首發丨李蘭娟院士團隊最新成果:人工智慧輔助COVID-19影像學識別——AI技術從實驗室走向臨床
    相關研究成果近期發表於中國工程院院刊《Engineering》。很快,課題組陸續收到世界各國學者來信,有的來自谷歌、斯坦福、美國阿貢國家實驗室等知名機構, 有的來自義大利、韓國、伊朗、土耳其、印度等疫情嚴重國家。截至2020年5月底,全世界有50餘篇文章以預印本的方式發表,探討AI技術輔助COVID-19早期篩查的可行性。國內有上海聯影、清華大學等團隊,探索用AI方法自動分割COVID-19患者肺部CT的病灶大小。
  • 如何區分人工智慧、機器學習和深度學習?
    人工智慧(Artificial Intelligence)是一個最廣泛的概念,人工智慧的目的就是讓計算機這臺機器能夠象人一樣思考,而機器學習(Machine Learning)是人工智慧的分支,專門研究計算機怎樣模擬或實現人類的學習行為,以獲取新的知識或技能,使之不斷改善自身的性能。
  • 「終極收藏」AI領域你不能不關注的大牛、機構、課程、會議、圖書...
    Sebastian Thrun:Udacity(優達學城)創始人、斯坦福終身教授、Google X 實驗室創始人Yann Lecun:Facebook AI 實驗室負責人、紐約大學教授Nando de Freitas:牛津大學教授Andrew Ng:史丹福大學副教授、人工智慧實驗室主任,Coursera聯合創始人,前百度首席科學家
  • 好未來成立腦科學實驗室,與史丹福大學合作研究「AI+教育」
    雷鋒網消息,近日,好未來宣布成立腦科學實驗室,並除此之外,好未來將在全球範圍成立6所聯合實驗室。「教育與AI的結合是一次教育資源的產能革命,教育的本質是對大腦的培育,在人工智慧時代,知識傳輸將被AI替代,培養學生的學習力和思考力將更加重要
  • 博弈AI大時代崛起 AI是如何戰勝人類世界冠軍的?
    」中詳細闡述了Libratus如何戰勝人類世界冠軍。Libratus使用的這些技術如何服務公眾、社會,如何去創造新的商業機會。  AI是如何戰勝人類世界冠軍的  德州撲克這個場景下,沒有海量的棋譜,沒有充分公開的完全信息,Tuomas Sandholm教授組織研發的Libratus系統結合優化博弈論和機器學習等算法,是迄今能夠擊敗德撲最頂級高手的唯一一種人工智慧系統,在戰略推理和戰略思維方面達到了超越人類的水平。
  • 「獨家」圖靈獎得主姚期智出任Pony.ai首席顧問,將打造自動駕駛...
    在CEO彭軍向姚先生展示了Pony.ai的最新的駕駛視頻,包含避障、超車等第一流的無人駕駛技術的時候,姚先生對很多細節都讚嘆不已,也衷心為Pony.ai可以走在世界前列將來可以改變人類生活而感到高興。圖:樓教主在姚先生面前永遠都是學生模樣簡單的視頻展示慢慢變成了學術討論,思考也越來越深入。
  • 入門機器學習,照這個課程清單按順序學就對了
    Chip Huyen她本科和碩士均就讀於史丹福大學計算機科學專業,曾開設和講授課程《TensorFlow for Deep Learning Research》。該課程連結:http://web.stanford.edu/class/cs20si/她還曾協助推出越南第二受歡迎的網絡瀏覽器 Coc Coc,每月活躍用戶數量達 2000 萬以上。
  • 西安到北京無人駕駛_西安交通大學無人駕駛實驗室 - CSDN
    美國調研機構發布最新無人駕駛技術排行榜,百度居中遊,蘋果特斯拉墊底。Google證實已在深圳開設新辦公室,就在1個月前,Google剛剛宣布將在中國成立首個人工智慧實驗室。百度數據可視化實驗室正式成立,並發布深度學習可視化平臺 Visual DL和Echarts最新4.0版。京東X無人超市首次在東北開門迎客,出門付費請刷臉。
  • AI 將非洲人標記為大猩猩:機器學習之路還有多長?
    在其核心領域,機器學習利用算法分析數據、提取模式以及學習和預測,並會基於收集到的見解做出決定。它已經成為我們日常生活中使用的許多技術的基石,比如搜尋引擎、面部識別應用以及數字助理等。機器學習算法獲得的數據越多,它就會變得越聰明。這也就是科技公司千方百計收集更多用戶和消費者數據的原因。但是最終,機器學習只會保持其獲得的數據那樣聰明。
  • 拒絕Bug的機器學習:史丹福大學開源隨機計算圖 Certigrad
    By李澤南 ZhuZhiboSmith  在實踐中,機器學習算法經常會出現各種錯誤,而造成錯誤的原因也經常難以找到。近日,史丹福大學的研究者提出了一種開發機器學習系統的新思路:以數學定理為基礎構建機器學習隨機計算圖,以達到無bug、自動化的目的,他們提出了隨機計算圖系統Certigrad。