如何讓人工智慧理解「什麼是公平」

2021-01-10 EDN電子設計技術

「什麼是公平」,就算是人類自己也沒有統一的標準,它有時取決於語境。不論是在家裡,還是在學校,教導小孩要公平是至關重要的,但說起來容易做起來難。正因為如此,我們要如何才能將社會上所說的「公平」的細微差別傳遞給人工智慧(AI)系統呢?CMeednc

IBM研究院的一組研究人員是著手解決該難題的先驅。IBM為開發人員推出了一款名為「AI Fairness 360」的工具包。作為這項工作的一部分,IBM為企業提供一種新的「基於雲的、偏差(bias)檢測和消除服務」,企業可以使用它來測試和驗證AI驅動的系統的行為。CMeednc

CMeednc
圖1:SaskaMojsilovicCMeednc

在接受EE Times的電話採訪時,IBM研究院院士SaskaMojsilovic告訴我們,科學家和AI從業者太過於關注AI的準確性。通常,人們關於AI的第一個問題是,「機器可以擊敗人類嗎?」CMeednc

但公平呢?例如,AI中的公平缺位可能會導致在醫療保健中或自動駕駛車輛造成災難性後果,她說。CMeednc

如果用於訓練機器的數據集有偏差怎麼辦?如果AI無法解釋它是如何做出決定的,那麼我們怎樣才能驗證其「正確性?」AI可以揭示在AI處理過程中數據是否被以某種方式操縱過嗎?AI是否可以向我們保證其數據從未(包括處理前和處理後)受到攻擊或篡改嗎?簡言之,是否存在AI內省?簡單回答:沒有。CMeednc

Mojsilovic表示,如果不對AI用戶、開發人員和從業者開放,AI系統就無法獲得社會的信任。CMeednc

分解公平

一個更大的問題是如何教導機器什麼是公平。Mojsilovic指出,「因為我們是科學家,我們做的第一件事就是分解『公平』。我們需要從這著手。」他們將公平分解為AI實現中的指標、算法和偏差。CMeednc

CMeednc
圖2:Kush VarshneyCMeednc

IBM研究科學家Kush Varshney解釋說,其團隊研究了AI算法和AI決策的偏差和公平性。「有個人的公平,也有團體的公平。我們研究了群體的不同屬性——從性別到種族。還考慮了法律和監管問題。」最後,團隊最終測量了30個不同的指標,以尋找數據集、AI模型和算法中的偏差。CMeednc

這些發現已納入IBM不久前推出的AI Fairness 360工具箱中。IBM將其描述為「一個全面的指標開源工具包,用於檢查數據集和機器學習模型中不期望的偏差。」CMeednc

CMeednc
圖3:減小整個AI生命周期的偏差。(來源:IBM)CMeednc

圖片翻譯:解釋器;數據偏差檢測和偏差消除;用戶/業務策略;模型偏差檢測和偏差消除;數據偏差檢測;預處理;訓練數據;建模;測試;配置;反饋CMeednc
CMeednc
雖然許多科學家已經在努力發現AI算法中的歧視(discrimination),但Mojsilovic說IBM的方法不同,它不僅包括發現偏差的算法,且還包括用於消除偏差的工具。CMeednc

在基礎層面,你必定會問:由計算機科學家——定義公平?這通常不是社會科學家的活嗎?意識到這種不搭調,IBM明確表示Mojsilovic和Varshney都沒有閉門造車。他們引入了許多學者和研究機構。Varshney參加了由卡內基國際事務倫理委員會主辦的Uehiro-Carnegie-Oxford倫理會議。 Mojsilovic參加了由加州大學伯克利分校法學院贊助的加州伯克利人工智慧工作組。CMeednc

算法中立嗎?

一段時間以來,社會科學家一直在指出AI偏差問題。CMeednc

CMeednc
圖4:Young Mie KimCMeednc

威斯康星大學麥迪遜分校新聞與大眾傳播學院教授Young Mie Kim解釋說,「AI歧視(或AI偏差)可能發生在它隱含或明確地強化現有不平等的社會秩序和偏見(例如,性別、種族、年齡、社會/經濟狀況等)時。」例子從抽樣誤差(例如,由於抽樣方法的不適當或困難導致某些人口統計數據不充分)到機器訓練(建模)中的人為偏差。 Kim認為,即使在設計或建模中採用的「戰略決策」也存在AI偏差,例如政治廣告算法。CMeednc

在她最近題為「算法機會:數字廣告和政治參與的不平等」的研究中,Kim展示了在基於算法的決策中不平等是如何被強化的。CMeednc

技術社區可能會爭辯說「算法是中立的」或者可以「受過教育」(訓練有素)。 Kim指出,「也就是說,他們並不承認在算法開發的任何階段都會出現偏差。」CMeednc

可解釋的AI

不只是消費者害怕AI。許多計算機科學家也表達了擔憂。CMeednc

威斯康星大學計算機科學助理教授AwsAlbarghouthi告訴EE Times,「從短期看,我擔心越來越多地使用數據驅動的決策,這有可能傳播偏見和不公正。從長遠看,我擔心AI在戰爭自動化方面的使用。」CMeednc

CMeednc
圖5:Loris D』AntoniCMeednc

AI無法解釋其決策帶來持續焦慮。威斯康星大學計算機科學助理教授Loris D'Antoni告訴我們,「現在,程式設計師開始將強大的機器學習算法作為編程工具箱中的工具。然而,這些算法複雜、難以預測、難以解釋。例如,沒人知道由此產生的機器學習模型究竟做了什麼。在他看來,「總的來說,自動化決策需要被理解和規範,並且可能以正規的方式進行。」CMeednc

對於流程的每個步驟,從訓練數據和處理到測試和部署,IBM指出其工具包提供的解釋 可顯示:在兩種決策中、哪些因素傾向於支持哪一方;對推薦的信心以及支持這種信心的因素。CMeednc

IBM希望AI Fairness 360工具包將被廣泛使用,以便開發人員可以為其做出貢獻,幫助建立對AI的信任。CMeednc

與此同時,IBM將為企業提供其新的軟體服務,旨在自動檢測偏差並解釋AI在需要做決策時,是如何做出決策的。它在IBM Cloud上運行,可幫助企業管理AI系統。CMeednc

IBM稱,其在IBM Cloud上的公平性監控服務將與來自各種機器學習框架模型和AI構建環境(如Watson、TensorFlow、SparkML、AWS SageMaker和AzureML)配合使用。「這意味著組織可以借力這些新控制以服務於企業使用的大多數流行的AI框架,」IBM稱。IBM也承諾提供定製服務。「還可對軟體服務進行編程,以監控任何業務工作流程的獨特決策因素,使其能夠根據特定的組織用途進行定製。」CMeednc

好的開始

越來越意識到AI中算法公平問題的AI研究界,對IBM的新產品表示歡迎。威斯康星大學的計算機科學家D'Antoni告訴我們,「看到公平檢查技術進入業界並付諸實踐,真的令人興奮。」他補充道,「我認為該工具將使AI研究界更加意識到該問題的重要性。」CMeednc

Albarghouthi稱IBM的努力「開了個好頭」。CMeednc

但是為了讓AI Fairness 360工具包真正變得有效,應該使許多需要理解它的開發人員能用到它。Albarghouthi解釋說,該工具需要「與研究界探索的最新的公平技術共同發展。」CMeednc

他告誡說,「如果研究和理解超越了目前的定義和技術,」那麼該工具很可能會停滯不前。CMeednc

公平問題

最後,任何成全或破壞AI公平工具包的因素都會回溯到如何定義公平這一棘手問題。IBM的Mojsilovic承認,在不同應用中,公平有不同表現。正如人類對公平有不同看法,用戶、客戶和公眾可能會根據情況對公平有不同評判。CMeednc

CMeednc
圖6:AwsAlbarghouthiCMeednc

當被問及AI公平工具包的缺陷時,Albarghouthi表示,問題之一是「存在於公平性定義的選擇以及其是否足夠。」畢竟,公平「在很大程度上取決於領域、其敏感性和涉及的監管。」他補充說:「我確信,這些工具只有在其使用成為機器學習管道的標準部分時才有效。」CMeednc

D'Antoni表達了他自己的擔憂。「有很多關於公平和偏差的定義,很難將它們全部考慮在內且其實現也並非能畢其功於一役。」換句話說,「公平定義往往是『衝突的,』他說。「存在的不可能出現的結果表明,某些公平概念不能同時訴諸實施。」CMeednc
此外,還有一個事實是「機器學習社區目前尚未接受過如何了解現有的公平和偏差定義的含義以及如何使用它們,」他補充道。CMeednc

社會科學家Kim同意。「對這種[AI偏見]問題的認識是抗擊AI歧視的第一步,也是最重要的一步。」她指出,「在人類社會中,我們提出了一些減輕不平等和歧視的政策和法規。但問題是AI仍是個秘密。與大多數情況一樣,數據和建模是專有的。這使得任何公共政策或監管討論/辯論更加困難。「CMeednc

透明度

理解了定義公平性時的複雜性和權衡取捨之後,IBM研究人員認為,優先事項應該是AI實踐和實施的透明度。CMeednc

IBM的Mojsilovic建議由AI服務開發商和提供商完成並自願發布供應商的符合性聲明(她稱之為情況說明書)「以提高其服務的透明度並產生對它們的信任。」她將其比作「食品營養標籤」,或「器具信息表」。CMeednc

業界需要有關部署在不同服務中的AI系統信息的標準。 IBM敏銳地意識到這不會在一夜之間發生。正如營養標籤花了很長時間才逐步發展起來一樣,情況說明書的開發可能是個漫長過程。Mojsilovic警告說,業界才剛剛開始其人工智慧之旅。CMeednc

與IBM類似,研究界也在與AI公平問題鬥爭。在這個懸而未決的領域,IBM的AI Fairness工具箱似乎具有開創性。 D'Antoni告訴我們,「我不知道現有的用於AI模型的通用公平檢查工具。」CMeednc

另一方面,他補充說,「研究界提出了許多令人興奮的原型工具。例如,Kramer等人提出的FairTest和來自我們自己團隊的FairSquare。」CMeednc

(原文發表於ASPENCORE旗下EDN姐妹媒體EETimes,參考原文:Teaching Machines 『Fairness』 同步刊登於《電子工程專輯》11月刊雜誌)CMeednc

相關焦點

  • 讓孩子理解人工智慧如何下棋,這套科普繪本娓娓道來
    讓孩子理解人工智慧如何下棋,這套科普繪本娓娓道來 澎湃新聞記者 韓曉蓉 2019-11-14 21:39 來源:澎湃新聞
  • 麥克尤恩如何想像人工智慧:「機器人不理解我們,因為我們不理解...
    日前,黃昱寧、作家小白和上海紐約大學教授、亞馬遜上海人工智慧研究院院長張崢出席了在朵雲書院上海旗艦店舉辦的「機器有什麼錯2020——麥克尤恩小說《我這樣的機器》新書發布會」,與觀眾分享了他們閱讀這本小說時的感受。
  • 如何判斷什麼才是真正的人工智慧?
    提起人工智慧,我們腦海中自然而然會想起近些年來在影視劇中的人工智慧形象,一個與人類幾乎相差無幾的機器人 那什麼是人工智慧,如何判斷是否是真正的人工智慧呢?一個有趣的想法是,當機器擁有人的思維後,便認為這臺機器是人工智慧。 那麼問題進一步細化,如何判斷機器是否擁有人的思維?
  • 人工智慧倫理三問:如何對待機器和自身的關係?
    對人工智慧的討論足夠了嗎 迄今為止,我們對人工智慧可能會帶來的挑戰仍知之甚少,嚴肅的公共討論還十分缺乏 要理解人工智慧的社會影響,首先要認識人工智慧在社會發展中的獨特作用。在人類發展進程中,知識的增長和社會協作體系的擴展起到了重要作用,而這一切都離不開人類大腦提供的智能基礎。
  • 解剖人工智慧以更好地理解人類大腦
    同樣,在計算機科學領域,多種形式的人工智慧正在出現——不同的網絡經過訓練,各自擅長於不同的任務。正如今天將在認知神經科學學會(CNS)第25屆年會上介紹的那樣,認知神經科學家越來越多地使用這些新興的人工網絡,以增進他們對最難以捉摸的智能系統之一——人類大腦——的理解。麻省理工學院的奧德·奧利瓦說:「認知神經科學家和計算機科學家試圖回答的基本問題是相似的。」
  • 張首晟教授:區塊鏈讓社會變得更加公平 與人工智慧的結合令人激動...
    這一研究會對量子計算、人工智慧等領域產生突飛猛進的發展。而區塊鏈技術的出現對於人工智慧來說能夠產生一個數據市場,在解決人工智慧學習急需的數據。「有了區塊鏈之後,這個數據市場的產生,我們也真正能夠使得社會變得更加公平。」張首晟說。
  • 人工智慧驅動的人道主義工程如何解決我們星球面臨的最大威脅?
    人工智慧如何幫助應對關鍵的人道主義和可持續發展挑戰?首先,聯合國可持續發展目標代表了17個全球目標的集合,這些目標旨在應對緊迫的全球挑戰,實現包容性發展,並在2030年前以可持續的方式促進和平與繁榮。人工智慧使構建模仿人類智能的智能系統成為可能,從而解決現實世界的問題。
  • 如何實現算法中的公平性
    本文分析了算法歧視的致因,側重於數據問題給出了公平性的定義,介紹了統計均等等度量指標。文章也指出,各種算法公平性定義指標法都有其優缺點,並無法就公平性達成共識。因此,算法公平性並不能直觀看成一種數學或計算機科學問題。本文的目的是使廣大讀者切身理解根植於機器學習算法中的不公平性。為此,作者力圖以易於理解的方式闡釋概念,避免使用數學表達。希望每位讀者都能從閱讀本文受益。
  • 好未來總裁:人工智慧助力教育更公平,應注重科技倫理研究
    8月29日,2019世界人工智慧大會在上海舉行。在「人工智慧助力教育現代化」主題論壇上,好未來集團總裁白雲峰提出觀點:人工智慧有效助力「更加公平而有質量的教育」。「更加公平」指的是:「通過信息化手段,儘量消弭地點、貧富等差異,讓孩子們能有機會接受到同等同質的教育,讓優質的教育服務和資源實現均衡配置。」
  • 人工智慧如何獲得知識?
    因此,我們可以將人類的概念嵌入到計算機之中讓它概念化世界,同時連接人造的感知系統以數據化世界,從而實現人工智慧。這樣的人工智慧是擬人類的或者準人類的,它們能夠「像」人那樣獲得外部世界的知識。由於嵌入進計算機的概念是人類的,人造感知系統即數據形成函數也是基於人類的科學理論的,這樣的人工智慧所獲得的知識也是人能夠理解的。
  • 美科學家:當人工智慧遇上倫理道德
    因此,人工智慧和機器人領域的科學家及其所在的專業組織應當表明立場,正如物理學家當年對於核武器,抑或是生物學家對於在戰爭中使用病原體表明立場一樣。應當召開學術會議進行討論,並讓倫理委員會參與進來。什麼都不做就等於是表示支持繼續發展和使用。
  • 如何實現算法決策公平?_湃客_澎湃新聞-The Paper
    引言隨著人工智慧的發展,算法決策系統越來越多地被用於輔助甚至是替代人的決策,例如使用算法進行信貸審批、人才招聘、犯罪風險評定等等。由於算法在決策中扮演的角色越來越重要,算法決策的公平性也愈發引起重視。本專題第二期推送為大家介紹了一種將人類意志與算法意志結合起來以提高算法決策公平性的方法,這一期我們將從算法本身出發,為大家介紹Zafar等人在Fairness constraints:Mechanisms for Fair Classification這篇論文中所提出的提高決策公平性的機器學習框架。01什麼是算法決策的不公平性?
  • 人工智慧開啟視覺處理新篇章:如何更好的理解這個世界
    人工智慧的第三次浪潮正席捲全球,而在這次計算機視覺功不可沒。視覺處理的終極目標在於使得計算機能像人一樣觀察感知世界,核心任務就是對圖像進行理解,場景分類、目標識別/圖像分類、目標定位、目標檢測、語義分割、三維重建、目標跟蹤都是其研究內容。
  • 人工智慧中的線性代數:如何理解並更好地應用它
    也有非線性的函數(例如二次方程),不過首先你需要知道什麼是向量(以及向量空間),這不像看上去那麼簡單。教材和課程中通常只是給出一個抽象的定義,這一定義又常常由 8 點構成。有時一個矢量空間被視作一個使用加號的阿貝爾群,該阿貝爾群滿足四大群公理,並定義了標量乘法。但是對於剛開始研究線性代數的人來說,理解這些著實困難,學習一些具體示例並進行類比要容易得多。
  • 動蕩的2020之後 2021年人工智慧產業「錢」「景如何?
    LLamasoft公司全球影響力總監Andy Fox表示,不久前,人工智慧就是人們現在所知的人工智慧,例如自動駕駛汽車或圖像識別。但是,如今出現了一種新的狹義人工智慧類別,它正在嘗試複製人類的決策過程。從供應鏈的角度來看,這種新的人工智慧可以幫助從「我如何給汽車加油?」這一方面更好地指導整個供應鏈的決策。或「如何按時獲得產品?
  • 看機器學習如何推動我們去定義公平
    因此,計算機科學家,政策制定者以及任何與社會正義有關的人們目前都在關注如何避免AI產生偏見。然而,機器學習的本質也可能使我們以新的,富有成效的方式思考公平。我們與機器學習(ML)的相遇開始為我們提供概念,詞彙和工具,使我們能夠比以前更直接,更準確地解決偏見和公平問題。我們長期以來將公平視為道德原始。
  • 人工智慧該如何實現人性化,才能建立起自身可信度?
    AI是什麼?不少企業已經將人工智慧(AI)元素納入自家產品。雖然有些「AI」表述只是虛假的營銷策略,但也確實有不少產品開始使用AI及機器學習(ML)技術實現自我提升。簡而言之,AI是指一切能夠表現出智能行為的計算機系統。
  • 人工智慧如何助力疫情防控?
    面對新冠肺炎疫情蔓延的形勢,如何理解和準確分析其傳播過程,如何迅速開發診斷技術和有效藥物,如何使用信息技術推動復工復產是疫情防治防控的關鍵。上周末,「疫情與人工智慧」公開學術講座在網上直播平臺開播,來自香港中文大學(深圳)、深圳市人工智慧與機器人研究院(AIRS)和深圳市大數據研究院的專家學者在直播中分享了人工智慧在疫情防控工作方面的應用。
  • 人工智慧的發展,除了造成失業,還會讓這個世界變得更不公平嗎?
    都說人工智慧是人創造的,但為什麼會有人工智慧,會有這樣的神奇存在,卻是人類也無法回答的。當人類為人工智慧機器設計了學習程序,當這些機器人可以通過程序性學習而快速地具備自主學習的能力,分析、思考,甚至以後也會有情感。別說人工智慧不會有,人會有人工智慧為何不會有?
  • 2018年,機器學習和人工智慧領域最重要的突破是什麼?
    2018年,人工智慧發展到什麼階段了?Quora鼎鼎有名的大V認為,AI炒作和AI威脅論在今年都降溫,並且不會有AI寒冬,升溫的是各種開源框架,2019年的AI,你認為會是怎樣? 2018年,機器學習和人工智慧領域最重要的突破是什麼? (這裡給你留出充分思考的時間。)