AI的偏見:機器就是絕對理性的麼?

2021-01-10 TechWeb

本文轉載自公眾號「讀芯術」(ID:AI_Discovery)

人工智慧已經遍布我們的日常生活。從YouTube的首頁推薦到生產藥物,它無所不在,它對我們生活的影響超出我們的想像。但人工智慧一定公平嗎?不,絕對不是。

人們很難定義什麼是公平的人工智慧。以下是我能想出的最好的定義:對於社會歧視影響下的特定任務,如果給定的人工智慧模型能夠輸出獨立於敏感性參數(例如性別、種族、性取向、宗教信仰、殘疾等)的結果,那麼這個人工智慧模型就是公平的。

本文將討論人工智慧偏見,與之對應的真實例子,及其解決方法。

問題

人工智慧偏見是由於訓練模型的數據所固有的偏見造成的,這導致了社會歧視,進而導致平等機會的缺乏。

假設我的任務是創建一個以位置為參數計算個人信用評分的模型,某些種族群體會集中在某些地方,這將使創建的模型對那些種族群體產生偏見,會影響他們申請信用卡和銀行貸款,存在偏見的人工智慧模型加劇了當前的社會歧視。

人工智慧偏見的真實例子

COMPAS(另類制裁法懲罰罪犯管理分析)是美國法院用來判定被告成為累犯(重犯先前所犯罪行的罪犯)可能性的軟體。由於存在嚴重的數據偏差,該模型預測黑人罪犯累犯的假陽性率是白人罪犯的兩倍。 2014年,亞馬遜開發了一套人工智慧招聘系統以簡化招聘流程。研究發現該系統歧視女性,因為用於培訓模型的數據來自過去10年。過去10年,由於科技行業中男性佔主導地位,大多數被選中的申請人都是男性。亞馬遜在2018年廢除了這個系統。 美國醫療保健系統採用人工智慧模型,認為黑人患同一疾病的風險比白人低。這是因為該模型對成本進行了優化,而且由於黑人被認為支付能力較低,因此該模型將他們的健康風險排在白人之後,導致黑人的醫療標準降低。 2019年,Facebook允許廣告商根據種族、性別和宗教瞄準人群。這導致護士和秘書等工作以女性為目標,而像門警和計程車司機這樣的工作則瞄準男性,特別是有色人種的男性。該模型還了解到,房地產廣告向白人展示時,點擊率較好,所以面向少數人群的房地產廣告投放較少。 2020年9月,Twitter用戶發現圖像裁剪算法偏愛白人臉而非黑人臉。當在Twitter上發布一幅與預覽窗口的寬高比不同的圖像時,該算法會自動裁剪掉圖像的一部分,只顯示圖像的某一部分作為預覽。在黑白面孔同框時,該人工智慧模型通常在預覽窗口中顯示白人。

這些例子只是滄海一粟。無論開發者是否知情,許多不公平的人工智慧操作都真實存在著。

如何解決這個問題呢?

邁向公平人工智慧的第一步是承認問題。人工智慧是不完美的,數據是不完美的,我們的算法是不完善的,我們的技術也不夠完善。如果我們對問題視而不見,那麼是不可能找到解決辦法的。

其次,問問自己這個解決方案是否需要人工智慧。有一些問題不依賴於數據,比如尋找被告人再犯可能性這樣的任務更多地依賴於情感而不是數據。

第三,遵循負責任的人工智慧實踐。在谷歌負責任的人工智慧實踐指南的基礎上,我補充了幾個要點。負責任的人工智慧實踐:

使用以人為中心的設計方法:設計模型時內置適當的信息披露,並在部署前納入測試人員的反饋。 確定多個指標評估培訓和監控:使用適合任務的不同指標,以了解不同錯誤和經驗之間的權衡。這些指標可以來自消費者的反饋、假陽性率和假陰性率等。 如果可能的話,請檢查原始數據:人工智慧模型反映了用來訓練模型的數據。如果數據有問題,模型也會有問題。因此,儘量保持數據平衡。 理解模型的局限性:一個被訓練來檢測相關性的模型對建立因果關係不一定有用。例如,一個模型可能會了解到,購買籃球鞋的人一般都比較高,但這並不意味著購買籃球鞋的用戶會因此變得更高。 測試:進行嚴格的單元測試以確定模型中的故障。 部署後繼續監控和更新模型:在部署模型後,關注用戶反饋,並定期更新模型。 設計一個公平與包容兼具的模型:與倫理和社會研究領域的專家接洽,了解和解釋各種觀點,試著讓模型儘可能公平。 使用具有代表性的數據集來訓練和測試模型:嘗試評估數據的公平性。也就是說,尋找特徵與標籤之間的偏見或歧視性關聯。 檢查不公平的偏差:從不同背景的測試人員那裡獲取單元測試輸入,這有助於確定哪些人群可能會受到該模型的影響。 分析性能:考慮不同指標,一個指標的改進可能會損害另一個指標的性能。

開發公平人工智慧的工具

AIFairness 360:這是IBM提供的一個開源工具包,可幫助用戶檢查、報告和減輕機器學習模型中的歧視和偏見。 ML Fairness Gym:這是谷歌提供的一個工具,用於探索機器學習系統對人工智慧偏見的長期影響。 FATE:AI中的公平、責任、透明度和倫理(FATE),微軟提供了評估可視化儀錶盤和偏差緩解算法的工具。它主要用於公平與系統性能之間的權衡。

近來,公司和政府開始逐漸正視人工智慧中的偏見。許多公司已經開發了評估人工智慧公平性的工具,並且正在盡最大努力解決人工智慧偏見。

雖然人工智慧有著巨大的潛力,但我們現在比以往任何時候都更需牢記人工智慧系統潛在的歧視性危險,我們也應幫助開發出公平的人工智慧模型。

 

相關焦點

  • 真的可以前半生奮鬥,後半生享受麼?
    做好一件事和所謂的「對」的事,這個世界給予了太多的關注,不管是雞湯裡讓將來的自己感謝現在拼命的自己,還是教育領域裡讓孩子多上補習班,多努力多吃苦,就是為了孩子的未來不卑微。讓長大後的孩子更優秀,讓未來的自己更成功,就是「對」的麼?從理性來看結果,大概率上這樣的自己貌似,的確很對。
  • Yann LeCun 大戰「鍵盤俠」,除了數據,「AI偏見」到底來自哪裡?
    2、我們不都知道機器學習算法帶有數據偏見以外的歸納偏置嗎?3、當數據帶有偏見時,機器學習系統就是有偏見的。但某些機器學習系統的偏見不是由於數據,並且構建100%無偏見的數據集在實際上是不可能的。並且我們發現很多時候,假如數據帶有少量的偏見,系統會將其放大,並變得更加有偏見。
  • 《隱秘的角落》與《十二公民》,人性中偏見VS理性
    影片中的偏見仔細觀察,兩部影片是有許多共同之處的,兩部劇都是都是國產懸疑劇,甚至選角時都用了相同的演員,都有弒父和冤枉的情節,劇情都是跌宕起伏,反轉接連不窮。更重要的是,他們都探討了一個問題,那就是人性中的理性與偏見。
  • 樹…懶…怎…麼…繁…衍…後…代…?《瘋狂動物城》就是披著《沉默的羔羊》皮的《傲慢與偏見》嘛!
    從《冰雪奇緣》到《星戰7:原力覺醒》再到《瘋狂動物城》,影片的絕對主角都是女性,故事的發展以她們的成長為主線進行推進,男性主角不是反派就是賣萌擔當,即便是狐尼克同學,定位也是被「公主小兔」拯救了的幫手及伴侶,很明顯的華生式輔助人物。對於迪士尼近期電影的女權主義傾向,可以參看我之前的文章:請戳→《我說,迪士尼不會是中降頭了吧?王子和公主去哪兒了?》
  • 吳恩達:2020 年,這些 AI 大事件讓我無法忘懷...
    8、在防範新冠疫情傳播中,口罩成為了絕對主力。為了讓大眾乖乖帶上口罩,人們可謂是操碎了心,AI也在這時候幫上了忙。有人開發了一套AI系統,號稱能夠根據一個人說話的口音「聽」出是否佩戴口罩,且檢測的準確率已經達到了78.8%。研究人員開發這項技術的初衷是,他們發現,戴上口罩會影響語音的的效果,這是由於肌肉收縮、發聲量增加和傳輸損失引起的。如今,戴口罩已經成為了日常。
  • 女人真的是生孩子的生育機器麼?
    圖片來自網絡我針對評論解釋一下。「我感覺在怎麼也不要把女人比做生育機器好吧感覺超級難聽」目標很明確,女人不要把自己當作生育機器。真的很難聽的,孕育生命是一個很神聖的事情,說成機器。男人又沒有在你生完孩子就離婚或者其他問題。生孩子就是生孩子,生育機器。這個詞我個人不喜歡,只是發表一下言論。「生孩子本來就是女人很驕傲的事情,不願意生就不生,願意生就生。」
  • 當AI 邂逅藝術:機器寫詩綜述
    機器的作品能否叫藝術?機器能否取代藝術家?這些問題,相信不同的人,會有不同的答案。很多人認為機器生成的作品只是簡單的模仿人類,沒有創造性可言,但是人類藝術家,不也是從模仿和學習開始的嗎?本文是為 PaperWeekly 寫的一篇機器詩歌生成的綜述文章,希望能增進大家對這個領域的了解。詩歌是人類文學皇冠上的明珠。我國自《詩經》以後,兩千年來的詩篇燦若繁星。
  • AI與人類同傳:傲慢與偏見 戰爭與合作
    發出會議邀請函僅8天前,科大訊飛剛被同傳譯員Bell Wang在知乎上指控AI同傳「造假」,實為「語音轉換文字」及「機器朗讀人類同傳識別出的文稿」,陷入一場真假AI同傳風波。AI洶湧而來,素有翻譯行業塔尖之稱的同傳,無法迴避與技術共處,亦無法迴避相處中的傲慢與偏見。
  • 吳恩達聖誕寄語:回顧2020年,這些AI大事件讓我無法忘懷……
    LeCun的立場是:模型在訓練「存在偏見的數據集」之前不存在偏見,也就是模型本身不存在偏見,而且有偏見的數據集是可以修改的。 Gebru則表示:正如我們在信中所說的,這種偏見是在社會差異的背景下產生的,要消除AI系統的偏見,必須解決整個領域的差異。隨後,在關於偏見的進一步分歧中,Gebru和Google分道揚鑣。
  • 霍克海默的警告:工具理性和技術理性正在消減人的生存價值基礎
    對工業文明社會的批判,首當其衝的就是要批判科學技術。知識就是力量,科技是第一生產力,但這種知識和科技忽略了人的價值和意義,消解了人生存的本質目的。關於工具理性和科技的弊端,霍克海默是這樣理解的:1工具理性對人生存的價值基礎的消解。理性,是西方文明中的一個核心的概念,由古希臘的「邏各斯」的概念發展而來。
  • 十二生肖中,這些絕對理性的生肖男
    屬虎的生肖男:屬虎的男人處理事情一向都是根據法則,尋找合理的依據去解決,不會被其他感情因素有所影響的,在那麼威嚴的虎面前,他們的認知就是這樣,非常的理性,不容易受到外界紛擾,只要是他們決定好的事情,不會因為別人的多言而動搖自己心中的想法,任何的雜吵之聲都拋諸後腦。
  • 《機械公敵》:最高理性與走向奴役之路
    是否有人掌握所謂的唯一真理或者最高理性?如果我們沒有掌握所謂的唯一真理和最高理性,那麼是否應該由那些掌握了唯一真理和最高理性的人或組織來為我們選擇和安排我們所要過的生活? 也許我們可以說電腦是絕對理性的,不會犯任何錯誤。
  • 《十二公民》:讓理性成為我們的態度
    值得一提的是,電影中的5號陪審員就是一個被錯判入獄的人。近些年來,越來越多的冤假錯案被不斷地平反,這體現我們在司法改革中,司法系統在不斷地完善,司法水平在不斷地提升,在案件審判的過程中,我們遵循的是「疑罪從無」的原則。我們不能「寧殺一百不放過一個」,法律的存在的意義不僅僅是維持公正,更在於保障公民的基本權利,「萬分之一的錯誤對於當事人來說就是百分之百的災難。」
  • 你敢跟電腦PK音樂素養麼?可能會被阿里雲小Ai完爆……
    還記得超人氣日本動漫作品《寄生獸》中寄生在主人公體內的外星生命體「小右」麼?它以超乎人類數倍的學習能力在最短的時間了解這個世界。
  • 《機器管家》AI
    人想成為長生不老的"機器",機器想成為有感情的人。。。到底是當人好?還是當機器好呢?
  • MIT發布針對K12學生的AI學習資源網站,免費上課,幼兒園就能學
    網站地址:https://aieducation.mit.edu/網站提供的學習資源可以幫助滿足世界各地數以百萬計的兒童、家長和教育工作者的需求。該團隊還囊括了各種外部資源來探索,比如谷歌(Google)的「教學機器」(tekeable Machines),這是一個基於瀏覽器的平臺,用戶可以為自己的圖像識別算法訓練分類器。本著「mens et manus」(即MIT的座右銘,意思是「頭腦和手」)的精神,MIT的學習技術願景是教授和鼓勵各個年齡段的學習者們追求創造性。
  • 機器翻譯再也不用英語當...
    在訓練2200種語言對後,該單一多語言模型不僅與傳統的雙語模型性能相當,同時也比以英語為中心的多語模型在機器翻譯評價指標BLEU上提高了10%。傳統機器翻譯算法通過為每種語言和每項任務構建單獨的AI模型能夠同時處理多語翻譯,但由於依賴英語數據作為源語言和目標語言之間的中介,在語義準確性上可能有所折損。
  • Facebook 100種語言互譯模型原始碼公開,機器翻譯再也不用英語當...
    編 |智東西 子佩智東西10月23日消息,Facebook近期開源其M2M-100原始碼,這是首個可以不依賴英語數據而可以實現100個語言對互相翻譯的機器翻譯模型(如中文-法文互譯為一個語言對)。在訓練2200種語言對後,該單一多語言模型不僅與傳統的雙語模型性能相當,同時也比以英語為中心的多語模型在機器翻譯評價指標BLEU上提高了10%。傳統機器翻譯算法通過為每種語言和每項任務構建單獨的AI模型能夠同時處理多語翻譯,但由於依賴英語數據作為源語言和目標語言之間的中介,在語義準確性上可能有所折損。
  • 偏見是如何產生的?你為什麼會有偏見?為什麼你會給人貼上標籤?
    你處於這樣一種狀態:你的眼睛告訴你,這分明就是一長一短的兩根線段嘛;而你的理性告訴你,我知道這其實是等長的,因為我用尺子量過。接下來,當有人再問你這兩根線段長度的時候,你會告訴他,這是等長的兩根線段——這說明你的意識經過一番「鬥爭」之後,理性戰勝了感覺。但即便如此,你的感覺仍然還是那種感覺,雖然你選擇了理性,但是你感受到了一種「強扭的瓜式的不舒服」。
  • AI在這張「問卷」上首次超越人類,SuperGLUE被微軟谷歌「攻破」
    T5是谷歌去年提出的「文本到文本遷移Transformer」,也就是用遷移學習讓不同的NLP任務可以使用相同的模型、損失函數和超參數,一個框架在機器翻譯、文檔摘要、問答和情感分析上都能使用。T5最大的模型具有110億個參數,早在推出之時就取得了SuperGLUE上的最高水平,至今仍僅次於榜單前二模型和人類。