如何讓算法解釋自己為什麼「算法歧視」?

2021-01-08 騰訊研究院

1

算法的可解釋性隱憂

傳播學者尼爾·波茲曼在《技術壟斷》一書中斷言,每一種新技術都既是包袱又是恩賜,不是非此即彼的結果,而是利弊同在的產物。

作為一項新技術,人工智慧以其強大的變革勢能,重構了人類社會的原有規則和運作方式。人類把選擇乃至決策的權力拱手交給AI,在享受著由此產生的便利的同時,卻又不自覺地生發出自身及世界將被AI支配的恐懼心理。

這種恐懼表徵於各種科幻電影和著作之中,「作為工具的AI反過來統治人類」成為大量影視作品經久不衰的主題;另一方面也漸顯於現實社會的諸多反思話語之中,當下對算法偏見、算法歧視以及對算法侵害隱私和社會關係的指責,無一不顯現出人類對這項革命性技術的恐懼。

某種程度上,這種恐懼源於算法的不透明性。人類天生會對未知事物感到恐懼,對於人類而言,算法運作宛若「黑箱」——我們負責提供數據、模型和架構,算法負責給出答案,而中間的運作過程卻只在暗處進行。這種合作方式看似給我們帶來極大便利,但是問題在於,如果算法的運作不可監察、不可解釋,將導致人類無法真正理解算法,更不能有效地控制算法,從而也就無法預見和解決算法可能帶來的問題。

難以想像,當人類把未來命運寄託於一項既不可知又不可控的技術會誘發怎樣的後果。「MIT科技評論」曾發表過一篇題為「人工智慧中的黑暗秘密」的文章,指出「沒有人真正知道先進的機器學習算法是怎樣工作的,而這恐將成為一大隱憂。」而紐約大學AI Now Institute的一份報告甚至建議負責刑事司法、醫療保健、社會福利和教育的公共機構避免使用AI技術。

算法的可解釋性隱憂已成為當下多方關注的焦點,也是算法及AI深化發展亟待解決的現實問題。人類渴望理解算法,以期能更好地引導和使用算法。眾多網際網路公司為解決這一問題進行了大量的工作,但由於種種客觀原因的限制,這些努力仍收效甚微。

2

不可解釋的算法帶來歧視

在上個月的Google I/O 2019開發者大會上,谷歌發布的一項名為「TCAV」的新技術因為與消費者無關因此並沒有收到太多關注。但這一項目,似乎為算法可解釋性隱憂帶來了一種新的解決思路。

桑達爾·皮查伊在此次大會上公布了Google新一階段的目標:Building a more useful Google for everyone.(「為每個人構建一個更有用的Google」)。但這項目標實現起來頗有難度,因為它意味著谷歌需要著手解決一系列與算法相關的現實問題,比如算法偏見和算法歧視。皮查伊顯然也意識到這一點,他指出「偏見」(bias)仍然是機器學習領域一個值得關注的問題,當牽涉到人工智慧時,這一問題的風險度則會更高。

許多人認為算法是單純的技術,並沒有什麼價值觀可言,但實際上算法也像它的人類締造者一樣,存在著各種偏見和歧視。究其本質,算法歧視屬於社會結構性歧視的延伸,因為算法的有效性建基於大量數據材料分析,而這些材料大多都源自社會現實,所以究其本質,算法歧視其實是社會結構性歧視的延伸。

比如,訓練分類算法進行圖像識別,讓它能從一堆職業照片中選出「醫生」職業。我們首先要為算法提供大量的醫生圖像進行學習,算法會總結出這些圖像的基本特性,比如白色大褂、口罩、聽診器等等,並將其作為標準在識別工作中予以執行,它會把具備同類特徵的圖像均識別為「醫生」。

但問題是由於種種現實和歷史原因,在當下醫生人群中,男性的比例確實更高。而算法通過上述的學習,並不會理解這是我們當下及未來要努力做出改變的地方,而很可能認定「男性」是「醫生」這一職業判定的相關因素,從而在識別中把女性醫生篩選出去。

另外的例子是與就業求職相關的算法向男性推薦的工作崗位整體工資要高於向女性推薦的崗位,以及美國警方的犯罪識別系統會認定黑人犯罪概率更高。因此,性別、種族等方面的現實偏見通過算法得以延伸。而算法歧視之所以難以解決,歸根結底在於算法的可解釋性問題,如果我們不能理解算法的運作方式,自然也就無法得知它為什麼會延續歧視,更無法對歧視問題進行解決。

但在算法的黑箱運作機制下,AI做出決策的影響因素並不會顯而易見的拉成一個單子擺在研發者的面前。「女性」這一影響因素本身並不會表明為女性,而可能被表述為一系列描述身體視覺特徵的像素向量,對於有色人種和其它需要被剔除的影響因素也是同理。這也導致過往的研發人員不可能依靠「看一眼」就將算法中的偏見剔除。

而從現實角度出發,算法偏見也引發了公眾對AI的認知偏差,已經是其被汙名化的來源之一。種種因素之下,解決算法偏見問題成為目前行業的基本共識。

對於Google來說,這一問題更為迫切。當智能工具為用戶執行任務時的功能越來越多時,算法的可解釋性和透明度就顯得無比重要,因為它等同於用戶對谷歌技術更大的信任和更多的商業化使用。皮查伊表示,要為每個人建立一個更有用的谷歌,意味著解決偏見問題,為此谷歌將著力於提高模型的透明度。而這次皮查伊的底氣,很大程度上來自於TCAV技術。

3

TCAV,讓普通人理解算法的運作方式

TCAV是「概念激活向量測試」(Testing with Concept Activation Vectors)的縮寫。由於這項技術主要面向開發人員和數據科學家,而且暫時不開放給第三方使用,所以並不是Google I/O 2019的主角,在相關報導也都被一筆帶過。但與其低調的形象不同,TCAV實際上作用極大,並且應用前景極為廣闊。

早在開發者大會之前,數據科學家Been Kim團隊就發表了一篇Interpretability Beyond Feature Attribution : Quantitative Testing with Concept Activation Vectors (TCAV)的論文,詮釋了TCAV的作用原理。總體而言,TCAV是一種算法可解釋性的方法,能夠直觀顯示神經網絡模型運算所依據的概念及其比重。正因為如此,TCAV也是一種算法歧視糾偏技術,因為它可以被用於觀察其他AI模型中的算法歧視傾向。

人類之所以不能理解算法的運作規則,是因為二者「認知方式」存在差異:人類往往使用各種高級概念進行思考和交流,而大多數機器學習模型則關注低階要素,運用大量抽象概念進行「思考」。比如,人類之所以能判定一張圖中的動物是斑馬,主要依據它的身形、黑白條紋等高級概念;但算法卻不一樣,它考量的是不同特徵屬性(Feature Attribution)的權重。對算法來說,一幅圖像中的每個像素都是輸入要素,它會關注圖片中的每一個像素的顯著程度,並賦予它相關的數值,以此作為識別的依據。

問題就在於,人類無法理解算法所採用的識別方式。因為我們在描述事物時,會直接動用顏色、形狀等各種高級概念,卻永遠不會說圖像的第6個像素的值是33。因此,即便得到算法運作所生成的各種數值,也無助於我們理解算法的運作過程。

而可解釋性的初衷就是使人類更容易理解機器學習模型,特別是對那些缺少技術背景的人更是如此。那麼,能不能夠讓算法的運作方式以人類能看懂的「高級概念」的形式予以呈現?TCAV技術試圖解決的正是這個問題。

與典型的可解釋性方法不同,TCAV目標是將支撐模型的變量以人類能夠理解的高級概念表現出來。它能直觀顯示在算法運作中各種高級概念的權重,比如顏色、性別、種族、年齡等(即便該概念不是訓練的部分)。

比如,一個訓練有素的模型能夠檢測圖像中動物是否是斑馬,而TCAV可以幫助我們理解哪些變量在識別圖像時發揮了作用,以及各自發揮了多大的重要性,因它對我們理解模型預測原理幫助很大。由結果可見,在各項概念中,「條紋」(Stripes)佔據的權重最高,「馬的形體」(Horse)次之,「草原背景」(Savanna)的權重最低,但也有29%。

而 TCAV 的這一功能被用於算法糾偏非常合適,當我們把它的這項能力轉移到涉及社會現實的識別模型上時,就可以清晰地判定該模型是否涉及歧視。比如,一個用於識別醫生圖像的算法,由TCAV的結果可見,其高權重的識別概念包括「白色衣服」、「聽診器」以及「男性」等。前兩個影響因素是正確的,但關於性別的判斷則意味著模型出了偏見需要通過進一步訓練進行糾偏。

從更廣闊的前景來說,TCAV 可以讓普通人也能夠輕鬆理解算法的「思維」,因為它讓我們可以理解算法思考過程的每一步。因為 A 得到 B,所以 C,最後得出了 D。而不是像以往的 AI 那樣給予 A 的輸入便獲得 D的結果。這一功能可被應用於其它領域而並非只是用於算法糾偏。

4

結 語

TCAV的重要意義在於,它不僅在技術層面以一種極為有效的方式解決了算法的可解釋性問題,而且它以人類所使用的高階語言為呈現形式,即便是沒有技術背景的普通人也可窺見算法究竟以何種標準進行運作,是否有所偏倚,進而能夠及時解決算法偏見和算法歧視問題。

要知道,算法和AI並非張牙舞爪的妖魔鬼怪,無端的恐懼和憂愁均無助於問題的解決。它更像是正在學步的孩童,需要我們藉助於TCAV這樣的解釋性工具進行對話、達成理解並幫助它更好地成長,這才是引導科技向善的體現。

相關焦點

  • 如何規制算法歧視?
    傳統法律監管方式作用式微,算法歧視成為平等權保護的困境,這警醒我們需要探索算法歧視背後的原理和規律,以尋找算法歧視挑戰下平等權保護的危機原因與應對方案。由於算法決策應用的廣泛性,算法歧視也隨之散布於很多領域。經過考察就業、價格、信用等三種常見的算法歧視可知,我國現行法律對算法歧視不能提供有效的救濟。結合全國人大立法規劃,我國對算法歧視應採取個人信息保護法和合理算法標準相結合的綜合治理路徑。
  • 人工智慧的算法歧視~機器覺醒
    最常見的價格歧視就是飛機票,提早訂的話折扣都很大,到臨近1天的時候再買,就是全價。明顯的價格歧視是涉嫌違反《消費者權益保護法》規定的,所以商家如果要做歧視定價,需要有一個正當的非歧視的理由。比如飛機票價格,一般解釋為提早訂票,有利於航空公司的航班規劃,航空公司也可以獲得機票款的時間價值,所以提前訂票價格便宜。
  • 大數據時代的算法歧視及其法律規制
    隨著算法決策深度浸潤到人類日常生活和社會管理的方方面面,算法歧視在更廣闊領域、以更加隱蔽的形式呈現,其可能引發就業、交易、理財等諸多領域不公平的差別對待,影響社會公平正義,有必要以法律手段對其加以規制。  準確把握算法歧視的產生邏輯是對其進行科學規制的前提。通常來說,算法歧視的成因有以下幾方面:一是算法本身具有價值負載性。
  • 算法中的性別歧視,應被看見被糾正
    本版插圖:小麗「如何避免算法中的偏見和歧視」「AI時代,女性如何向前一步」等話題,在剛剛召開的「世界網際網路大會·網際網路發展論壇」上,引起了普遍關注。算法中的偏見之所以能引起注意,源於幾次刷爆網際網路的新聞:2015年,谷歌圖片軟體的自動標記功能,誤將兩名黑人標記為「大猩猩」;2016年,微軟的首個聊天機器人Tay上線,由於事先沒有為它植入規則,希望它在與人互動中產生自己的願望與想法,結果Tay一上線聊天就被網民們「教壞」,成了一個集反猶太人、性別歧視、種族歧視於一身的「不良少女」,不到一天就被緊急下線;2018年,亞馬遜的招聘軟體在招聘員工時被發現
  • 當AI是一名種族主義者:「中立」的算法暗藏歧視
    一部揭示該問題的紀錄片《編碼偏見》(Coded Bias)近日在美國流媒體平臺上映,紀錄片講述當下廣泛應用於廣告、金融,甚至公共事務領域的人工智慧技術,如何延續了社會固有的對於種族、階層以及性別的歧視。
  • 數據,即權力;歧視,即壟斷 ;算法,即剝削
    本文從經濟學的角度,使用反壟斷理論、價格歧視及消費者剩餘理論,解釋和揭示「算法剝削」。正如上文所講的,平臺的算法根據騎手、買家、賣家等信息,極限壓縮配送時間。極限壓縮配送時間是經濟效率的體現,也可能壓榨騎手的交易剩餘。如何理解?
  • AI也會種族歧視?智能算法竟把黑人看成黑猩猩
    比如,最近一種新的AI去馬賽克算法PULSE,就犯了「種族歧視」的大忌,將美國前總統歐巴馬打了馬賽克的圖片識別成了白人。在美國的BLM(黑命貴)運動愈演愈烈的背景下,怒不可遏的大眾在網上開始了對AI技術的又一輪口誅筆伐。
  • 「法治天地」大數據時代的算法歧視及其法律規制
    隨著算法決策深度浸潤到人類日常生活和社會管理的方方面面,算法歧視在更廣闊領域、以更加隱蔽的形式呈現,其可能引發就業、交易、理財等諸多領域不公平的差別對待,影響社會公平正義,有必要以法律手段對其加以規制。準確把握算法歧視的產生邏輯是對其進行科學規制的前提。通常來說,算法歧視的成因有以下幾方面:一是算法本身具有價值負載性。算法並非完全客觀,而是往往蘊含某種預設的價值立場。
  • 連接與失控:面對算法社會的來臨,如何構建算法信任?
    【算法如何改變我們的生活】 當下,我們每個人如果環顧自己的生活,就會豁然發現:大數據時代算法技術應用的日益普及,的確使我們大步流星地邁入到了一個充滿顛覆性和變革性的算法社會。如果去網上書店查閱一下與算法相關的社會科學書籍,就會發現這樣的現象:大量的書籍和文章描述著算法可能帶來的危機。「算法歧視」「算法合謀」「算法霸權」「算法黑箱」「算法短視」等術語甚囂塵上,時刻警醒著我們:算法社會的到來將會伴隨著新一輪的技術信任危機。
  • 如何實現算法中的公平性
    如何確定某個特徵會導致歧視性結果?是否需要設計一個能給出「歧視性」閾值的指標?一個極端的做法是刪除近乎所有變量,這將導致算法無所適從。儘管解決問題的前景看上去不甚明朗,但幸運的是總會有辦法的。本文隨後將進行闡述。上面給出的例子並非一些孤立事件。同樣,乳腺癌預測算法也會呈現出一定程度上的不公平歧視。
  • 谷歌新壓縮算法因擔心涉及性別歧視而改名
    Google上個月宣布了新的開源壓縮算法Brotli,使用了全新的數據格式。
  • 為什麼算法的公平性令人難以捉摸?
    有些是兩者的結合:有偏見的人會導致有偏見的算法,這些算法提出的建議加強了不合理的分類(例如,對貧困社區更嚴厲的監管會導致這些社區有更多的犯罪報告。而更多的犯罪報告又會觸發警務分析,建議在這些社區部署更多的警察,你看!這樣你就得到了一個討厭的反饋循環)。問題的根源在於根本不知道如何使算法做到公平。針對這方面,有關算法公平性的對話已經成為社會道德的一面放大鏡。
  • 算法,即剝削
    本文從經濟學的角度,使用反壟斷理論、價格歧視及消費者剩餘理論,解釋和揭示「算法剝削」。本文目錄:一、數據,即權力二、歧視,即壟斷三、算法,即剝削01 數據,即權力這篇文章提到一個關鍵詞:時間失蹤。正如上文所講的,平臺的算法根據騎手、買家、賣家等信息,極限壓縮配送時間。極限壓縮配送時間是經濟效率的體現,也可能壓榨騎手的交易剩餘。如何理解?在消費中,消費者剩餘是消費者在交易中獲得的「差額」財富。在勞動力市場中,勞動者的「交易剩餘」不容易發現。由於馬歇爾的「消費者剩餘」理論沒有推廣到勞動力市場,所以,我們在理解這個問題需要兜幾個彎。
  • 價格歧視?算法時代的一場「貓鼠遊戲」
    算法時代,大數據殺熟受到越來越多詬病與爭議,但從經濟學角度來看價格歧視,有著更深層次的分析框架與維度,甚至顛覆我們的常識。本文將介紹價格歧視背後的經濟學原理,同時指出按照大數據算法執行的周密定價策略,短期內可以增長利潤,長期內卻會導致「雙輸」;看起來會因為歧視得益的商家,最後可能反而聯合要求通過反價格歧視的法案。
  • 算法,隱藏的偏見
    不久前,推特上發生了一場備受人工智慧界關注的論戰,其原因是被指帶有「嚴重種族歧視」的PULSE算法。然而,調查過程中,平臺方都堅稱自己對所有用戶的報價一致,不同的價格是基於拉新活動的優惠不同所致,並非隱性的大數據「殺熟」,所以調查最後都不了了之。
  • 平臺利用算法玩套路 價格歧視、好評刷單輪番上演
    網際網路平臺得意的算法大數據反而成為了羈絆。1月7日,中國消費者協會(以下簡稱「中消協」)的「網絡消費領域算法規制與消費者保護座談會」上,中消協表示包括平臺採用算法限制交易在內的諸多問題,已經侵害了消費者權益。目前,網絡領域涉及消費者權益的算法應用問題主要出現在推薦、價格、評價、排名算法等方面。
  • 為什麼微信終於開始擁抱算法分發了?
    公眾號信息流推薦的帳號這不得不說這是一次非常有趣而驚人的改變,衛夕想通過這篇文章嘗試解釋這種轉變是如何發生的,著重回答兩個問題——1.微信早期,張小龍為什麼如此執著於天然的社交分發五、張小龍在 2019 的公開課中更加直接地解釋了自己為什麼對社交分發如此執著——「我一直很相信通過社交推薦來獲取信息是最符合人性的,因為在現實裡面,我們其實接納新的信息,並不是我們主動到圖書館或者到網上去找的信息,大部分情況都是聽到周邊的人的推薦而獲得的。」
  • AI存偏見歧視?算法讓用戶喜好趨同?科學家給出證據
    AI存在偏見和歧視,算法讓用戶喜好趨同?科學家給出了證據或許你已經注意到了,當你在電影評分網站給剛看完的電影評完分後,網站後續給你推薦的影片風格會與你看完的電影類似。舉個更常見的例子,當你在購物網站搜索過某樣物品後,第二天推薦頁面上顯示的都是類似款。
  • 杜絕價格歧視、好評刷單 中消協加強網絡消費算法規制
    比如,網路遊戲抽獎概率不明、大數據殺熟、網絡消費促銷規則繁複、網絡搜索競價排名推薦、網絡直播推送違反法律規定和公序良俗、刷好評隱差評使評價結果呈現失真、平臺採用算法限制交易等。上述問題的背後,核心是網際網路平臺對算法技術的應用。根據消費者投訴、有關調查和相關報導,網絡領域涉及消費者權益的算法應用問題主要出現在推薦、價格、評價、排名算法等。
  • 蘋果推送算法因存在性別歧視而被調查,蘋果這是要火了
    上周,聯合創始人&Basecamp的首席技術官大衛·漢森(David Heinemeier Hansson)發表了一系列推論,稱蘋果的新卡程序有「性別歧視」的。漢森說:「我和妻子共同提交了納稅申報單,住在一個由社區財產管理得州,我們已經結婚很長時間了。」然而,蘋果的黑盒算法認為,我的信用額度是她的20倍。沒有上訴的工作。」