1
算法的可解釋性隱憂
傳播學者尼爾·波茲曼在《技術壟斷》一書中斷言,每一種新技術都既是包袱又是恩賜,不是非此即彼的結果,而是利弊同在的產物。
作為一項新技術,人工智慧以其強大的變革勢能,重構了人類社會的原有規則和運作方式。人類把選擇乃至決策的權力拱手交給AI,在享受著由此產生的便利的同時,卻又不自覺地生發出自身及世界將被AI支配的恐懼心理。
這種恐懼表徵於各種科幻電影和著作之中,「作為工具的AI反過來統治人類」成為大量影視作品經久不衰的主題;另一方面也漸顯於現實社會的諸多反思話語之中,當下對算法偏見、算法歧視以及對算法侵害隱私和社會關係的指責,無一不顯現出人類對這項革命性技術的恐懼。
某種程度上,這種恐懼源於算法的不透明性。人類天生會對未知事物感到恐懼,對於人類而言,算法運作宛若「黑箱」——我們負責提供數據、模型和架構,算法負責給出答案,而中間的運作過程卻只在暗處進行。這種合作方式看似給我們帶來極大便利,但是問題在於,如果算法的運作不可監察、不可解釋,將導致人類無法真正理解算法,更不能有效地控制算法,從而也就無法預見和解決算法可能帶來的問題。
難以想像,當人類把未來命運寄託於一項既不可知又不可控的技術會誘發怎樣的後果。「MIT科技評論」曾發表過一篇題為「人工智慧中的黑暗秘密」的文章,指出「沒有人真正知道先進的機器學習算法是怎樣工作的,而這恐將成為一大隱憂。」而紐約大學AI Now Institute的一份報告甚至建議負責刑事司法、醫療保健、社會福利和教育的公共機構避免使用AI技術。
算法的可解釋性隱憂已成為當下多方關注的焦點,也是算法及AI深化發展亟待解決的現實問題。人類渴望理解算法,以期能更好地引導和使用算法。眾多網際網路公司為解決這一問題進行了大量的工作,但由於種種客觀原因的限制,這些努力仍收效甚微。
2
不可解釋的算法帶來歧視
在上個月的Google I/O 2019開發者大會上,谷歌發布的一項名為「TCAV」的新技術因為與消費者無關因此並沒有收到太多關注。但這一項目,似乎為算法可解釋性隱憂帶來了一種新的解決思路。
桑達爾·皮查伊在此次大會上公布了Google新一階段的目標:Building a more useful Google for everyone.(「為每個人構建一個更有用的Google」)。但這項目標實現起來頗有難度,因為它意味著谷歌需要著手解決一系列與算法相關的現實問題,比如算法偏見和算法歧視。皮查伊顯然也意識到這一點,他指出「偏見」(bias)仍然是機器學習領域一個值得關注的問題,當牽涉到人工智慧時,這一問題的風險度則會更高。
許多人認為算法是單純的技術,並沒有什麼價值觀可言,但實際上算法也像它的人類締造者一樣,存在著各種偏見和歧視。究其本質,算法歧視屬於社會結構性歧視的延伸,因為算法的有效性建基於大量數據材料分析,而這些材料大多都源自社會現實,所以究其本質,算法歧視其實是社會結構性歧視的延伸。
比如,訓練分類算法進行圖像識別,讓它能從一堆職業照片中選出「醫生」職業。我們首先要為算法提供大量的醫生圖像進行學習,算法會總結出這些圖像的基本特性,比如白色大褂、口罩、聽診器等等,並將其作為標準在識別工作中予以執行,它會把具備同類特徵的圖像均識別為「醫生」。
但問題是由於種種現實和歷史原因,在當下醫生人群中,男性的比例確實更高。而算法通過上述的學習,並不會理解這是我們當下及未來要努力做出改變的地方,而很可能認定「男性」是「醫生」這一職業判定的相關因素,從而在識別中把女性醫生篩選出去。
另外的例子是與就業求職相關的算法向男性推薦的工作崗位整體工資要高於向女性推薦的崗位,以及美國警方的犯罪識別系統會認定黑人犯罪概率更高。因此,性別、種族等方面的現實偏見通過算法得以延伸。而算法歧視之所以難以解決,歸根結底在於算法的可解釋性問題,如果我們不能理解算法的運作方式,自然也就無法得知它為什麼會延續歧視,更無法對歧視問題進行解決。
但在算法的黑箱運作機制下,AI做出決策的影響因素並不會顯而易見的拉成一個單子擺在研發者的面前。「女性」這一影響因素本身並不會表明為女性,而可能被表述為一系列描述身體視覺特徵的像素向量,對於有色人種和其它需要被剔除的影響因素也是同理。這也導致過往的研發人員不可能依靠「看一眼」就將算法中的偏見剔除。
而從現實角度出發,算法偏見也引發了公眾對AI的認知偏差,已經是其被汙名化的來源之一。種種因素之下,解決算法偏見問題成為目前行業的基本共識。
對於Google來說,這一問題更為迫切。當智能工具為用戶執行任務時的功能越來越多時,算法的可解釋性和透明度就顯得無比重要,因為它等同於用戶對谷歌技術更大的信任和更多的商業化使用。皮查伊表示,要為每個人建立一個更有用的谷歌,意味著解決偏見問題,為此谷歌將著力於提高模型的透明度。而這次皮查伊的底氣,很大程度上來自於TCAV技術。
3
TCAV,讓普通人理解算法的運作方式
TCAV是「概念激活向量測試」(Testing with Concept Activation Vectors)的縮寫。由於這項技術主要面向開發人員和數據科學家,而且暫時不開放給第三方使用,所以並不是Google I/O 2019的主角,在相關報導也都被一筆帶過。但與其低調的形象不同,TCAV實際上作用極大,並且應用前景極為廣闊。
早在開發者大會之前,數據科學家Been Kim團隊就發表了一篇Interpretability Beyond Feature Attribution : Quantitative Testing with Concept Activation Vectors (TCAV)的論文,詮釋了TCAV的作用原理。總體而言,TCAV是一種算法可解釋性的方法,能夠直觀顯示神經網絡模型運算所依據的概念及其比重。正因為如此,TCAV也是一種算法歧視糾偏技術,因為它可以被用於觀察其他AI模型中的算法歧視傾向。
人類之所以不能理解算法的運作規則,是因為二者「認知方式」存在差異:人類往往使用各種高級概念進行思考和交流,而大多數機器學習模型則關注低階要素,運用大量抽象概念進行「思考」。比如,人類之所以能判定一張圖中的動物是斑馬,主要依據它的身形、黑白條紋等高級概念;但算法卻不一樣,它考量的是不同特徵屬性(Feature Attribution)的權重。對算法來說,一幅圖像中的每個像素都是輸入要素,它會關注圖片中的每一個像素的顯著程度,並賦予它相關的數值,以此作為識別的依據。
問題就在於,人類無法理解算法所採用的識別方式。因為我們在描述事物時,會直接動用顏色、形狀等各種高級概念,卻永遠不會說圖像的第6個像素的值是33。因此,即便得到算法運作所生成的各種數值,也無助於我們理解算法的運作過程。
而可解釋性的初衷就是使人類更容易理解機器學習模型,特別是對那些缺少技術背景的人更是如此。那麼,能不能夠讓算法的運作方式以人類能看懂的「高級概念」的形式予以呈現?TCAV技術試圖解決的正是這個問題。
與典型的可解釋性方法不同,TCAV目標是將支撐模型的變量以人類能夠理解的高級概念表現出來。它能直觀顯示在算法運作中各種高級概念的權重,比如顏色、性別、種族、年齡等(即便該概念不是訓練的部分)。
比如,一個訓練有素的模型能夠檢測圖像中動物是否是斑馬,而TCAV可以幫助我們理解哪些變量在識別圖像時發揮了作用,以及各自發揮了多大的重要性,因它對我們理解模型預測原理幫助很大。由結果可見,在各項概念中,「條紋」(Stripes)佔據的權重最高,「馬的形體」(Horse)次之,「草原背景」(Savanna)的權重最低,但也有29%。
而 TCAV 的這一功能被用於算法糾偏非常合適,當我們把它的這項能力轉移到涉及社會現實的識別模型上時,就可以清晰地判定該模型是否涉及歧視。比如,一個用於識別醫生圖像的算法,由TCAV的結果可見,其高權重的識別概念包括「白色衣服」、「聽診器」以及「男性」等。前兩個影響因素是正確的,但關於性別的判斷則意味著模型出了偏見需要通過進一步訓練進行糾偏。
從更廣闊的前景來說,TCAV 可以讓普通人也能夠輕鬆理解算法的「思維」,因為它讓我們可以理解算法思考過程的每一步。因為 A 得到 B,所以 C,最後得出了 D。而不是像以往的 AI 那樣給予 A 的輸入便獲得 D的結果。這一功能可被應用於其它領域而並非只是用於算法糾偏。
4
結 語
TCAV的重要意義在於,它不僅在技術層面以一種極為有效的方式解決了算法的可解釋性問題,而且它以人類所使用的高階語言為呈現形式,即便是沒有技術背景的普通人也可窺見算法究竟以何種標準進行運作,是否有所偏倚,進而能夠及時解決算法偏見和算法歧視問題。
要知道,算法和AI並非張牙舞爪的妖魔鬼怪,無端的恐懼和憂愁均無助於問題的解決。它更像是正在學步的孩童,需要我們藉助於TCAV這樣的解釋性工具進行對話、達成理解並幫助它更好地成長,這才是引導科技向善的體現。