原創 張詠雪 定量群學
算法越來越多地代替人們進行決策,管理著信息、勞動力和各種資源的分配,協調著各方利益。但是算法治理可能損害社會公平,因為算法可能會優先考慮部分人的利益,而犧牲其他人的利益。當權威嵌入到技術本身而不是傳統的治理形式中,治理算法就變成了引導、挑撥、控制、操縱和約束人類行為的算法。這些問題都不能通過純技術方法來解決;算法的設計需要一個規範來引導。
一個理想化的算法,需要具備這些特點:1、理解公眾的道德期望;2、符合各種公平的概念3、滿足利益相關者的需要和要求。利益相關者參與決策是解決這個問題的最佳辦法。它的優點包括:1、增強決策的合法性;2、增加信任和滿意度,從而增強人們的需求;3、提高效率;4、有助於實現道德價值及其相關權衡,如公平和效率。於是這篇文章運用傳統的參與性決策框架來解決算法的問題。
一、在算法中嵌入社會道德價值的困難首先,已有的研究試圖通過計算方式的設計,將道德和社會價值編碼進算法之中,但這依賴人類的定義方法和算法的目標函數。
其次,社會價值的多元性使得目標無法在同一程度上得到滿足,這需要做出權衡決策。例如,不能同時保證所有的公平原則都被體現;難以兼顧效率和公平。
最後,社會和道德價值取決於情境。不同的社會群體相信不同的公平原則,人們希望可以在不同的情境中按照不同的公平原則進行運作,公平原則必須根據具體情況而定。
二、參與式治理框架的合理性參與式治理框架建立在社會選擇理論之上。社會選擇理論將人們的意見、效用和福利等方面進行量化定義,然後根據關鍵的特徵將他們集合化,由此達成一個共識。投票是最常見的聚合方法之一,這種方法能選擇出支持度最高的選項,同時將偏見最小化。
三、框架的建立該框架的關鍵思想是建立一個代表每個利益相關者的計算模型,並讓這些模型代表他們的創造者進行投票。這就像一群人一起做決定:每個人決策過程的計算模型為每個決策做出集體選擇。
圖1 WeBuildAI框架的展示
圖1框架的解釋,依次由左到右:
1.建立個人決策模型;
2.進行模型的集體聚合;
3.解釋和進行決策。
WeBuildAI框架讓利益相關者參與到算法設計的過程中,個人創建的計算模型體現了他們對算法政策的看法,並代表個人進行投票。
四、具體應用:捐贈分配匹配算法「412食物救援」是一個非營利性組織,其連接食品供應方、零售商店、志願者與一些需要食物救援的人。該研究與「412食物救援」組織合作,通過WeBuildAI框架對各方進行匹配,一旦做出了匹配的決定,該組織就會在他們的應用程式上發布救援信息,這樣志願者就可以註冊,把捐贈物送到接受捐贈的組織。每一次救援服務的成功取決於所有利益相關者的參與——源源不斷的捐贈、受贈組織接受捐贈的意願、志願者運送捐贈的努力,以及412食品救援行動的支持和監督。目前的服務量太大,人工的決策效率已經無法滿足需求。
1、個人模型的構建
(1)特徵選擇。
通過訪談或調查來徵求意見,確定算法中應該使用的特徵集。所選的因素包括運輸效率、受援者的需求和時間分配模式(表2)等。例如,貧困率是受助者需求的指標;受助者和捐贈者之間的距離是效率的衡量標準;每個受贈人最後一次收到捐款的時間是衡量一段時間內分配模式的指標。
表2 各種影響決策的因素
(2)建立模型。
此研究使用機器學習和顯式規則模型兩種方式。
A、機器學習模型。
為了訓練一種能反映人們決策標準的算法,機器學習方法在前一步得到的特徵集(表2),然後根據因素隨機生成兩個潛在受助者,並讓人們選擇哪個應該收到捐贈(圖2a)。
利用隨機效用模型,每個參與者對每個對象都有一個真實的效用分布,當被要求比較兩個對象時,從每個分布中抽取一個值。對每個參與者i,學習一個單一的向量βi,這樣每個潛在決策x的效用為µi(x) = βiT x。然後,通過標準梯度下降技術使用Normal Loss學習與βi有關的向量。
B、顯式規則模型。
在這個方法中,參與者直接指定他們的原則和決策標準,會使用表2中所示的相同因素創建一個評分模型,要求參與者創建規則來給潛在的接受者打分,這樣得分最高的接受者將被推薦。參與者給不同的特徵賦值(圖2b)。
如果進行了顯式規則模型建模之後,他們的想法改變了,又會回到兩兩比較的機器學習訓練中。然後對比新舊兩個模型(如圖3),選出更能體現自己觀點的那個模型。有13名參與者在第二階段之後選擇回答另外50-100個問題來重新訓練他們的機器學習模型。
圖2 機器學習模型與顯式規則模型
圖3 模型結果中各因素與得分的關係可視化
(3)模型選擇。
將兩種模型進行可視化,以便參與者能夠理解每個模型並且選擇出最能代表他們想法的模型。在半結構化訪談中,詢問他們的經驗和選擇最終模型的原因。研究者還分析了每個個體模型分配給每個因素的beta值(每個模型的標準化參數),或分配給每個因素的最高分數。由於所有的特徵輸入都被歸一化了(從0到1),使用beta值的強度來對各因素在每個個體模型中的重要性進行排序。
15名參與者完成了所有的過程,並被要求選擇更能代表他們想法的模型,其中10人選擇了基於他們的兩兩對比訓練的機器學習模型;其他人選擇了他們明確指定的模型。機器學習模型比顯式規則模型更能體現參與者的想法。
2、集體聚合
這個研究使用了Borda投票方法,因為它相對簡單,並且在面對真實偏好的噪聲估計時具有強大的理論保證。
Borda規則如下:
給定一組投票者和一組m的潛在分配,其中每個投票者都給出一個各種分配方式的排名,排在位置k的分配方式,得分為m-k。每種分配方式的博爾達分數是所有的得分總和。
當各個利益相關者創立了個體模型,這些模型被嵌入到AI系統中來代表他們。每個單獨的模型對所有備選方案進行排序,再使用Borda規則聚合生成一個最終的排序列表。
3、算法決策與人類決策的比較
將算法決策的結果與人類決策進行比較。412食品救援的歷史分配數據跨度為5個月(2018年3月-8月),169名捐贈者提供的共計1760份捐贈。在這個資料庫中運行算法後,有380個符合條件的受贈者組織,其中277個在我們考慮的時間範圍內接受了捐贈。將算法(AA)的結果與記錄在歷史數據中的人工分配記過(HA)進行比較(如圖5所示,RA為隨機匹配結果)。
結果表明,算法可以在不損害效率的情況下使捐贈分配更公平(圖5)。Mann-Whitney U test顯示,與人類決策相比(Median = 18.3%, SD = 13.73%),算法決策將食物分配給了貧困機率更大的地區(Median =21.6%, SD = 14.44% ,U =1303400, p < .00000001)。同時算法決策結果中捐贈方和受贈方的距離也顯著比人類決策結果的要短 (U = 1646900, p = 0.001)。
所有參與者都認為在最終算法中給予不同利益相關者的權重應該取決於他們的角色。平均而言,參與者將46%的票投給412食品救援組織,24%分配給受援組織,19%分配給志願者,11%分配給捐贈者。為了將這些權重轉化為Borda聚合,研究者給每個利益相關者組分配了與其權重相稱的總票數,並在每個組內將選票平均分配。
圖5
推薦理由
算法決策的過程往往被形容為一個黑箱,而其通過數學公式和專業化術語的包裝將一些潛在的人類偏見和權威偏向包含其中。除了作為設計者的算法工程師,算法決策的內部過程,看似是其他人類意志所無法企及的地方。然而這篇文章通過一個巧妙的設計和真實的案例應用,將人類意志與算法意志結合起來,讓算法在保證效率的同時提高其公平性。在算法治理決策的設計中體現社會道德價值,一直是算法社會學研究同仁的美好願景。我想這是一個很好的參考,可以通過更好地設計來實現科技向善,而這裡面也有社會科學家可以努力的空間。
推薦人
張詠雪,中山大學社會學與人類學學院社會學系在讀博士。研究方向:算法社會學,人因工程與社會互動。
參考文獻
Lee, M. K., Kusbit, D., Kahng, A., Kim, J. T., Yuan, X., Chan, A., ... & Procaccia, A. D. (2019). WeBuildAI: Participatory framework for algorithmic governance. Proceedings of the ACM on Human-Computer Interaction, 3(CSCW), 1-35.
原標題:《算法治理的參與框架》
閱讀原文