【觀察者網按:網際網路治理是各國政府面臨的新挑戰。「沒有網絡安全,就沒有國家安全。」習近平在今年2月新成立的中央網絡安全和信息化領導小組會議上指出。哈佛大學政治學系教授金加裡(該校僅有的24位「校級教授」之一,是亨廷頓教授頭銜的繼承者)長期關注中國政府的網絡審查制度,曾與兩位學生合作撰寫論文《中國網絡審查制度如何允許批評政府卻禁止群體煽動》,因觀察者網譯介而在中文網際網路引發熱議。金加裡教授通過分析中文社交媒體數據,得出結論:中國並不介意任何批評政府的網絡言論,其審查標準是煽動群體性事件的可能性。在維護社會穩定、管控違法事件這一點上,中國與西方國家的網際網路治理並無二致。但該論文只是作為旁觀者的觀察,其資料有兩個缺陷:1.有些帖子在未發表前已被屏蔽,沒有涵蓋審查制度的全部流程;2.僅限於已有的觀察經驗,只能「歸納」出結論,無法得出「煽動群體性事件=>審查」的因果推斷。
擅長量化研究的金加裡教授隨後又向美國政治學會2013年會提交了新的論文。他的團隊做了以下新的工作:1.在中國建論壇,掌握中國網絡審查制度從頭到尾的第一手材料;2.發帖子,實際檢驗「是否煽動群體性事件」、「是否批評政府」這兩項標準的真偽。金加裡教授通過嚴謹的隨機性試驗再一次證明了自己的結論。不僅如此,他在本文提出:1.由於自動審查機制的機械性,支持政府的網絡言論比批評政府的言論更容易遭到屏蔽(「反腐敗」和「真腐敗」在機器看來都是需要過濾的敏感詞);2.同一個中國,各個社交媒體實際審查力度不均,國企運營的社交網站尺度比私企嚴格,但最大的用戶群體卻屬於私企。這些現象值得關心中國網絡安全的人士注意。斯諾登事件讓中國人明白,網絡安全的世界裡,沒有誰是可以膜拜的老師。中國作為網絡和信息產業的大國,需要自己摸索出一條網際網路治理的道路。觀察者網再度全文譯介金加裡教授的論文《針對中國網絡審查制度的隨機試驗研究》(觀察者網朱新偉、王楊/譯),我們將持續關注這一話題。】
中國作為網絡和信息產業大國,需要自己摸索出一條網際網路治理的道路。
針對中國網絡審查制度的隨機試驗研究
金加裡 珍妮弗·潘 瑪格麗特·羅伯茨
2013年10月6日
摘要
中國政府審查社交媒體,這是人類歷史上最大規模的、有針對性的信息幹預行為。關於這一主題已經有系統性的研究。但研究手段都是被動的旁觀,其推論具有很大的局限性。我們通過實際參與和試驗,希望提出更為有力的因果推斷和描述推斷。為了證明因果推斷,我們發起了一項大規模的隨機試驗,在中國大量的社交媒體上創建帳號,上傳隨機分配的文本,然後通過全球計算機網絡偵測這些文本是否遭到屏蔽。為了獲取描述推斷,我們除了匿名訪問以外,還在中國建立了一個自己的社交媒體網站,與中國公司籤訂合同,安裝現有各大網站使用的審查軟體,反過來考察審查機制。我們的試驗結果支持並拓展了以下觀點:對國家、領導人和政策的批評都可以在網上正常發表,而含有群體性事件(collective action,原譯「集體性行動」,本文譯為「群體性事件」,以貼合社會治理的範疇——觀察者網注)可能性的文本遭到屏蔽的機率要大得多。我們還解釋了中國審查制度的內部機制,並證明,地方網站審核手段(非審核內容)的靈活性要比原來想像的大得多。
1 引言
中國政府實行「世界上最複雜的內部內容控制系統」(Freedom House, 2012),安排數以十萬計的人員有計劃地延緩某些類型信息的傳播速度。然而,該組織的規模和影響已經足以讓研究者們通過被動觀察來發現其審查制度的某些宗旨和程序,以及中國政府的意圖。我們希望突破被動觀察的限制,使用試驗和參與的方式進行因果推斷和描述推斷。
我們先從理論開始。此前對於中國審查制度宗旨的研究假設了「批評國家」與「群體性事件可能性」兩種思路,並發現,前一種思路基本上是錯的,後一種是對的:在社交媒體上惡毒地批評政府,這並不會遭到屏蔽,但以政府不允許的方式動員人群,則將遭到審查。這表明,即使是支持政府的言論,如果其中涉及到群體性事件的話,也會遭到屏蔽(King, Pan and Roberts, 2013)。(參見觀察者網對該報告的譯介《哈佛報告:中國網絡審查制度如何允許批評政府卻禁止群體煽動》——譯者注)
這兩種理論都同意,維護政權穩定(Shirk, 2007, 2011; Whyte, 2010; Zhang et al., 2002)是言論審查的最終目標。例如,一些學者曾經以為審查者會刪除批評政府的網絡言論、歪曲那些支持政府的網絡新聞,並認為這可以減少群體性事件(Esarey and Xiao, 2008; MacKinnon, 2012; Marolt, 2011)。不過,即使篡改新聞能夠降低群體性事件的可能性,上述學者仍然忽略了社交媒體上的公開批評對中央政府和中共中央的借鑑價值(Dimitrov, 2008; Lorentzen, 2010, 2012; Chen, 2012)。畢竟,威權體制下的領導人的工作很大一部分是緩解輿論焦慮,保證不發生群體性事件威脅穩定。及時了解地方領導及其他官員的腐敗、瀆職等批評,這對於上級而言是十分寶貴的信息。受到批評的領導將被替換,代之以維穩能力更強的人才,確保體制及時回應民意。這種「回應性」體制(responsiveness)能夠比粗暴幹預新聞更有效地降低群體性事件發生率。
King, Pan and Roberts(2013)的論文研究對象範圍頗廣,分析了近1400個中國網站的1100萬個帖子,但這篇及其他相關論文針對審查制度的定量研究僅僅是描述性的(Bamman, O』Connor and Smith, 2012; Zhu et al., 2013),其中某些結論的大前提未經檢驗。例如,上述研究的數據實際上已經遭受管控,許多社交網站都會設置自動審查,先將帖子放在某個緩存庫,待審核後再進行發布。事後審核通常由人工進行,大約會有24小時的滯後;而事先審查則是自動、即時的,幾乎沒有辦法通過肉眼觀察來分析。重要的是,事先的自動審查程序導致既有的學術研究產生數據盲點,研究者們只能分析那些已經通過自動審查程序過濾的帖子。由此可見,觀察式的研究會存在自我循環論證等問題。
為避免上述問題,並研究自動審查的具體機制,我們發起了一次大規模試驗,用隨機的數據分配來代替猜測。我們採取了參與式的手段,在全國許多社交網站上創建帳戶,基於現有的社交媒體內容撰寫文本,然後提交給各個網站。文本內容確保符合原網站的話題範圍,然後隨機分配不同內容的帖子,從全球網絡觀察這些帖子最終是被發布還是刪除。此前有過小規模的非隨機性試驗MacKinnon(2009),但據筆者所知,本文是針對中國審查制度的首次隨機性、試驗性研究。
我們使用因果推斷來實施隨機性試驗,除此以外,我們還希望擴充關於審查機制的描述性知識——這本身就很重要,更何況,對我們的因果推斷也有幫助。迄今為止,收集到的信息大多是來自於社交媒體與政府部門審查人員的匿名訪談,內容有局限性、不完整且很難搜集。我們採用親身參與來搜集信息。所以,我們在中國內部設立自己的社交網站,與中國最流行的論壇服務平臺籤訂合同,提交、自動審查、發布和刪除我們創建的帖子。這個網站只有我們研究團隊的成員才能訪問,以避免影響研究對象或介入既有的中國社交媒體話語。我們得以使用審查軟體的交流論壇,與技術支持人員討論,獲得他們的建議。這些「採訪」的信息量很大,因為回答軟體技術問題正是他們的本職工作。
在本文的第二部分,我們將概述試驗的設計框架,以及安裝、執行過程中意想不到的實際困難(附錄A亦有論述)。這部分還描述了我們在創建社交網站過程中的觀察,審慎地界定我們的試驗平臺。我們發現,許多地方性社交網站在實施政府的審查原則時具有極大的靈活性和豐富的技術手段。第3部分陳述了試驗結果,第4部分將群體性事件理論推向極致,以尋找其理論適用範圍。總之,我們發現群體性事件理論有著充分的證據支持,但各大網站在落實審查原則時的自由度超乎預期,此前通過觀察式研究無法偵測的事先審查機制也具有一定的選擇性。通過上述研究,我們得以揭示審查機制的許多其他方面,以及地方領導的激勵機制。我們還能夠處理原來無法解釋的一些問題,包括涉及反腐、外國事件、網絡事件、領導人名字的帖子是否會遭到額外關照。第5部分即結論。
2 試驗設計框架
對於這個阻礙信息自由流動的體制,我們進行了大規模試驗、參與和數據收集,其中遇到不少困難,包括身份保密、遠距離溝通、保證研究團隊安全,並且我們還不能更改既有的審查機制。我們的工作人員身份已經預先獲得本校機構審查委員會認可。由於眾所周知的原因,我們無法揭露本試驗的一些細節,但我們將說明整個過程的前因後果。
我們先討論研究過的變量,然後描述試驗的一些基本原則。
2.1 通過參與學習審查機制
我們獲取了與中國政府和社交媒體審查者訪談的第一手資料。其中有些訪談含有重要信息,有些則過於偏頗或含糊。
因此,我們希望另闢蹊徑獲取更多信息,甚至包括改變接洽信息提供者的方式。我們在中國國內創建了自己的中文社交網站,使用各種設施、程序,並遵從中國現行法律。我們購買了URL地址,與一家公司籤訂合同購買網絡伺服器,然後與另一家公司協商,獲取網絡社區所必須的軟體。我們自行下載、安裝了該軟體。這使得我們完全掌握了該軟體及其支持文檔,然後針對其功能進行深入的理解和應用。重要的是,我們還可以便捷地向這些公司諮詢,他們十分樂意向我們講解整個審查方式,確保我們的網站按照政府的相關規定正常運營。因此,我們沒有花時間去說服調查對象,就能夠與相關職員進行對話;幸運的是,他們十分熟悉本職工作。我們對該軟體進行了個性化定製,自行提交帖子,然後使用該軟體刪除其中一部分帖子。我們儘可能地防止無關的中國網民訪問本站,以免幹擾真實的中國社交網絡空間。
就調查資料而言,我們最驚訝的是,自動審查和人工審核的技術手段頗為豐富,超過我們原先的想像。表格1總結了其中一部分技術選項。
我們在安裝該軟體時發現,默認選項包括了「不審查」或「不屏蔽」。但網管們可以輕易地更改選項,選擇自動審查某類用戶(版主、超級用戶、禁止發帖、禁止訪問等)、IP抵制、新帖子、新回復——這些都可以根據論壇的具體情況而自定義設置。此外,還可以根據特定數據範圍、用戶名、關鍵字、帖子長度等因素來實施批量刪帖。網管在後臺可以自定義搜索,根據用戶名、帖子標題和內容檢索特定內容。用戶的訪問區域也可以自行限制:可以關閉用戶的搜索功能,網管可以選擇是否允許用戶閱讀自己被屏蔽的帖子。
我們向該軟體的員工諮詢何種技術最受歡迎,獲得了他們的熱情答覆。基於他們的推薦,以及用戶手冊、數據分析和單獨訪問(包括匿名採訪),我們推斷,社交網站最常用的自動審查方式是關鍵詞匹配檢索,其關鍵詞列表可能是手動更新維護(我們在逆向設置了個別關鍵詞,見下文)。[1]
依據自身經驗,我們繪製了審查程序,如圖1所示。審查程序始於用戶撰寫、提交博文或微博。帖子要麼立即發布(圖中的第一個框),要麼需經審查(第二個框)。如果立即發布,這個帖子可能會在24小時內經過網管人工審核,以決定繼續發布或當即刪除。如圖1的截圖所示,網管的決定和刪除行為都十分清晰,毫不含糊。
接下來,網管可以(一兩天內)閱讀每一個帖子,決定發布(第三個框)或屏蔽(第四個框)。另外,基於過往的帖子,網管可以屏蔽某些帳號(最後一個框)。關鍵是,此前King, Pan and Roberts(2013)收集的數據局限於前三個框,而本次試驗則可以涵蓋全部五種情況。
2.2 試驗方案
我們希望在沒有任何建模預設條件的前提下,進行可靠的因果推斷。我們的試驗方案如下。首先,我們選取100個社交網站,其中包括中國排名最靠前的97個博客網站,它們涵蓋了國內87%的博文。另外,還有3家微博(類似於Twitter):新浪微博(weibo.com)、騰訊微博(t.qq.com)和搜狐微博(t.sohu.com)。前兩家微博各有逾5億用戶,每天的活躍用戶高達5千萬至1億。這100家網站地理位置分布於中國各地,由各級政府、國企和私企運營。其中有些網站面向全國用戶,有些則只允許當地人發帖。其中一些網站規定,註冊用戶必須在中國國內、某個特定地方、本地的電子郵件地址或聯繫方式。我們在每個網站各註冊了兩個帳號。
本次試驗的思路緊跟King, Pan and Roberts(2013)一文。那篇論文的結論不是說每一個有可能引起群體性活動的帖子都會被刪除。畢竟,幾乎每件事情理論上都存在引發群體性活動的可能性。其真正的結論是,(無論支持或反對政府的)帖子,只要涉及到群體性事件就會被刪除。群體性事件是指:「(a)包含線下的抗議或人群聚集;(b)涉及到過去曾經組織、煽動群體性事件的人;或(c)涉及到過去曾引發抗議或群體性活動的民族主義情緒。」(King, Pan and Roberts, 2013, p.6).
我們共進行三輪試驗(分別是2013年4月18-28日,6月24-29日,6月30-7月4日)。每一輪試驗一開始,我們搜尋那些引起社交媒體大量討論的新聞和群體性事件。我們把群體性事件與非群體性事件按照1:2的比例分配,因為群體性事件相對較少,我們用不同的非群體性事件加以平均。我們選擇的非群體性事件均涉及社交媒體熱烈討論的中國政府、官員、共產黨的相關行動。這些行動不存在發生群體性活動的可能性。我們儘量選擇涉及官員名字的事件,尤其是那些存在「敏感」話題的。(我們還加入了兩個極端案例。參見本文第4部分。)全部事件的細節參見附錄A。此處,我們列舉4個試驗期間發生的群體性事件,其爭議程度並不均等。
1. 一位名叫Qui Cuo的20歲母親自焚,其葬禮引發抗議。(應為Qiu Cuo[秋措Chugtso]——譯者注)
2. 福建廈門市潘塗村(原文誤作Panxu——譯者注)村民抗議徵地補償過低。農田被用來建造高爾夫球場。村民代表去當地政府要求補償,但遭到拘禁。數千名村民要求釋放,警察逮捕了一些村民,村民則打砸警車,拘禁村支書。
3. 艾未未在被捕兩周年之際發唱片。
4. 新疆鄯善縣魯克沁鎮暴力恐怖事件。
我們讓以中文為母語的工作人員根據網絡輿論撰寫帖子,有的帖子內容支持政府,有的反對政府。我們告訴寫手們事件背景和立場(參見附件A),並提供他們一些網上現成的帖子作為參考。為了減少試驗偏差,我們逐句檢查,確保寫手們撰寫的內容沒有超乎現有社交媒體討論的範疇;我們尤其注意,帖子的語言和情緒要和中國社交媒體的現狀相仿。帖子內容不得雷同。所有帖子在中國時間早上8時至下午8時之間提交,根據不同網站技術要求,我們在美國或中國上網發帖。
我們感興趣的是支持、反對政府的內容,以及群體性事件、非群體性事件的內容,由此引出4種不同類型的帖子,它們是否與審查制度存在因果關係。為了最大限度地利用每個帳號,我們每個帳號提交兩個帖子。但一個帳號(相當於一個人)如果針對某一個事件一會兒發帖支持政府,一會兒發帖反對政府,那就荒唐了。因此,我們一個帳號針對兩個事件發出兩個帖子,支持政府的群體性事件,反對政府的非群體性事件;或者是,反對政府的群體性事件,支持政府的非群體性事件。這樣,每個帳號都能適用於我們所假設的因果關係。為了得出因果推斷的可靠結論,我們還保證了以下因素的隨機性:(a)兩個帖子的類型,(b)先後順序,(c)群體性事件與政策性事件隨機分配。倘若帳號失效,或帳號因為此前的帖子被封,新提交的帖子可能會遺失。由於本次試驗的隨機性,帖子遺失的情況基本上會是孤立事件;我們試驗的結果證明的確如此。
我們涉及的100個網站各自有其獨特的網民表達方式。我們儘可能讓每個帳號在網站主頁上發帖。對於論壇,我們儘可能在最受歡迎的論壇板塊開帖。如果網站不允許開新帖,那我們就在與事件最相關的帖子下面進行回復。我們儘可能跟隨現有信息撰寫內容,追隨社交媒體、網站和文化風氣的導向。我們總共人工撰寫了1200個帖子,每一個都單獨成篇、互不影射。
我們提交帖子之後,開始觀察它是否(自動)接受審查;如果存在審查,那就看它會不會被發布出來,什麼時候發布出來;如果自動審查程序沒有過濾掉它,那就看它會不會被人工刪除。一旦帖子成功發布在網上,我們記錄下URL(網頁地址——觀察者網注),並檢驗是否存在審查。我們記錄下審查結果。整個過程如圖1所示。
我們總的目標是,防止外人看出來我們發帖是為了做學術研究,讓自己看起來和其他網民沒有任何差別,不幹涉社交媒體原有的生態系統。我們還要確保自己的檢驗手段不會妨礙網站審查程序。截至本文發表前,還沒有任何外人察覺到本次試驗,也沒有人懷疑我們發出的帖子的真實意圖。
3 試驗結果
我們發現,總的來講,自動審查機制影響了中國很大一部分社交媒體的生態。我們採樣的100個網站中,有66個網站(自動)審查了提交的新帖子。我們提交的所有帖子中,有40%的帖子(在實行自動審查程序的網站中,這一比例更大,達52%)會被列入審核狀態。被列入審核狀態的帖子中,有63%的帖子最終未能發布出來。因此,審核影響了中國網民的發言,值得學術研究者們關注。我們現在進一步考察審查機制的變量,然後再研究審核機制。
3.1 審查
我們採用更大的樣本驗證「群體性事件理論」。該樣本未受到自動審查程序選擇的影響,而且是隨機選取的。圖2左圖中的黑點代表四個孤立事件的帖子和審查之間的因果關係,我們用點估計(用樣本指標數值作為總體參數的估計值——譯者注)的方法進行了統計。垂直線段的置信水平是90%(即各數值有90%的可能落在這條線段上——譯者注)。結果差異很大,高達20至40個百分點(如垂直線段所示),而這僅僅取決於帖子描述的是群體性事件還是非群體性事件。(圖2的縱坐標「審查差異」指的是,煽動群體性事件的帖子被審查的比例減去不煽動群體性事件的帖子被審查的比例——譯者注)
我們還進一步研究了圖1中其他的決策路徑。首先我們估算群體性事件(和非群體性事件)帖子和審查之間因果關係的中間變量(Imai et al., 2011; Pearl, 2001),我們發現幾乎所有的結果都不受自動審查的影響:其可能性僅為0.003,置信區間是(-0.007,0.016)。上述每個事件的結果如圖2中右圖所示,都接近於零,置信區間也很小。因此(這裡作為中間變量的)審查是全自動的,而且不受其他相關變量的幹擾。跟其他關鍵詞自動審查一樣,其大規模應用的效果並不好。而實驗結果甚至顯示,似乎審查者常常忽略這種方法,至少沒有從中獲得什麼有用的信息。(我們在下一節詳細研究這個問題)
群體性事件與審查之間的因果關係很明顯,與上述方法類似,圖3用4個群體性事件和8個(非群體性)政策性事件來檢驗「國家批評理論」。黑點代表每件事情中,支持政府和反對政府的帖子被審查的比例的差值,我們用點估計的方法進行統計。可以看出,所有的點都很接近橫坐標軸,6個在上,6個在下。而且有11個點的置信區間都穿過了坐標軸。要特別注意,沒有跡象表明反政府的帖子受到更多審查,即使是尤其敏感的事件或提到國家領導人名字時也是如此。
3.2 自動審核
結果非常明顯,群體性事件理論比批評國家論更站得住腳。自動審查程序對支持該假設的證據的影響微乎其微。我們現在回到圖1中的決策樹,直接研究自動審查程序。
我們首先注意到有的網站並未啟動自動審查程序,且不同網站之間的審查方法千差萬別。我們在創建自己的社交網站時也發現了這一點。我們的軟體不僅有是否開啟審核的選項,還有多種多樣的審查標準。
為什麼政府在自上而下的專制統治中,允許自由選擇多種多樣的審查方法呢?為了回答這個問題,我們仔細研究了社交網站上控制信息的多種軟體平臺和插件。我們目前的結論是,政府是在(很可能是有意)促進審查科技的創新和競爭。通過權力下放鼓勵創新,這在中國很常見(Blanchard and Shleifer, 2000; Heilmann and Perry, 2011; Qian and Roland, 1998; Qian and Weingast, 1997)。
通過對內部人士的採訪,我們還發現,具體的審查要求和政府對社交網站運作實施幹預的規則存在很大的不確定性。這一點在跟政府聯繫不多的小網站上尤其突出。這種不確定性部分是為了鼓勵創新,但在某些情況下也是一種控制手段——模糊的界限比清晰的界限更容易讓人卻步。
我們從了解社交網站使用的自動審查程序入手,開始了系統的實證研究。圖4表示被審查的帖子比例分布直方圖。我們將網站按所有權的不同分成三類。圖中可以看出,政府網站審查帖子的機率最高,其次是國企網站,最後是私營網站(這類網站往往擁有最大的用戶群)。
為什麼政府網站要在自動審查之後才發布帖子,而私營網站先發布再審核?根據我們目前掌握的定性證據,原因在於發布違規帖子面臨的懲罰不同。一個政府網站的工作人員若不能阻止群體性行為,可能會立即丟了工作;相比之下,私營網站的員工若犯了同樣錯誤,一般不會直接被政府開除。
確實,聽話、不犯錯是公務員的「光榮傳統」,即便這樣做的代價是效率低下(Egorov and Sonin, 2011)。相比之下,私營網站有動機去儘可能多地更新,這樣才能吸引更多用戶。私營網站當然有可能被整體關停,但這種「核打擊方案」用得並不多,更多的是對網站管理者的一般性壓力。
這些政府網站主要審核什麼呢?我們用圖2和圖3中採用的類似方式測試審查的最終變量(即不考慮中間變量),分析自動審查對群體行為以及支持和反對政府的帖子的效果。圖5是結果:共產生了4個正面效應的結果,但是有兩個很小,還有3個的置信區間包含負值。假如審查者的目的是截獲群體性事件,那麼自動審查最多只是幫了一點忙。雖然關鍵字算法可能通過編輯,對特定案例有很好效果,但當廣泛應用時,這種方法往往敏感度低,且針對性差。
圖6中支持/反對政府帖子的因果關係也很有趣。它們的值都很低,且絕大多數置信區間包括0。事實上,如果這裡面存在零和博弈,那支持政府的帖子被審核的數量比反對政府的帖子還要多!確實,12個裡面有9個點是大於零的,有兩個的置信區間甚至完全在橫坐標之上。這有點費解:政府社交網站傾向於推遲發布支持政府、領導人或政策的帖子。而私營網站基本不用自動審查程序。這是為什麼呢?我們發現答案依然是非常不精確的關鍵詞算法程序。
為了弄清個中原由,我們逆向倒推中國關鍵詞算法程序,希望找出被審查的帖子跟未被審查的相比,究竟包含了哪些關鍵詞。由於詞語的數量遠遠多於帖子的數量,我們無法一個個找到這些詞語。不過,通過使用「詞頻、逆文檔頻率」算法(Salton, 1988; Kelleher and Luz, 2005),我們找出了跟審查高度相關的詞彙。具體而言,我們記錄被審查的文檔中每個詞語的使用次數,然後除以未被審查的文檔中同一詞語出現的次數。這樣就能計算出被審查的帖子中每個詞語的詞頻。這一數值越高,該詞語就越有可能是關鍵詞。
根據我們的估計,表2所列是自動審查程序中使用最多的關鍵詞。從這些詞彙貌似可以發現群體行為,同時涉及政府及其行動。但這些詞彙在支持和反政府帖子中出現的可能性是一樣的。比如,圖4中反腐政策話題,支持帖比反對貼被審查的更多。這或許因為前者使用了更多的「腐敗」。但是腐敗一詞也會用在讚揚新政府鐵腕反腐的帖子中。使用自動審查程序的網站很少,即使使用,往往也是無效的。它還可能產生反作用,延遲發布支持政府的帖子。
我們還能檢驗這些關鍵詞的準確性。在開辦網站的過程中,我們獲取了一張審查關鍵詞表。這是一個軟體商給其社交網站客戶提供的。這張表截止到2013年4月,之前發生所有事件的關鍵詞都在上面。
這樣看來,政府社交網站的員工是非常害怕冒險的,為此他們不惜採用最易出錯的自動審查,以此自保。但他們顯然明白,不能把自動審查太當回事,所以人工審核依然很普遍,而我們的實驗結果也表明,自動審查並不影響群體性事件和審查決策之間的因果關係。
4 極端案例
現在我們來定義群體性事件理論的外延。我們選取接近但不包括在該理論中的案例。第一個案例中發生了群體行為,但僅發生於網際網路。2013年5月底,海南萬寧二小校長因帶6名小學女生去賓館開房被警方帶走調查。中國一位女權運動領袖葉海燕前往萬寧二小,手舉標語,上寫「校長,開房找我,放過孩子們!聯繫電話:12338(葉海燕)」。葉海燕的抗議引發關注,而「校長,開房找我」也成為網絡熱詞,網民們上傳自己的照片,用同樣的標語,但他們留的電話號碼往往是110。
第二件事發生在2013年7月1日,這天是香港回歸16周年紀念日。每年的這個時候,香港會有數千人遊行抗議,但大陸往往不會發生類似的抗議。2013年,大約3萬人(警方提供數據)到43萬人(組織者提供數據)走上街頭呼籲施行真正的民主,並要求香港特首梁振英辭職。上述兩個「邊緣」案例都不滿足第二節對群體行為的定義,但它們顯然很接近。我們對此進行實驗,結果如圖7所示。兩件事的總體因果關係接近於0,其置信區間都包含0。只有關於香港抗議的帖子和審查之間呈現些許正相關,但考慮到數據的可變性,2和3跟0的差距並不明顯。
最後,我們來研究描寫黨和政府的高級領導腐敗和過失的帖子是否會受到審查。我們的群體性事件理論並不支持該因果關係,但由於腐敗直接涉及領導,而領導又能控制審查,因此我們懷疑有關腐敗的帖子會被審查(Bamman, O』Connor and Smith, 2012; Crandall et al., 2013; MacKinnon, 2009)。我們甚至還發現:支持政府打擊腐敗的帖子更容易被審查,反倒是反對政府的沒那麼敏感。(如圖6所示)
我們選擇了三個與腐敗相關的話題進行分析。第一個是一項新的反腐政策,即受賄超過1萬元就可追究刑責。第二個是對四川省委常委、四川省副省長郭永祥涉嫌嚴重違紀的調查。最後一個是在解放軍著名歌唱家李雙江之子李天一輪姦案。分析結果如圖7右軸所示。這三個話題都清晰地顯示跟審查沒有因果關係。這就再次印證了我們的群體性事件理論。此外,這些話題的內容還提到了中國政府和黨的領導人的名字,中央和地方都有。(見附錄A)
5 結論
我們率先對中國言論審查做了大規模、隨機的驗證分析,我們還做了參與式研究,對審查是如何實施的做了定性、描述性分析。我們用這些方法驗證群體性事件理論的正確與否,並進一步揭示中國審查制度的方方面面。了解了這些,我們就能夠致力於實證分析,彌補以前統計假設的空白。我們還研究了大型的審查項目,大量的社交網站帖子在審查者決定發布或刪除前都會先被打入冷宮。審查是先發後審,但自動審查採用的卻是更謹慎的「先審或許後發」程序。該靈活的實驗設計能讓我們研究邊緣案例,即處於群體性事件理論的邊緣,這樣我們能定義該理論的邊界。這包括高度敏感的話題,如腐敗、領導人的名字和網際網路群體行為等。這些事件都不能用該理論驗證,不能證明它們受到了較多審查。所有的假設都獲得了數據的極大支持。
附錄
A 話題詳情
本附錄為2.2章中的群體行為和非群體行為事件的細節,還收錄了第4章中的兩個邊緣案例。我們將事件按實驗順序從上到下排列,如下表:
第一輪實驗
群體行為事件1 西藏自焚 詳見2.2章。
群體行為事件2 潘塗村非法徵地抗議事件 詳見2.2章。支持政府的帖子稱抗議是錯的,村民很貪婪,就想要錢。而反政府的帖子稱當地政府官員對村民不公平。
非群體行為事件1 反腐政策:行賄超1萬元人民幣將入刑。支持政府的帖子對此表示支持,因為它能減少腐敗。反對政府的帖子認為該政策旨在懲罰行賄者,但真正有錯的是受賄的官員,而不是在現有體制下為了成事被迫行賄的人。
非群體行為事件2 取消十一黃金周
非群體行為事件3 數個城市擬徵房屋租賃稅
非群體行為事件4 黃燈罰款
第二輪
群體行為事件1 艾未未發新專輯《神曲》
非群體行為事件1 滬指暴跌,創4年最大單日跌幅
非群體行為事件2(腐敗),四川前副省長郭永祥涉嫌嚴重違紀被查
邊緣案例1 在網上抗議性侵兒童
第三輪
群體行為事件1 新疆抗議事件
非群體行為事件2 性別失衡
邊緣案例1 香港「佔領中環」運動
B 封鎖
除了自動審查和內容過濾,一些帳號有時會被封鎖,這也是信息控制方式的一種。對此,我們沒有設計實驗進行研究,但我們還是獲得了一些重要的信息。在我們的實驗設計中,我們註冊的每個帳號都發布了同樣數量的跟群體行為相關的帖子。此外,審查也並非無懈可擊,各網站間也存在差別。圖8顯示的是採用屏蔽方法的網站跟審查強度的基本關係。如圖所示,一旦某帳戶被審查的帖子數達到60%-80%,那麼它被封的概率將至少翻番。
我們還研究了審查是否是群體行為帖子和屏蔽之間的中間變量。我們採用3.1節中的方法,得出審查是中間變量的可能性為0.17,有95%的可能落在(0.09,0.25)內。這就是說,不管帖子的內容如何,審查本身就為網絡服務提供者拉響了警報,一旦該帳戶再發布冒犯性的帖子,就會被屏蔽。因此屏蔽似乎是高度自動化的措施,它是根據被審查的帖子數計算的。在很多情況下,屏蔽應該不需要單獨分析或判斷。
【注】
[1]一位信源告訴我們,他們建議每5萬名用戶設置2-3名管理員。我們由此逆向估算,可能各個公司僱傭的網管就有5萬-7.5萬人,這還沒有包括政府體制的網管、「五毛黨」和網絡警察。
【參閱文獻】
Bamman, D., B. O』Connor and N. Smith. 2012. 「Censorship and deletion practices in Chinese social media.」 First Monday 17(3-5).
Blanchard, Olivier and Andrei Shleifer. 2000. Federalism with and without political centralization: China versus Russia. Technical report National Bureau of Economic Research.
Chen, Xi. 2012. Social Protest and Contentious Authoritarianism in China. New York: Cambridge University Press.
Crandall, Jedidiah, Masashi Crete-Nishihata, Jeffrey Knockel, Sarah McKune, Adam Senft, Diana Tseng and Greg Wiseman. 2013. 「Chat program censorship and surveillance in China: Tracking TOM-Skype and Sina UC.」 First Money 18(7-1).
Dimitrov, Martin. 2008. 「The Resilient Authoritarians.」 Current History 107(705):24–29.
Egorov, Greorgy and Konstantin Sonin. 2011. 「Dictators and their Viziers: Endogenizing the Loyalty-Competence Trade-off.」 Journal of European Economic Association pp. 903–930.
Esarey, Ashley and Qiang Xiao. 2008. 「Political Expression in the Chinese Blogosphere: Below the Radar.」 Asian Survey 48(5):752–772.
Freedom House. 2012. 「Freedom of the Press, 2012.」 www.freedomhouse.org.
Heilmann, Sebastian and Elizabeth Perry. 2011. Mao’s Invisible Hand: The Political
Foundations of Adaptive Governance in China. Cambridge, MA: Harvard University Asia Center.
Imai, Kosuke, Luke Keele, Dustin Tingley and Teppei Yamamoto. 2011. 「Unpacking the black box of causality: Learning about causal mechanisms from experimental and observational studies.」 American Political Science Review 105(4):765–789.
Kelleher, Daniel and Saturnino Luz. 2005. Automatic hypertext keyphrase detection. In International Joint Conference on Artificial Intelligence. Vol. 19 Lawrence Erlbaum Associates p. 1608.
King, Gary, Jennifer Pan and Margaret E. Roberts. 2013. 「How Censorship in China Allows Government Criticism but Silences Collective Expression.」 American Political Science Review 107:1–18. http://j.mp/LdVXqN.
Lorentzen, Peter. 2010. 「Regularizing Rioting: Permitting Protest in an Authoritarian Regime.」 Working Paper.
Lorentzen, Peter. 2012. 「Strategic Censorship.」 SSRN . http://j.mp/Wvj3xx.
MacKinnon, Rebecca. 2009. 「China’s Censorship 2.0: How Companies Censor Bloggers.」 First Monday 14(2).
MacKinnon, Rebecca. 2012. Consent of the Networked: The Worldwide Struggle For Internet Freedom. New York: Basic Books.
Marolt, Peter. 2011. Grassroots Agency in a Civil Sphere? Rethinking Internet Control in China. In Online Society in China: Creating, Celebrating, and Instrumentalising the Online Carnival, ed. David Herold and Peter Marolt. New York: Routledge pp. 53–68.
Pearl, Judea. 2001. Direct and indirect effects. In Proceedings of the seventeenth conference on uncertainty in artificial intelligence. pp. 411–420.
Qian, Yingyi and Barry R Weingast. 1997. 「Federalism as a commitment to preserving market incentives.」 The Journal of Economic Perspectives 11(4):83–92.
Qian, Yingyi and Gerard Roland. 1998. 「Federalism and the soft budget constraint.」 American economic review pp. 1143–1162.
Salton, Gerard. 1988. Automatic Text Processing: the transformation, analsis, and retrieval of information by computer. Reading, Mass.: Addison-Wesley.
Shirk, Susan. 2007. China: Fragile Superpower: How China’s Internal Politics Could Derail Its Peaceful Rise. New York: Oxford University Press.
Shirk, Susan L. 2011. Changing Media, Changing China. New York: Oxford University Press.
Whyte, Martin. 2010. Myth of the Social Volcano: Perceptions of Inequality and Distributive Injustice in Contemporary China. Stanford, CA: Stanford University Press.
Zhang, Liang, Andrew Nathan, Perry Link and Orville Schell. 2002. The Tiananmen Papers. New York: Public Affairs.
Zhu, Tao, David Phipps, Adam Pridgen, Jedidiah Crandall and Dan Wallach. 2013. The velocity of censorship: High-fidelity detection of microblog post deletions. In 22nd USENIX Security Symposium.