對於新興的原創網際網路公司來說,基礎架構和算法機制從根本上決定著公司的業務與風格。News Feed是Facebook新聞推送業務的核心項目,之前News Feed的算法經歷過三個主要階段:
第一階段:邊際排名算法(EdgeRank Algorithm)。每個出現在你新聞源裡的內容被稱作Object,與Object互動行為被稱作一個Edge,每一個Edge有3個至關重要的組成要素,分別是:U:親密程度(Affinity Score),W:邊類權重(Edge Weight)和D:時間衰變(Time Decay)。對Edge產生的影響的因素疊加在一起,則會增加Edge的分數,然後就產生了EdgeRank。分數越高,你的內容就更容易出現在用戶的News Feed裡面。
第二階段:機器學習與算法更新。2011年之後News Feed的排序算法全面轉向了機器學習,用優化理論來決定每個因素的權重。該系統約有10萬個獨立項的權衡因素。除了最原始的3個EdgeRank要素之外,新加入的包括:關係設定、貼文種類、隱藏貼文/檢舉粉絲專頁、點擊廣告和觀看其它內容的時間軸、裝置與科技、故事顛簸(Story Bumping) 和最近行動者(Last Actor)。
第三階段:協同過濾機制。在強化機器學習的同時,News Feed團隊設置協同過濾機制。算法工程師、數據科學家會將公司僱傭的合同工反饋回來的評估重新設定算法,提升新聞推送的精度和準度。
最新調整:「3F原則」與News Feed新聞價值觀。2016年6月29日,Facebook再次改進了News Feed的算法,雖然這只是一個小小的改動:你將看到更多基於真人的推送,而類似與群組、媒體、品牌或其他來源的信息都會被弱化。但更重要的是,配合這次改動,Facebook有史以來第一次發布了對於自身算法的理念說明:News Feed新聞價值觀(News Feed Values)。如果用一句話來概括,那就是所謂的「3F原則」(Friends and Family First):友誼家庭大過天。這一價值觀的主要內容包括:社交優先、「有用的信息」是關鍵、不要忘記娛樂、推崇多元觀點、真實性很重要。
最近一次的算法改進Facebook在以往協同過濾的機制基礎上,進一步強調了用戶對於最終內容的選擇權。同時,這就意味著用戶需要更深地捲入到社交媒體的使用當中,「用的越多,越是你想要的」。Facebook也不再諱言自身的價值與利益,新聞的「真實性」取決於用戶的「需要」,「客觀」的外部化標準讓位於具體情境下平臺與用戶的共謀與互建。那麼問題是,這樣的信息或者新聞生產方式潛藏著怎樣的社會風險?
內循環的「算法審查」易形成「自生審查」。2014年,北卡羅萊納大學情報與圖書館學院的助理教授澤納普•圖菲克奇(Zeynep Tufekci)在一項研究中發現,Facebook的新聞推送算法十分重視用戶的意見和共享,而這種基於點讚和評論的算法會淹沒掉像「弗格森案」這樣的重要新聞,原因可能是因為該案件並不是很受歡迎也不好評論。她將這一現象稱為Facebook對於新聞信息的「算法審查」(Algorithmic Censorship)。原因在於,Facebook新聞源推送算法的設計標準是,無論是歡天喜地還是暴怒生氣,不管是陰謀惡作劇還是曬娃自拍,重要的是該則新聞是否可被規模化地討論。而如果沒有「人氣」,哪怕是一條非常重要的信息,也有可能不會出現在特定用戶的界面上,由此就形成了用戶的「自生審查」循環。
內容與數量上的協同過濾或導致信息操控。從Facebook的算法機制中可以看出,編輯團隊實際上已經作為協同過濾機制的一部分內嵌在與原始算法、機器學習等技術因素同等重要的系統當中。偏見門之後,為了解決這一問題,Facebook分別在今年6月底和8月底修改並更新了推送算法,表示來自朋友的優先推送會導致新聞機構的推薦流量下降,並宣布Trending News功能由以往的編輯人工篩選編寫摘要改為全部由機器算法執行,希望由此降低主觀因素對於推薦內容的影響。通過改變算法,Facebook勾勒出了新聞機構未來在社交網絡中發展的初步路線圖:在社交網絡中的流動的信息就是用戶希望了解的信息。雖然Facebook並不一定「承認」自己是一家媒體,但在實際的業務中,對於用戶的信息流操控確實存在逐漸增強的「定向引流」情況,並且從內容到數量,Facebook都實現了對於用戶信息接觸的實質性導引。
「平臺偏向」經由傳播效果會影響受眾態度。2012年,第一篇系統研究「線上世界如何顯著影響線下真實世界的研究」在Nature上發表,論文顯示在Facebook上的一項社會實驗顯著提高了2010年美國選民的投票率。2014年Facebook自己的一項研究表明它的算法可以操控人的情緒,「在Facebook平臺上,一些很小的影響會形成大規模的聚合後果」,甚至可以顯著影響投票選舉。但也有研究對此持保留意見。2015年發表在Science上的一篇重要論文比對了Facebook用戶的兩種信息接觸:朋友間分享新聞和觀點和通過Facebook的算法推薦獲取信息,結果發現Facebook上的回音室效應(Echo Chamber)並非像大家想像的那樣讓人們與世隔絕,個人選擇具有很強的作用。但同時數據科學家依然提醒,這項研究的重要性是基於一定數據範疇和體量的,他們依然注意到了一些顯著的局限性。今年1月皮尤研究中心的一份研究報告發現,自由派民主黨黨員更加會從Facebook的平臺上獲取選舉信息。相比共和黨只有50%的網絡一代從社交媒體上獲悉選舉信息,民主黨有四分之三的年輕人把社交媒體作為日常的信息來源。通過傳播的顯著效果,進一步改變選民構成,將散布性支持(diffuse support)變成為特定支持(specific support)進而改變政治結構。
Facebook面臨的問題也促使我們思考:是否需要某種一成不變的新聞價值觀?不久前美國報業協會在坦普爾大學舉辦了「聯繫與多樣化媒體峰會」,期間現任《今日美國》網絡新聞業務的副總裁米澤爾•斯圖爾特(Mizell Stewart)就提到:當所有事物都跟隨著時代和社會在進化,為什麼就新聞的價值觀依然陳舊? 北德克薩斯大學新聞學院教授梅雷迪斯•克拉克 (Meredith D. Clark)對這個問題深有感觸:「主流媒體」和「傳統新聞」都只是一個時代的產物。
《Facebook效應》的作者大衛•科特派屈克(David Kirkpatrick)最近表示,「作為全球最大的新聞源,Facebook現在處於一片沒有海圖的水域。他們沒有現成的指南來自我管理並管理所處社區的期望。」 目前學界和業界較為普遍的呼聲是要建立對於算法的可信任度的評判標準與監督機制。2014年哥倫比亞大學數據新聞研究中心發布的《算法可信度報告》中對於「算法的可信任原則」給出了這樣的說明:「算法的可信任原則是指通過對算法的透明度測試,以識別商業秘密,發現操控後果並超越複雜問題的認知天花板。」該報告的作者認為,為了實現這一原則,需要記者與算法一起,在聯邦信息行動自由法案(The Federal Freedom of Information Act,FOIA)的權力賦予下通過逆向工程技術(Reverse Engineering)的形式有效地結合在一起。這一原則實際上是一種聯合了多種社會力量對於算法的監督機制,既包括理論也包括實踐,通過法規、技術、機構和有效率的個體,有效地保證信息透明度。隨著時間的推移,足夠的專業知識會逐漸積累起來,通過引發網際網路企業的關注並與之合作,以此確立對於公眾有用的信息透明度算法標準。
(原文參見:方師師. 算法機制背後的新聞價值觀——圍繞「Facebook偏見門」事件的研究[J]. 新聞記者,2016(9):39-50.)
編輯:方師師
--上海社會科學院新聞研究所--
Institute of Journalism and Communication Studies
Shanghai Academy of Social Sciences
E-mail:xws@sass.org.cn
Website:http://www.sass.org.cn/xwyjs