「
網際網路給我們製造了一個信息海洋,但「算法」和「自我選擇」卻在編織一個個信息繭房。
」
別被算法困在「信息繭房」。圖/視覺中國
算法推薦,即利用算法和大數據,對用戶進行畫像以實現信息的個性化精準推送,目前在購物、社交、短視頻、新聞分發等領域均已廣泛實踐。
「信息繭房」這一概念,最初是在桑斯坦的《信息烏託邦——眾人如何生產知識》一書中提出的,意指在信息傳播中,因公眾自身的信息需求並非全方位的,公眾只注意自己選擇的和使自己愉悅的領域,久而久之,會將自身像蠶繭一般桎梏於「繭房」中。
信息繭房既包括算法推薦造成的繭房,也包括用戶的自身選擇將自我陷入繭房之中。
信息繭房現象及其存在原因
信息繭房現象在信息傳播過程中較為普遍,其產生的主要原因在於個體追求個性化的主觀需求,而算法推薦技術的發展則導致其更為顯著。
1
信息繭房現象在算法推薦中的表現
在購物平臺中,首頁基本是前一次搜索物品的同款;在短視頻平臺中,觀看某一視頻時多看了幾遍,接下來刷到的視頻內容都是相似的;在聚合類新聞平臺中,搜索或者點讚、評論了某新聞,隨後接觸到的是大量關於該新聞的內容......
算法推薦所想達到的目標是實現用戶的個性化體驗。信息的確在算法推薦技術的推動下變成了「千人千面」的狀態,滿足了用戶的偏好,但對於單個用戶來說,其接觸的信息持續性地處於「單人單面」的狀態,導致用戶深陷信息繭房而不自知。
一般而言,人工智慧的發展需要經歷弱人工智慧、強人工智慧和超人工智慧的發展階段。現階段內容算法推薦的智能化水平處於弱人工智慧階段,導致推送結果存在缺陷,如「今日頭條」現階段主要的推薦方法是基於內容的推薦系統,簡言之,推送的內容與受眾之前的閱讀內容類似程度較高,這可能導致用戶只能看到與上次閱讀主題相同的內容,無法突破特定的主題,這顯然無法與用戶全面的閱讀需求和興趣相匹配,造成信息獲取的「繭化」。
2
信息繭房產生和加劇的原因
個體主觀偏好
即使是在日常的生活中,「挑食」這一現象就足以洞見人們對自己的喜愛事物總是希望多加獲取,即如果餐桌上都是愛吃的菜,那也就不存在挑食的行為了。
信息繭房的形成也是如此,人們對自己愛買的東西、愛看的新聞總是帶有一定的偏好,並樂於沉浸在這種同質化世界中。
個體的主觀偏好自然而然地引導人們儘量接觸與自己觀點相吻合的信息,同時竭力避開相牴觸的信息,這種選擇性接觸實際上造成的是一個又一個的信息繭房,但由於此時仍是公眾自我選擇的結果,因此,雖然該信息繭房已經產生,但稱不上是一個媒介倫理問題。
算法推薦技術的推動
算法技術被運用於個性化推薦,這實際上也與個體的主觀需求有關。為了滿足公眾日益增長的個性化需求,「注意力經濟」之下,算法技術被不斷地開發利用於個性化推薦之中,以增強用戶黏性。
短時間內人的注意力是有限的,若用戶被鎖定在由算法精準推送的某類固定信息中,久而久之,會造成思維固化、認知結構單一,甚至會模糊或淡化對現實社會的真實感知,間接地剝奪了用戶對其他信息的「知情權」。
因此,當算法介入公眾的選擇時,信息繭房問題逐漸顯現出來了。
過去,用戶可能意識到是自己的主動選擇造就了所接觸信息的同質性,對「信息繭房」效應保有一份距離,而當下「信息繭房」卻是用戶接收新聞即產生的,很難被察覺和意識到。
算法推薦當中的算法運行過程會按照計算機語言設定的程序運行,即通過編寫建模邏輯算法,機械性的重複操作可被同樣機械性的計算機循環運算取代。
算法推薦中「信息繭房」加劇的主要原因在於算法機械性,即算法總是根據設定好的程序對用戶進行畫像,再向用戶進行新聞精準推送。
儘管算法的模型有很多種,並且也可以採用切換式混合的方式去優化結果,但是不論如何,其所基於的算法程序總是帶有一定的機械性,例如算法總是基於用戶歷史行為,按照其預先設定的程序進行新聞推送,使得被推送的新聞在題材、體裁、內容上等均缺乏一定的新穎性。長此以往將會造成更堅固的信息繭房。
為何要破除算法推薦中的信息繭房?
1
過度個性化
信息繭房應當對算法推薦中用戶盲目追求個性化以及平臺無條件滿足用戶個性化需求的行為提出一定要求。
用戶追求個性化是其自由,但過度追求信息的個性化,一味尋求自我偏好的滿足,對於個人的信息獲取以及成長發展來說或許並非益事。另外,目前看來,所謂的「信息繭房」並不全是用戶自身喜好所造成的,而是當下用戶注意力資源成為商業趨利競爭的對象所導致的,而這實際上侵害了公眾對除推送之外的其他信息的知情權,並且很有可能因此而限制公眾個人視野,強化固有偏見,甚至導致社會分化加劇。
以國外某社交平臺為例,其算法將會據此對民眾進行精準的信息投放,在美國總統大選期間,支持共和黨的民眾無法接收到關於民主黨的新聞內容;在英國脫歐公投期間,支持脫歐的民眾無法看到有關英國留在歐盟有利的新聞言論。
民眾在看到的信息都由自己的在線歷史行為決定,算法會自動過濾用戶不感興趣的新聞,而自動推送用戶感興趣的新聞。
在算法推薦機制下,通過算法過濾處理的信息在來源、題材、體裁等方面會被限制,用戶的信息會被自身喜好不斷固化。久而久之,會使成用戶的視野越來越窄,甚至可能出現桑斯坦說的「不同群體之間無法溝通,造成群體極化現象」。
2
在一定程度上與公共利益相悖
從社會層面來說,信息繭房所帶來的是公共領域的逐步喪失和社會文化基本功能的削弱,「繭房」之中的同質化信息,影響著公共事務的討論,呈現出封閉化的趨向,這與哈貝馬斯所闡釋的「公共領域具有開放性、平等討論性以及涉及的內容具有公共性」不一致。
與此同時,「繭房」內的信息主要迎合了用戶的偏好,更多地是站在用戶贊成、支持的立場,缺乏一定的對抗和思辨,最終將進一步固化社會群體的刻板印象,阻礙社會共識的形成,影響社會的整體穩定。
這表明算法推薦在一定程度上並未考慮到公共領域中絕大多數公民的利益,由算法推薦加劇的信息繭房問題更是在一定程度上限制了公眾接觸新知識和新觀點的範圍和途徑,使得公眾無法接觸到完整的信息。
3大破除之道
1
強化企業責任,提高用戶素養
首先,作為算法推薦技術的實際應用者,平臺企業應當對信息繭房問題負起責任。目前一些算法推薦平臺已經在反思算法推薦技術帶來的倫理問題,對此也進一步明確了自身的立場,這是企業自身為打破用戶的信息繭房所轉變的倫理立場。
其次,提高用戶算法素養是掙脫信息繭房的關鍵一步。用戶必須清楚地意識到「我在獲取信息」,而拒絕沉浸於算法推薦日復一日的同質化信息內容當中。
與此同時,用戶算法素養的提升還在於對算法推送技術進行主動了解。根據凱西·戴維森的說法,用戶的受教育程度與算法素養基本成正比,因此算法應該融入教育哲學,作為第四個「R」(「閱讀」「書寫」「文學」「算法」,即reading,riting,rithmetic,rithms),從而避免其被束縛在算法推送所帶來的信息繭房中而無法掙脫。
2
改進算法推薦機制,增設專業把關人
改進算法推薦技術,主要目的在於打破信息繭房的封閉空間,同時提高整個平臺空間的優質氛圍。
一是突破單一推薦模式。從形式來看,應當將個性化搜索和個性化推薦相結合,這在絕大多數算法推薦平臺中都得以應用,但在個性化推薦環節,主要適用的是協同過濾推薦算法和基於內容的推薦算法,信息收集模式和依據信息進行用戶畫像的模式均過於單一,應當在此基礎上進行完善,在滿足用戶個性化需求的同時力爭從更多的角度進行用戶畫像,防止信息呈現的結果過於單一。
二是讓算法推薦機制推薦更有公共價值、更有專業水準、多方面平衡的內容。從該層面講,算法推薦事實上真正要做的是在內容層面提高優質信息的推送權重,通過算法甄別和提取對用戶最有價值的信息,並且能夠在更大的社會關係框架中提供相關知識和關係圖譜,滿足人們更深層次的認知需求。
三是增設專業把關人,將公共價值重新還原到信息傳播本身當中,特別是對於新聞行業來說,不能把傳播完全交由算法運作,具有專業素養的把關人仍有存在的必要性。
在算法推薦中,目前的人工編輯通常只能決定內容的推薦狀態,而無法決定其具體的呈現位置,即用戶最終能否看到此條內容基本由算法決定,人工編輯幹預較少。因此,從該層面來講,人工編輯在智能媒體時代的把關職能比在傳統媒體時代要大大減弱。
算法還引發了新聞分發標準的變革,即由傳統媒體時代新聞編輯與分發中判斷新聞價值所依據的「時效性、重要性、接近性、顯著性、趣味性」五要素轉變為算法對用戶關聯度、新聞實用性和用戶興趣度的高度關注和依賴。
此外,以算法應用為主的應用軟體是典型的技術驅動平臺,公司的核心利益指標主要由技術部門承擔,編輯團隊的話語權由此不可避免地被削弱,傳統意義上的把關職能弱化。
為此,必須考慮到人工編輯團隊把關功能弱化所帶來的弊端,採取一些創新舉措,如國外某社交平臺在新聞推薦上捨棄了原有的標籤算法,推出了新聞聚合功能插件Moments,以人工編輯篩選、整合信息,形成當天熱點事件的整合推送。
3
加強對算法推薦規則的規制
在算法推薦中,用戶將自身對信息的選擇權和決策權在一定程度上讓渡給了算法,這也意味著算法將成為法律監管的核心。
針對信息繭房問題,除了企業和相關技術人員的自律、算法推薦技術的改進、人機協調等,還需要一定的法律制度予以規制,但法律並非無所不包,對於信息繭房這樣的倫理問題,法律只能針對實際造成的損害進行規制。
因此,將算法納入法律的渠道,不是信息繭房問題的直接解決方式,而是期望能夠從宏觀上強化對算法自身的法律監管,從源頭上防止信息繭房負面效應的進一步擴大。通過分析算法推薦技術的推薦傾向與推薦標準,評估其可能產生的一系列後果及影響,為算法設置「底線」。
對此,在法律監管中應注意納入以下幾個方面:算法決策規則的標準;算法的審查程序及規則;算法利用用戶信息的底線。應用平臺如需利用算法推薦技術,必須進行事前備案,相關部門需要不定期抽檢算法推薦技術的運行情況,同時接收用戶的投訴舉報,在發現推薦決策規則異常後,立刻要求相關平臺進行解釋說明,並對其行為進行懲戒。此舉將有助於防止算法推薦平臺濫用算法推薦技術從而加劇信息繭房問題。
總之,信息繭房並非是新出現的問題,其歷史由來已久,只是算法推薦技術的出現使得該問題更為凸顯。換言之,信息繭房是必然存在的事物,也並非是一個全然負面的事物。我們要警惕的是隨著算法推薦技術的深入發展,信息繭房引發的信息鴻溝擴大、群體偏見和刻板印象固化、間接操縱公共領域等負面問題。