信息繭房,如何破除?

2021-01-08 網絡傳播雜誌

網際網路給我們製造了一個信息海洋,但「算法」和「自我選擇」卻在編織一個個信息繭房。

別被算法困在「信息繭房」。圖/視覺中國

算法推薦,即利用算法和大數據,對用戶進行畫像以實現信息的個性化精準推送,目前在購物、社交、短視頻、新聞分發等領域均已廣泛實踐。

「信息繭房」這一概念,最初是在桑斯坦的《信息烏託邦——眾人如何生產知識》一書中提出的,意指在信息傳播中,因公眾自身的信息需求並非全方位的,公眾只注意自己選擇的和使自己愉悅的領域,久而久之,會將自身像蠶繭一般桎梏於「繭房」中。

信息繭房既包括算法推薦造成的繭房,也包括用戶的自身選擇將自我陷入繭房之中。

信息繭房現象及其存在原因

信息繭房現象在信息傳播過程中較為普遍,其產生的主要原因在於個體追求個性化的主觀需求,而算法推薦技術的發展則導致其更為顯著。

1

信息繭房現象在算法推薦中的表現

在購物平臺中,首頁基本是前一次搜索物品的同款;在短視頻平臺中,觀看某一視頻時多看了幾遍,接下來刷到的視頻內容都是相似的;在聚合類新聞平臺中,搜索或者點讚、評論了某新聞,隨後接觸到的是大量關於該新聞的內容......

算法推薦所想達到的目標是實現用戶的個性化體驗。信息的確在算法推薦技術的推動下變成了「千人千面」的狀態,滿足了用戶的偏好,但對於單個用戶來說,其接觸的信息持續性地處於「單人單面」的狀態,導致用戶深陷信息繭房而不自知。

一般而言,人工智慧的發展需要經歷弱人工智慧、強人工智慧和超人工智慧的發展階段。現階段內容算法推薦的智能化水平處於弱人工智慧階段,導致推送結果存在缺陷,如「今日頭條」現階段主要的推薦方法是基於內容的推薦系統,簡言之,推送的內容與受眾之前的閱讀內容類似程度較高,這可能導致用戶只能看到與上次閱讀主題相同的內容,無法突破特定的主題,這顯然無法與用戶全面的閱讀需求和興趣相匹配,造成信息獲取的「繭化」。

2

信息繭房產生和加劇的原因

個體主觀偏好

即使是在日常的生活中,「挑食」這一現象就足以洞見人們對自己的喜愛事物總是希望多加獲取,即如果餐桌上都是愛吃的菜,那也就不存在挑食的行為了。

信息繭房的形成也是如此,人們對自己愛買的東西、愛看的新聞總是帶有一定的偏好,並樂於沉浸在這種同質化世界中。

個體的主觀偏好自然而然地引導人們儘量接觸與自己觀點相吻合的信息,同時竭力避開相牴觸的信息,這種選擇性接觸實際上造成的是一個又一個的信息繭房,但由於此時仍是公眾自我選擇的結果,因此,雖然該信息繭房已經產生,但稱不上是一個媒介倫理問題。

算法推薦技術的推動

算法技術被運用於個性化推薦,這實際上也與個體的主觀需求有關。為了滿足公眾日益增長的個性化需求,「注意力經濟」之下,算法技術被不斷地開發利用於個性化推薦之中,以增強用戶黏性。

短時間內人的注意力是有限的,若用戶被鎖定在由算法精準推送的某類固定信息中,久而久之,會造成思維固化、認知結構單一,甚至會模糊或淡化對現實社會的真實感知,間接地剝奪了用戶對其他信息的「知情權」。

因此,當算法介入公眾的選擇時,信息繭房問題逐漸顯現出來了。

過去,用戶可能意識到是自己的主動選擇造就了所接觸信息的同質性,對「信息繭房」效應保有一份距離,而當下「信息繭房」卻是用戶接收新聞即產生的,很難被察覺和意識到。

算法推薦當中的算法運行過程會按照計算機語言設定的程序運行,即通過編寫建模邏輯算法,機械性的重複操作可被同樣機械性的計算機循環運算取代。

算法推薦中「信息繭房」加劇的主要原因在於算法機械性,即算法總是根據設定好的程序對用戶進行畫像,再向用戶進行新聞精準推送。

儘管算法的模型有很多種,並且也可以採用切換式混合的方式去優化結果,但是不論如何,其所基於的算法程序總是帶有一定的機械性,例如算法總是基於用戶歷史行為,按照其預先設定的程序進行新聞推送,使得被推送的新聞在題材、體裁、內容上等均缺乏一定的新穎性。長此以往將會造成更堅固的信息繭房。

為何要破除算法推薦中的信息繭房?

1

過度個性化

信息繭房應當對算法推薦中用戶盲目追求個性化以及平臺無條件滿足用戶個性化需求的行為提出一定要求。

用戶追求個性化是其自由,但過度追求信息的個性化,一味尋求自我偏好的滿足,對於個人的信息獲取以及成長發展來說或許並非益事。另外,目前看來,所謂的「信息繭房」並不全是用戶自身喜好所造成的,而是當下用戶注意力資源成為商業趨利競爭的對象所導致的,而這實際上侵害了公眾對除推送之外的其他信息的知情權,並且很有可能因此而限制公眾個人視野,強化固有偏見,甚至導致社會分化加劇。

以國外某社交平臺為例,其算法將會據此對民眾進行精準的信息投放,在美國總統大選期間,支持共和黨的民眾無法接收到關於民主黨的新聞內容;在英國脫歐公投期間,支持脫歐的民眾無法看到有關英國留在歐盟有利的新聞言論。

民眾在看到的信息都由自己的在線歷史行為決定,算法會自動過濾用戶不感興趣的新聞,而自動推送用戶感興趣的新聞。

在算法推薦機制下,通過算法過濾處理的信息在來源、題材、體裁等方面會被限制,用戶的信息會被自身喜好不斷固化。久而久之,會使成用戶的視野越來越窄,甚至可能出現桑斯坦說的「不同群體之間無法溝通,造成群體極化現象」。

2

在一定程度上與公共利益相悖

從社會層面來說,信息繭房所帶來的是公共領域的逐步喪失和社會文化基本功能的削弱,「繭房」之中的同質化信息,影響著公共事務的討論,呈現出封閉化的趨向,這與哈貝馬斯所闡釋的「公共領域具有開放性、平等討論性以及涉及的內容具有公共性」不一致。

與此同時,「繭房」內的信息主要迎合了用戶的偏好,更多地是站在用戶贊成、支持的立場,缺乏一定的對抗和思辨,最終將進一步固化社會群體的刻板印象,阻礙社會共識的形成,影響社會的整體穩定。

這表明算法推薦在一定程度上並未考慮到公共領域中絕大多數公民的利益,由算法推薦加劇的信息繭房問題更是在一定程度上限制了公眾接觸新知識和新觀點的範圍和途徑,使得公眾無法接觸到完整的信息。

3大破除之道

1

強化企業責任,提高用戶素養

首先,作為算法推薦技術的實際應用者,平臺企業應當對信息繭房問題負起責任。目前一些算法推薦平臺已經在反思算法推薦技術帶來的倫理問題,對此也進一步明確了自身的立場,這是企業自身為打破用戶的信息繭房所轉變的倫理立場。

其次,提高用戶算法素養是掙脫信息繭房的關鍵一步。用戶必須清楚地意識到「我在獲取信息」,而拒絕沉浸於算法推薦日復一日的同質化信息內容當中。

與此同時,用戶算法素養的提升還在於對算法推送技術進行主動了解。根據凱西·戴維森的說法,用戶的受教育程度與算法素養基本成正比,因此算法應該融入教育哲學,作為第四個「R」(「閱讀」「書寫」「文學」「算法」,即reading,riting,rithmetic,rithms),從而避免其被束縛在算法推送所帶來的信息繭房中而無法掙脫。

2

改進算法推薦機制,增設專業把關人

改進算法推薦技術,主要目的在於打破信息繭房的封閉空間,同時提高整個平臺空間的優質氛圍。

一是突破單一推薦模式。從形式來看,應當將個性化搜索和個性化推薦相結合,這在絕大多數算法推薦平臺中都得以應用,但在個性化推薦環節,主要適用的是協同過濾推薦算法和基於內容的推薦算法,信息收集模式和依據信息進行用戶畫像的模式均過於單一,應當在此基礎上進行完善,在滿足用戶個性化需求的同時力爭從更多的角度進行用戶畫像,防止信息呈現的結果過於單一。

二是讓算法推薦機制推薦更有公共價值、更有專業水準、多方面平衡的內容。從該層面講,算法推薦事實上真正要做的是在內容層面提高優質信息的推送權重,通過算法甄別和提取對用戶最有價值的信息,並且能夠在更大的社會關係框架中提供相關知識和關係圖譜,滿足人們更深層次的認知需求。

三是增設專業把關人,將公共價值重新還原到信息傳播本身當中,特別是對於新聞行業來說,不能把傳播完全交由算法運作,具有專業素養的把關人仍有存在的必要性。

在算法推薦中,目前的人工編輯通常只能決定內容的推薦狀態,而無法決定其具體的呈現位置,即用戶最終能否看到此條內容基本由算法決定,人工編輯幹預較少。因此,從該層面來講,人工編輯在智能媒體時代的把關職能比在傳統媒體時代要大大減弱。

算法還引發了新聞分發標準的變革,即由傳統媒體時代新聞編輯與分發中判斷新聞價值所依據的「時效性、重要性、接近性、顯著性、趣味性」五要素轉變為算法對用戶關聯度、新聞實用性和用戶興趣度的高度關注和依賴。

此外,以算法應用為主的應用軟體是典型的技術驅動平臺,公司的核心利益指標主要由技術部門承擔,編輯團隊的話語權由此不可避免地被削弱,傳統意義上的把關職能弱化。

為此,必須考慮到人工編輯團隊把關功能弱化所帶來的弊端,採取一些創新舉措,如國外某社交平臺在新聞推薦上捨棄了原有的標籤算法,推出了新聞聚合功能插件Moments,以人工編輯篩選、整合信息,形成當天熱點事件的整合推送。

3

加強對算法推薦規則的規制

在算法推薦中,用戶將自身對信息的選擇權和決策權在一定程度上讓渡給了算法,這也意味著算法將成為法律監管的核心。

針對信息繭房問題,除了企業和相關技術人員的自律、算法推薦技術的改進、人機協調等,還需要一定的法律制度予以規制,但法律並非無所不包,對於信息繭房這樣的倫理問題,法律只能針對實際造成的損害進行規制。

因此,將算法納入法律的渠道,不是信息繭房問題的直接解決方式,而是期望能夠從宏觀上強化對算法自身的法律監管,從源頭上防止信息繭房負面效應的進一步擴大。通過分析算法推薦技術的推薦傾向與推薦標準,評估其可能產生的一系列後果及影響,為算法設置「底線」。

對此,在法律監管中應注意納入以下幾個方面:算法決策規則的標準;算法的審查程序及規則;算法利用用戶信息的底線。應用平臺如需利用算法推薦技術,必須進行事前備案,相關部門需要不定期抽檢算法推薦技術的運行情況,同時接收用戶的投訴舉報,在發現推薦決策規則異常後,立刻要求相關平臺進行解釋說明,並對其行為進行懲戒。此舉將有助於防止算法推薦平臺濫用算法推薦技術從而加劇信息繭房問題。

總之,信息繭房並非是新出現的問題,其歷史由來已久,只是算法推薦技術的出現使得該問題更為凸顯。換言之,信息繭房是必然存在的事物,也並非是一個全然負面的事物。我們要警惕的是隨著算法推薦技術的深入發展,信息繭房引發的信息鴻溝擴大、群體偏見和刻板印象固化、間接操縱公共領域等負面問題。

相關焦點

  • 打破「信息繭房」 讓算法更「聰明」
    偏見是如何造成的?作為受眾,如何避免在信息的洪流中迷失方向甚至作繭自縛?這就需要打破「信息繭房」,破除傲慢與偏見。可能不少人都遇到過這樣的困擾――你某天出於好奇點擊了一條算法型資訊平臺推送的新聞,從此,平臺就會不斷向你推送同類新聞,哪怕你根本不想再看。
  • 以開放思維破除商會運營中的「信息繭房」
    「信息繭房」是指人們的信息領域會習慣性地被自己的興趣所引導,從而將自己的生活桎梏於像蠶繭一般的「繭房」中的現象。生活在大數據的時代背景之下,通過網絡檢索就能獲取我們想要的信息,所以我們每一個人都以為自己實現了信息自由,實則是走向了意圖的彼端,讓自己的生活呈現出一種定式化、程序化的發展趨勢,因為現在手機客戶端平臺會採集用戶的行為數據,通過數據採集為用戶推送可能感興趣的信息,形成信息閉環,這就進一步強化了人們「信息繭房」的局限性。
  • 警惕網絡「信息繭房」效應
    【關鍵詞】「信息繭房」 媒體 網絡 【中圖分類號】G206 【文獻標識碼】A「信息繭房」效應是指在網絡信息傳播中,用戶更傾向於關注自己原本就感興趣的領域,更樂於與志同道合的人開展交流,但久而久之卻被局限在「人造孤島」當中,就如同蠶蛹一般,始終被「繭房」束縛,不願面對外部的世界和生活。
  • 專訪|施展《破繭》:破除信息繭房的束縛,理性平和看世界
    要想更有效地理解、把握這些問題,理性分析是必不可少的,但在當下社會太多人都困在信息繭房裡的情況下,社會觀念嚴重撕裂,理性的思考與討論正在變得越來越難。我寫《破繭》的初衷,是想分析中國,重回理性的前提,是搞清楚當下導致人們難以理性思考的原因,因此我在書中首先分析信息繭房的產生和突破的可能。
  • 信息的繭房不斷約束了自己的思考:如何提高自己的心智模型?
    心智模式是根深蒂固於心中,影響我們如何了解這個世界,以及如何採取行動的許多假設、成見,甚至圖像、印象。我們提出不易察覺自己的心智模式,以及它對行為的影響。智能網際網路的時代給我們每一個人都帶來了信息的繭房。你以為你自己看到了世界,其實你看到的是自己的窗戶。所以說心智模式,決定了我們生活的方式,也決定了我們頭腦中的智慧,甚至決定了你在金字塔中的位置。那麼如何改善心智模式?
  • 信息繭房是什麼意思什麼梗? 信息繭房名詞解釋先睹為快
    信息繭房是什麼意思什麼梗? 信息繭房名詞解釋先睹為快時間:2020-07-07 17:20   來源:遊俠網   責任編輯:沫朵 川北在線核心提示:原標題:信息繭房是什麼意思什麼梗? 信息繭房名詞解釋先睹為快 信息繭房是什麼意思?
  • 李彥宏深度直擊「信息繭房」
    因此,我傾向於認為李彥宏只是在批評信息繭房這一已嚴重到必須正視的社會現象,而不是針對特定企業。 事實上,信息繭房的問題由來已久,就事論事的話,我認同李彥宏的觀點,他一針見血地指出了問題所在。在我看來,信息繭房討論來討論去,只需要搞清楚兩個問題即可:到底是誰織就了信息繭房?如何才能打破信息繭房?圍繞這兩個問題,我也簡單談談自己的看法。
  • 算法推薦 如何打破「信息繭房」
    來源:安徽日報搜索一個關鍵詞,隨後經常收到關聯信息、廣告推送;網絡購物時,頁面上湧現出大量曾經搜索過的商品信息……時下,算法推薦無處不在,讓人們獲取信息變得更加智能化、個性化、定製化。在給我們帶來便利的同時,算法推薦的問題也隨之而來,比如「信息繭房」困擾、媚俗信息泛濫、大數據「殺熟」等。如何讓算法推薦更好服務網絡用戶?
  • 信息繭房與坐井觀天
    有學者認為,這是眾多的網民不知不覺受困於「信息繭房」所致,我認為,此說不無道理。  我們知道,社會經濟多元化決定了利益訴求的多元化,是社會群體間難以達成共識的根本原因,但從網絡傳播的現狀分析,至少也有兩方面的原因:一是置身於海量信息的時代,很多人已習慣於從朋友圈、微信群等自媒體獲取信息,一味地「看我想看的,聽我想聽的,轉我想轉的」,在不斷重複和自我認證中強化了個體的喜好和偏見,不僅再也難以接受主流媒體的信息和觀點,甚至加速了群體極化、蠶食了社會共識。
  • 走出「同溫層」才能打破「信息繭房」
    如何在社交網絡中打破「信息繭房」?與社會學理層面的討論不同,這個問題指向的,既不是「信息繭房」的成因,也不是「信息繭房」的性質,而是一種直白、強烈的「信息焦慮」。對於那些不甘於在信息攝取上任人擺布的人而言,他們對「信息繭房」了解得越多,就越擔憂自己是否已經身陷其中,進而為此感到焦慮。由於當代人最常使用的信息獲取平臺就是各種社交媒體,人們很關心如何在社交媒體中打破信息隔離。遺憾的是,在社交網絡上,我們很可能無法打破「信息繭房」。
  • Google個性化搜索會導致信息繭房嗎?
    「信息繭房」這一概念最早是由哈佛大學教授桑斯坦提出的,他認為,網際網路為公眾提供了「資訊汪洋」,但人們接觸信息並不是全盤接收,而是根據個人喜好有選擇性地吸收。通俗來說,就是「信息偏食」,看自己想看的,聽自己想聽的。久而久之,「回音室效應」之下,公眾會將自身桎梏於蠶繭般的「繭房」中。個性化搜索一定會帶來「信息繭房」嗎?
  • 被算法裝入信息繭房的你,作繭自縛?還是破繭重生?
    「信息繭房」一詞最早由美國哈佛大學法學教授凱斯·桑斯坦於2001年提出。2008年,桑坦斯在他的另外一本著作《信息烏託邦》中做了更充分的分析和討論,他用「個人日報」來形容用戶在海量信息中根據自己的喜好選擇有興趣的信息,從忽略了其他內容的行為,也就是「信息繭房」。
  • 「屏聯網」興起,酷開系統8「無界空間」打破你的「信息繭房」
    如何破除這一難題?酷開系統8給出的答案是啟用「用戶引擎」技術。是如何解決的?首先,更有效的信息推薦。用戶引擎建立了一個以家庭為單位的知識圖譜,為的是更加了解用戶使用各個場景時的習慣以及興趣愛好,之後,通過這個知識圖譜能夠更大、更廣的範圍理解用,以保障信息推送的有效性。
  • 彭蘭:導致信息繭房的多重因素及「破繭」路徑
    一、信息繭房:並非新問題 信息繭房(Information Cocoons)這個概念來自美國學者桑斯坦,他在《信息烏託邦——眾人如何生產知識》一書中指出,信息繭房意味著,我們只聽我們選擇和愉悅我們的東西。[1]而他提出這一問題的主要背景,是數字時代的個性化信息服務的逐步興起。
  • 受困於「信息繭房」,「甩鍋」算法是對個體責任的逃避
    的確,在數字時代,以智能算法為基礎的內容平臺迅速崛起,憑藉算法推薦和對用戶畫像的精準捕捉,可以快速完成用戶與信息的匹配並進行個性化推送,大大降低獲取信息成本,提升了信息分發效率。但久而久之,在算法源源不斷地「投其所好」「量身定做」之下,人們的信息接收維度變窄,資訊獲取渠道單一,容易在單調的信息交互中不斷強化固有偏見和喜好,甚至在不同群體、代際之間造成認知撕裂和對立,最終深陷「信息繭房」的桎梏。
  • 如何突破信息繭房?算法不應該追隨用戶的本能喜好
    面對深不見底的網際網路,我們每一個用戶都成為了渺小的「螞蟻」,住著網際網路為我們搭建的信息繭房,樂在其中。當我們進入這個平臺的時候,其實就已經進入了算法的計算範圍,我們日常的習慣就會成為算法為我們搭建信息繭房的磚瓦,當我們習慣越明顯的時候,信息繭房就會構築的越牢固,當你想要「破繭而出」的時候也會越難。
  • 打破「信息繭房」,「算法推薦」正迎來強監管
    決定「信息繭房」對人的束縛程度的一個重要因素就是信息的影響力度,信息的影響力度越大,「信息繭房」對人的束縛程度也越大。當「算法推薦」的精確推送,疊加上網絡環境的「放大、突出」的效應後,網絡信息對人的影響可能遠比我們想像中的要大得多。
  • 如何幫助青少年走出網際網路「信息繭房」?
    ■ 鄭渝川 近日,各地不少受訪者反映,孩子在看新聞客戶端、刷社交媒體時,一些平臺的定向推送存在「泛娛樂化信息多,低俗內容多,未經核實內容多」的「三多」現象。專家指出,網際網路算法支配的內容生產體系是產生讓孩子沉迷其中的「信息繭房」的根源。
  • 算法推送機制下「信息繭房」效應的思考與對策
    但現如今的人工智慧算法依然無法判斷新聞價值,因此同質化內容的重複推送,加強了「信息繭房」效應。本文通過分析「信息繭房」與算法推送,提出「信息繭房」的多點危害,並對其做出了對策分析。但是,算法推送這一技術也對「信息繭房」效應起到了增強作用,帶來一系列的負面影響。如何對「信息繭房」效應進行削減,並更好的利用人工智慧技術,對新聞傳播業進行正向促進,也是近年來研究的熱點問題。
  • 喻國明:算法是信息繭房的締造者,還是打破者?
    儘管學界對信息繭房的危害有所共識,但對於「算法導致信息繭房」一直存有爭議,也缺乏實證研究的結論佐證。桑斯坦所述的信息繭房更像是半預言式的隱喻,使之至今沒有一個清晰和準確的量化研究框架,極大影響了算法與信息繭房的關係探討。 本文剖析了信息繭房的公認特徵,從渠道和內容兩個方面,分析當前算法型媒介的使用對用戶媒介多樣性和信源信任的影響。