隨著算法推薦的流行,算法導致「信息繭房」的觀點甚囂塵上。然而「信息繭房」還不是一個清晰和準確的界定,這極大地影響了對「信息繭房」的認知與觀測,也曲解了算法與「繭房」的關係。事實證明,「信息繭房」是個體、社會、場景與技術等因素共同作用的結果,算法既不是「信息繭房」形成前的必要條件,也不在「繭房」生成後起到增效。實際上,隨著算法與人的深度融合,可信任算法正在「信息繭房」的消解上發揮重要功能。
【關鍵詞】信息繭房 算法推薦 弱效應 消解
在算法流行之前,美國學者凱斯·桑斯坦預示了網絡技術發展對用戶信息認知的「副作用」,即用戶可以在海量信息中自主選擇興趣話題,而構成一套「個人日報」式的定製化信息系統。用戶被基於個人興趣所構建的信息流環繞,逐漸失去了解不同事物的能力和接觸機會,不知不覺間為自己製造了一個「信息繭房」。隨著個性化推薦為代表算法技術與資訊行業深入融合,改造著信息生成和傳播的方式,有種觀點甚囂塵上,即算法加劇了「信息繭房」的產生與泛化。當社交媒體推薦熟絡的朋友,音樂APP自動播放喜愛的音樂,電商網站提示著昨晚電影中的「明星同款」,用戶似乎在毫無覺察下已被包裹進個體與機器共築的溫柔卻嚴絲合縫的繭蛹。
對於個體而言,「信息繭房」阻礙了個體與信息環境的全面發展,形成所謂「回聲室」效應,自己喜好的內容和預期的觀點得到激勵與放大,而對其他觀點一味排斥。推及到群體層面,社會成員因「趣緣」而組成團體,強化了內部認同感,同質性的交流使得成員所持觀點變得極端,加重了群體極化現象發生。這一技術憂慮還尤其側重在新聞專業主義消解的危機上,當傳統編輯的把關權力讓渡於算法,工具理性凌駕於價值理性之上,流量成為核心,內容淪為附庸。就此人民日報曾三評算法推薦,批判算法並未帶來信息開放,反而用取悅用戶的信息隔離了觀點的公開和交流,失去了在爭議中達成共識的機會。就像所有智能算法操縱人類社會的觀點所認為的,算法技術節省了精力與時間,提高了勞動效率,讓渡的則是人類獨立思考的能力,而生活在馬克斯·韋伯所說的「技術知識的囚室」之中。①
儘管桑斯坦提出「信息繭房」的概念,但到目前為止,「信息繭房」也未能有一個更清晰和準確的界定,這極大地影響了對「信息繭房」的認知與觀測,也曲解了算法與「繭房」的關係。
一、算法不是「信息繭房」形成的必要條件
1.1「信息繭房」本質是用戶選擇機制中的一種「偏食」行為
霍夫蘭很早就在個體差異論中指出,由於個體在需求、信念、價值觀、態度上的認知結構差異,相同的大眾傳播內容在受眾之間會產生不同的效果,受眾傾向於接觸與原有態度較為一致的信息,而儘量迴避那些與己見不合的信息,即所謂信息的選擇性注意和理解。這種「偏食」行為是個體在與社會互動中形成,並存在於傳播的各個階段。因此,儘管在大眾傳播時期,大眾媒體會通過議程設置左右內容的分發,用戶照樣可以選擇忽略報紙的政治宣傳而直接翻看八卦娛樂。同樣,「人以類聚」亦是個體的社會化本質,亦是社區形成基礎,滕尼斯認為社區「首先是建立在血緣關係基礎上,然後是鄰裡和朋友關係。總之要有親密感和無可置疑的連帶關係。」②當然過去受限於地域和傳播手段,這種類聚邏輯是宏觀與粗粒度的,個體興趣與價值訴求被「服從」於群體規範之下。網絡媒介只是將用戶「潛伏」的選擇信息和興趣的權力予以釋放,開啟了「人找信息」和「人找人」的便利,這是網際網路信息傳播渠道的最大貢獻。算法則基於個體興趣愛好,進一步擴散用戶自由,用主動推送的方式將用戶認為有價值的人或事呈現在眼前(耳邊)。說到底,以個體興趣為核心的「信息繭房」歸根還是用戶自我信息選擇的結果,算法與數據技術也不過是媒介的價值選擇機制在數據條件之下的一種「人體的延伸」。
1.2用戶在媒介接觸和使用的渠道偏好與選擇窄化是「信息繭房」形成的前提
「信息繭房」另一個前提假定是個體始終接觸同質化的傳播內容與渠道,這種用戶媒介接觸的窄化現象同樣不是算法環境所「獨享」。其既可能是因為所處的傳播環境,而被動地接受選擇。例如中世紀宗教精神壟斷時期,當發生「霍亂」時,百姓在對疫情束手無策的情況下,只能聽信教廷對女巫作亂的源頭解釋,而發生大量女性被焚燒事件。在封閉的山村中,村民對於事物的認知多來源於代際間口口相傳,也容易將一些神話傳說當作事實。當然,「窄化」也可能來自於長久的用戶媒介使用慣習,例如最近我們對媒介接觸和使用調查研究中發現,20至29歲的年輕人群中,看電視和基本不看電視的用戶比例基本持平,而在60至70歲老年群體中,看電視的用戶則依然是絕大多數。隨著信息通信發展,不同人群或不同地區存在獲取數字資源的不均衡,從而引發「數字鴻溝」問題。然而即便是基礎設置完善、用戶具備了充分接觸信息的條件下,「鴻溝」卻依然存在,祝建華(2002)曾使用性別、職業、年齡和教育程度進行測量,發現教育程度對「數字鴻溝」影響最大。③這意味著,「信息繭房」對於教育良好的「精英份子」與普羅大眾之間影響是有差異的,後者更容易盲從和不思考,當沉浸在同質化的信息環境中,更難會基於理性焦慮和質疑精神實現自主「破繭」。
1.3媒介體制的某些特徵同樣會導致「信息繭房」
媒介的所有制和經營機制,以及關於媒介法律與管理制度,也是形成「信息繭房」不可忽略的影響因素。例如納粹能夠引發極端的民族主義情緒,其媒體操縱是重要的肇事罪魁。當時美國駐德記者夏伊勒在《第三帝國的興亡》中記載道:「每天早晨,柏林各日報的編輯以及德國其它地方的報紙駐柏林的記者,都聚集在宣傳部裡,由戈培爾博士或者他的一個助手告訴他們:什麼新聞該發布,什麼新聞要扣下,什麼新聞怎麼寫和怎麼擬標題,什麼運動該取消,什麼運動要開展,當天需要什麼樣的社論。為了防止誤解,除了口頭訓令外,每天還有一篇書面指示。」④ 同樣,純粹商業邏輯的媒介運作也會在一定程度上誤導用戶視聽,歷史上美國報業的「黃色新聞」時期,報紙為追求「發行量」而故意製作各類聳人聽聞、缺乏事實依據的新聞報導。赫斯特的《紐約新聞報》更是藉助美國軍艦被炸沉之際,極力煽動群眾的戰爭情緒,使得美國與西班牙的戰爭被稱為「赫斯特戰爭」。由此可見,由偏頗的議程設置所導致的「信息繭房」的偏頗現象,在任何一個媒介時代都存在。
二、算法推薦在「信息繭房」生成後並不起增效作用
而從算法當前的技術特徵與用戶行為複雜性來看,算法對已經存在的「信息繭房」也不起穩定或增強作用。
2.1智能算法推薦與媒體型分發、社交-關係傳播共同構成用戶獲取信息的來源
信息分發市場經歷了從人工編輯主導的媒體型分發、依託社交網絡傳播的關係型分發到智能算法對信息和人進行匹配的算法型分發主導的時代。⑤媒體型分發無暇顧及分眾化、突發性的信息訴求,用戶面對是相同的分發者與有限媒體。社交分發模式則第一次激活了在大眾傳播時代難以顧及的「長尾信息」,形成了對於信息服務的「利基市場 」,實現了信息分發的個性化與內容的「千人千面」,個體開始具備「改造」所處媒介系統的能力。而算法的引入則根據個體興趣愛好,用推送方式將用戶認為有價值的信息呈現在眼前(耳邊),有效解決海量信息與用戶之間的有效配置。
然而,即使算法完全「掌握」了個體興趣,卻無法完全替代另外兩種信息分發模式,例如面對「官二代」飆車撞人這類突發性的輿論熱點,多數個體實屬於「吃瓜看客」。由於短時間內關聯信息集中「井噴」,真相容易快速反轉,在這一狀態下,多數用戶難以鑑別也不願花時間去求證信息的真偽,且由於網絡的匿名性降低了風險感知,容易基於自己的固有價值判斷或純粹根據個人喜好完成信息傳遞與情緒表達。而當地震海嘯、金融危機等天災人禍發生時,算法則很難迅速判斷用戶對於突發性重大事件的關注程度,用戶往往主動會查閱官方的權威報導,此時人工編輯在信息需求市場所扮演的「壓艙石」角色得以顯現。此外,用戶雖然有信息「偏食」現象,但用戶口味也會變化,時間久了就會產生審美疲勞,所以主動瀏覽微信朋友圈或類似社群的偶發信息,同樣會佔據用戶一定的閱讀視野。因此,媒體型分發模式和社交-關係型分發模式在算法面前並未失效,而是三者共同匹配了用戶多層次、寬領域的資訊使用需求。只要人們的社會關係是活的,他們之間的聯繫與交流必定帶動信息的流動與交流,從而構造出人們信息來源的多元和轉換。
2.2對於用戶潛在信息需求的不斷挖掘是算法推薦在發展中不斷升級迭代的技術成長點
目前資訊市場的算法推薦產品尚處在不斷迭代升級的過程中。目前算法推薦的基礎原理主要是根據用戶主動設置或既有瀏覽記錄等歷史數據來預測和適配關聯文本,例如在APP初試界面自主設置「猜你喜歡」,或者在關聯帳戶上所保留的交易記錄、信息轉發或點讚。而對於對非結構性數據或缺乏記錄的用戶歷史行為(所謂「冷啟動」問題),當前僅憑算法還缺乏有效的判力,並且很難確定用戶行為背後的價值趨向。用流行的趣話來說,「有多少人工智慧就有多少人工」,即算法能力需要大量的標籤化數據及人機互動、各司其職作為基礎。這就導致當下算法所推送的信息往往是粗顆粒的、未必匹配實時場景切換的。這其中,情緒識別是當前算法的技術難點之一,尤其是通過靜態圖片或文字特徵難以斷定文本要表達的情感方向和程度。這就導致算法推薦通過數據知曉用戶對某明星感興趣,但很難鑑別你到底是「真愛粉」還是「黑粉」,於是不管你喜歡與否,系統會將吹捧和謾罵的內容一併推送給用戶。從這個層面上來說,算法把用戶感興趣的主題內容全部予以推薦,裡面包含了互相矛盾和對立衝突的信息和觀點,實際上反而削弱了「信息繭房」形成的可能性。
2.3個體的信息決策受到除技術外多種因素的影響
理性行為理論認為,個體的做出某一行為前會綜合各種信息以考慮行為的意義和後果,即個體行為意志將直接影響行為,所有的行動意向則完全取決於個體的自主意志。「信息繭房」假定用戶是基於興趣自由選擇信息,這符合理性行為理論的觀點。例如基於理性行為理論所衍生的技術接受模型認為,用戶願意使用一個信息工具的核心是「感覺有沒有用」和「感覺易不易用」。⑥而像算法類推薦工具,在「有用」方面,提供的是基於個體興趣和價值觀進行無縫的匹配信息,在「易用」方面,則根據既有瀏覽習慣和預測模型分析閱讀行為,有效節省了大量信息檢索和歸納的時間成本。在沒有其他變量幹擾下,算法型產品確實非常容易形成用戶黏性並影響用戶行為。
然而個體對行為的意志控制應視為一個連續體,如果我們設定一端為完全的意志控制之下的行為,另一端為完全不在意志控制之下的行為,那麼,實際上個體行為大概率地處於這兩端之間,而理性行為理論對不完全由個人意志所控制的行為難以給出解釋,個體行為又往往受到了諸多外在環境變量的影響。關於「整合型技術接受模型」的研究表明,除了績效期望、努力期望、社會影響因素在對行為意向產生影響外,在這一影響過程中,個體的性別、年齡、工作經驗以及自願性的原因亦會產生調節性作用。這意味著即便未被「植入」倫理價值約束的算法產品,也並非可以單向維度地導致用戶的負向行為,過程中依然會受到來自如個體本身的人口特徵偏向、現實生活的環境差異、社會群體壓力以及能否指導自身實踐等諸多方面的影響。
三、 算法推薦正在對「信息繭房」的消解發揮重要作用
技術是把雙刃劍,就如尼爾波茲曼激進地指出在電視替代印刷物成為統治媒介的時代,由於圖像為主導展示的電視難以像文字為主導的圖書那樣需要被理解,使得從政治、宗教到教育的一切公共話語都從理性和邏輯轉向碎片化和娛樂化。⑦一種新技術的出現勢必伴隨著批評之聲,算法也不例外。技術擴散的原始驅動力是市場,在算法與資訊行業結合的初期,為快速擴大用戶基數,必須迎合業已分眾化的市場趨勢,以滿足個性化的用戶興趣為第一要務,這是算法型產品得以生存和獲取融資的前提。這也是為什麼某些算法類APP在冷啟動階段(初始用戶群體和流量的原始累積過程)會採用推送「美色」圖文方式吸引眼球。然而隨著市場趨於成熟、社會認知的程度增加以及技術倫理得到重視,算法的人本價值勢必得到回歸。
3.1算法本質上是傳播權力向多數人的讓渡
信息的社會性分發歷來被視為是一種政治權力,一直以來這個權力都是牢牢地掌握在政治和商業巨頭手中的。在傳統的新聞生產中,傳播的主導權掌握在新聞媒體手中,媒體控制著傳播渠道與傳播內容,通過文字、圖片、音頻與視頻等為受眾構建起新聞事實的擬態環境,受眾在很大程度上只能作為新聞文本的「解碼」者而存在。因此,在傳統傳播模式中,受眾始終無法逃脫「木偶」這一角色。現在,在技術驅動和現實需求拉動的雙引擎下,基於大數據與人工智慧的推薦算法系統的引入,對傳媒領域來講,實質上是一種傳統的寡頭權力逐步讓位於技術邏輯主導的用戶權力的過程。⑧它將媒體的傳播主動權部分分流到了受眾手中,受眾不再是被動者,而是以信息傳播系統中編碼者的身份而存在,主動參與傳播過程。算法根據用戶的需求與個性推送新聞,使用戶自身在一定程度上成為自己的議程設置者,打破了媒體對傳播主導權的壟斷。同時,不同用戶的需求與個性是各不相同的,經由算法推送的新聞經過用戶的分享,使得多種聲音同時存在,顛覆了少數者的話語霸權。⑨概言之,算法實際上釋放了用戶的自主意識,提升了公眾參與表達的能力。
3.2算法的若干技術特性有助於解決越推越窄的問題
算法推薦有幾種主流技術類型,一是基於內容的推薦,即根據用戶歷史項目進行信息特徵抽取、過濾,生成模型,然後向用戶推薦與歷史項目內容相似的信息。它的優點之一就是解決了協同過濾中數據稀疏和冷啟動的問題,但長期使用用戶歷史數據容易導致推薦過度個性化。二是協同推薦算法,存在兩種方式:(1)基於用戶特徵的協同(user-based),如計算甲與乙兩者興趣相似,那麼當甲喜歡某部電影,則算法認為乙也可能喜歡。(2)基於項目(item-based)的協同,例如計算丙電影與丁電影都是某明星主演或同屬科幻片,則觀看了丙電影的人可能也喜歡丁電影。Tien T.Nguyen、Pik-Mai Hui等(2014)對某網站的電影協同推薦系統進行研究,基於用戶日誌獲取用戶電影評級與查看推薦電影頁面時的時間戳,以此觀測用戶是否使用推薦和使用推薦的後續行為。基於數據將用戶分為忽視組(Ignoring Group)(不採納推薦)和跟隨組(Following Group)(採納推薦),結果發現經過一段時間,跟隨組相對忽視組接觸了更多元化的電影內容。⑩這意味著,雖然基於內容的推薦算法可能會「窄化」用戶選擇,但協同過濾算法則是根據跟你相似的其他人喜歡什麼來進行推薦,因此用戶可能接觸到自己都想不到的多樣內容。隨著移動網際網路的興起以及包含內容和關係的社交媒體(如 Twitter、Facebook)的快速發展,單獨的推薦算法已難以滿足用戶推薦、內容分類、話題挖掘等需要,因此,融合多種算法、關聯更大數據的組合推薦系統得到發展與完善。在推薦系統的實踐應用中,經常運用兩種或兩種以上的推薦算法,以整合優化新聞、資訊及其傳播,彌合各自的不足與欠缺,實現精準預測和推薦。
3.3可信任的算法推動了用戶與內容的友好會話
應該指出的是,算法技術本身並無「原罪」可言,可信任的算法技術是人文理性與技術理性相交融的產物。解決問題的可行性路徑是,我們如何為算法植入價值觀,如何為極易產生沉浸感的算法型產品加入幹預和提醒機制。11算法與人的互動,本質上是算法背後設計者的價值邏輯或意識形態與用戶的互動。實際上,在意識到「信息繭房」存在的影響後,主流媒體機構、網際網路公司等都通過諸多嘗試優化內容的分發規則,建立可信任算法的倫理框架。
一是堅持人機協同,在算法技術應用基礎之上重視人工編輯的作用。算法信息分發平臺通過「算法+人工」的方式對優質內容和重要信息予以加權推薦。例如讀者偏左派的《衛報》每周選擇5篇保守派文章組成專欄,以拓寬讀者視野。《華爾街日報》創設了「紅推送,藍推送」,將社交媒介上的同類內容的自由傾向、保守傾向的信息並列推送給用戶。國內的算法資訊公司如今日頭條也大幅增添了審核人員,加強對不良信息和虛假內容的攔截。人機協同是算法信息分發中強化人的主體性、能動性的重要手段,通過人機協作,讓算法推薦更好地體現人的主導性和價值觀。
二是注重公共議題的新聞專業主義。新聞專業人士擁有一整套共享性的倫理規則與專業角色觀念,以及長期專業訓練所掌握的常規性邏輯,還肩負著一種處於社會結構之內的認知責任(epistemic responsibility),即為大眾創造知識。正如科瓦奇和羅森斯蒂爾提及,「新聞業對一個文化而言有其獨特的作用:為公民提供實現自由所需的獨立、可靠、準確、全面的信息」。12 利維斯(Lewis)將新聞業的專業邏輯和參與邏輯區分開來看待。利維斯所說的專業邏輯主要指傳統新聞業的實踐活動,而參與邏輯主要指一種集體實踐活動,這種集體實踐活動一般被稱為「公民新聞」(citizen journalism)。這種參與邏輯主導下的內容生產與信息發布,並不受新聞專業主義在社會結構與職業要求下認知責任、認知承諾的約束,故而並不帶有信息選擇的合法性,也不負擔社會希翼。因此,算法公司將某些涉及公眾價值觀引導、涉及重要社會內容的報導與處理讓渡給新聞專業主義,例如在媒介融合的實踐中,今日頭條、百度百家號等將時政新聞板塊交由主流媒體「打理」。在此之前,政務新聞的報導可能由公眾的信息作坊生產,在內容發布、信息對接方面缺少監管與把關,但在拉動點擊率為目標、在獲得最大公約數受眾的共同興趣旨趣下,內容必然流於低俗、獵奇這類共性的方向上。未來新聞專業主義應在算法的應用普及事實之上,在整個系統中做出調整,改變新聞知識的塑造模式以及新聞合法性話語模式。
三是在「隨機」設計中注入人性關懷。在算法開發和設計階段,開發者逐漸考慮到用戶需求與行為中「搖擺著的矛盾」,即人之為人的複雜性,普遍在原有算法模式上採用「隨機」推薦以增加用戶的信息差異。這一「隨機」推薦主要遵循如下需求特性:(1)「穩定性」與「流動性」:注重用戶在某一時間區間的信息需求偏好的相對穩定性與轉移可能性。(2)「同質性」與「異質性」:即在推薦與個體需求與氣質同質的信息時,提供特定比例的異質性信息。(3)注意到「個體性」與「公共性」:個性化固然重要,但具有公共價值與普世性的信息文本可為社會的共通意義空間製造更多可能性。(4)「信息舒適區」與「信息不適區」:在一味順應與迎合用戶心理、為用戶提供一個被舒適信息包裹的幻象之時,提供一些刺耳的不悅之聲,讓用戶了解世界的諸多面向。
概言之,算法導致「信息繭房」是對新技術負面影響的誇大,隱含著 「技術決定論」的色彩。「信息繭房」並非用戶常態化的媒介使用狀態,且受到來自個體、社會以及技術等多方面因素的擴張、轉換與替代的影響。忽略人的行為決策的複雜性,單純探討技術與傳播現象的關係,只會導致問題的簡單化和結論的粗暴。實際上, 「以人為本」的算法加上與人的智能的深入融合,不僅為人們提供了多元和理性的信息世界,也為算法技術提供了善意的發展路徑。
注釋:
①烏爾裡希·貝克烏爾裡希·貝克,安東尼·吉登斯,斯科特·拉什.自反性現代化:現代社會秩序中的政治傳統與美學[M].趙文書,譯.北京:商務印書館2014:74.
②李培林,李強,馬戎.社會學與中國社會[M].北京:社會科學文獻出版社,2008:134.
③祝建華.數碼溝指數之操作定義和初步檢驗[M].汕頭大學出版社,2002:203-211.
④威廉·夏伊勒.第三帝國的興亡[M].董樂山等譯,北京:世界知識出版社.2012:347.
⑤喻國明,韓婷.算法型信息分發:技術原理、機制創新與未來發展[J].新聞愛好者,2018:8-13.
⑥魯耀斌,徐紅梅.技術接受模型及其相關理論的比較研究[J].科技進步與對策,2005(10):176-178.
⑦尼爾·波茲曼. 娛樂至死[M].章豔譯,北京:中信出版社,2005.
⑧喻國明,韓婷.算法型信息分發:技術原理、機制創新與未來發展[J].新聞與傳播研究,2018(04):8-12.
⑨喻國明,楊瑩瑩,閆巧妹.算法即權力:算法範式在新聞傳播中的權力革命[J].編輯之友,2018(05):5-12
⑩Tien T. Nguyen,Pik-Mai Hui,F. Maxwell Harper,etc.Exploring the Filter Bubble: The Effect of Using Recommender Systems on Content Diversity[C]. Seoul, SOUTH KOREA: 23rd International Conference on World Wide Web,2014:677-686.
11喻國明.如何為算法植入價值觀[J].青年記者,2018(10):4.
12Kovach B, Rosenstiel T .TheElements of Journalism[M]. New York:Three Rivers Press,2001:3.
作者簡介:喻國明,教育部長江學者特聘教授、北京師範大學新聞傳播學院執行院長、中國新聞史學會傳媒經濟與管理專業委員會會長;方可人,北京師範大學新聞傳播學院博士後研究人員
編輯:徐峰
關注前沿新聞理論,打造媒體研究平臺,長按二維碼,看《新聞論壇》怎麼說。
歡迎投稿,論文要求視角新穎,與媒體實踐有深度結合,字數3000字以上,6000字以內,投稿郵箱nmgxwlt@126.com 或xwlt0903@163.com
本刊未授權任何單位和個人在網上或線下代為徵稿,也不收任何費用。近一個階段,有許多人冒充本編輯部在網上或網下徵稿,給本刊帶來了不良影響,本刊將通過法律渠道追究其不法行為。同時,希望廣大讀者通過本刊電話諮詢相關情況,本刊電話(0471)6635516。
《新聞論壇》是內蒙古日報社創辦的新聞類期刊,創刊於1986年,是內蒙古自治區唯一一份新聞傳播類學術期刊,被中國知網(CNKI)期刊資料庫和國家哲學社會科學學術期刊資料庫全文收錄,為國際DOI中國註冊與服務中心(學術期刊)會員,同時是中國少數民族地區信息傳播與社會發展論壇理事單位。期刊受到學界、業界和新聞管理部門等主體目標受眾的高度歡迎。
本刊關注媒體發展最新動態和前沿理論,以「新聞採編業務研究、編輯發行、媒體研究和評價」為基本定位,以「高端、前沿」為辦刊理念。從2014年第6期改版以來,以媒體發展分眾化為發展突破點,重點打造《少數民族新聞傳播》《前沿話題》《專家訪談》《名家說事》《新聞閱評》等專欄,形成了品牌特色優勢。截至目前,本刊已有40多篇文章被中國社會科學網轉載,8篇文章被《新華文摘》全文轉載或論點摘編。同時,中國知網數據顯示,至2019年8月,本刊出版文獻量為3150篇,總下載次數為211291次,總被引次數為1543次。
本刊已與北京大學、清華大學、中國人民大學、中國傳媒大學、中國社科院、《中國記者》雜誌社、內蒙古大學、內蒙古師範大學等區內外新聞院校和科研機構,以及區內外20多家媒體單位建立了合作關係。本刊同時聘請國內學界方漢奇、鄭保衛、白潤生、彭蘭、陸地、宮承波、周德倉、黃楚新、陳國權、張麗萍、江鴻11位知名專家教授為顧問,形成了全國性學術影響力。2014年本刊入選由童兵主編的《新聞傳播學大辭典》,2015年被中國新聞史學會少數民族新聞傳播史研究委員會推選為理事單位。目前本刊已建立了新浪微博、微信公眾號,同時入駐今日頭條頭條號和澎湃新聞澎湃號。本刊已與中國知網、維普資訊網、龍源期刊網等新聞期刊權威網站建立了內容發布合作平臺。
歡迎各單位從當地郵局訂閱《新聞論壇》(漢文),全年60元,郵發代號:16-414,聯繫電話:6635549。
原標題:《喻國明:算法推薦必然導致「信息繭房」效應嗎》