真正的現實並不存在
我們能做的就是無限接近現實
2018年,我在衡山和集做講座。在提問環節,有一位現場觀眾舉手問我:「徐老師,我在刷社交媒體常常會因為看到不同的新聞而心情波動,一會兒亢奮、一會兒焦慮,我不知道該怎麼辦,你有什麼建議嗎?」
我當時的回答是:「你的潛意識在告訴你『關掉那個APP』,不要再看了。」
在我寫這篇文章的時候,我媽剛好在家人群裡甩了一條她從抖音上下載下來的「2021年最新騙局」的短視頻。好幾次大半夜我經過他們的臥室去洗手間的時候,常常會看見我爸在刷抖音,屏幕反射的光照著他的臉影影綽綽的。
你有沒有意識到,我們好像已經離不開社交媒體了?
我們幾乎無時無刻地、無意識地在滑動的手指,通過來自無數個機構或個人的帳號,閱讀、傳播、評論這些訊息——並對這些深信不疑。
我們以為自己在社交媒體上所看到的「世界」就是世界,所看到的「真相」就是真實,並為認同的觀點搖旗吶喊,認為自己能夠戰勝所謂的人工智慧,將它收為己用——假如說這些都是人類狂妄自大的錯覺,你會作何感想?
或許悲觀,也或許是危言聳聽。原本為了推動社會發展、促進人類生活的科技正在重新改寫我們的歷史,它甚至成為了動搖和侵蝕社會結構的工具,並製造了文化戰爭。
《監視資本主義:智能陷阱》和《真相之後:造謠與假新聞》
上述這些,是源自我在看完紀錄片《監視資本主義:智能陷阱》和《真相之後:造謠與假新聞》的第一感想:
隨著科技以難以預估的速度發展,社交媒體正在藉助算法在我們的大腦深層進行編程,為我們植入無意識的習慣,小到你的點讚、轉發,大到你成為社交媒體上的意見領域,我們幾乎每一個人都避無可避地以一己之力抵抗著成千上萬的工程師和超級電腦——在完全的無意識中。
《監視資本主義:智能陷阱》(下文簡寫為《監視》)是 Netflix 於2020年以社交媒體為主題的推出的一部紀錄片——我願意將年度最佳的紀錄片頒發給它,因為它讓自詡為「善於利用社交媒體」的我頗受震撼,它讓我意識到原以為自律、自製就能夠抵抗的人工智慧比我們想像的更為強大,也忽然發現曾經妄想勝過它的自己顯得是多麼地愚昧和無知。
這把名為「社交媒體」的達摩克利斯之劍是由我們所有人親自打造、親自懸掛到自己的頭頂,而我們每一個人既是受害者,也是幫兇。
《監視資本主義:智能陷阱》
在《監視》中,導演邀請了一批曾經就職於google、pinterest、twitter、instagram 等技術產業的眾多專家們談起了社交媒體軟體的運行機制和數據分析的狀況。其中的一名專家將如今活躍在社交媒體上的用戶,稱之為「人類期貨」,而以社交媒體為首的科技平臺正是這個大範圍交易人類期貨的市場。
用最直白的話來說,「如果你沒有花錢買產品,那你就是被賣的產品。」我們就是這些正在被售賣的產品。
《監視資本主義:智能陷阱》
仔細思索一下,我們是否在瀏覽微博、朋友圈時常會收到奇怪的廣告,這些由廣告商花錢買單的廣告幾乎塞滿了我們的每一個社交媒體平臺,且防不勝防。而後,你會發現,你和你的朋友收到的廣告訊息還不盡相同:譬如你是時尚愛好者,你會很有可能收到是美妝護膚品的廣告;若你是美食愛好者,就有可能收到餐飲打折等廣告,就仿佛是有一個隱藏在暗處的數據分析者正在將每一個使用者細細解剖,將個中的經絡梳理成數據標本——我們喜歡統一將這種現象稱之為「大數據時代」。
據《美國國家科學院院刊》記載, Facebook 運作的方式是基於一種名為「海量規模蔓延實驗」(Massive-Scale Contagion Experiments)。該研究表明,其他人在 Facebook 上表達的情緒影響著我們自己的情緒,構成了通過社交網絡大規模傳染的實驗證據。
據數據統計,人們在周一時情緒低落,周四則容易興奮,因此營銷公司會根據人們的情緒不同而因時制宜、推送相關的訊息。Facebook 會依靠一個自動系統來識別積極或消極的詞語,它會不停地收集你的個人情緒,將它們轉化為訊息,然後向你推送相關的廣告。
《監視資本主義:智能陷阱》中的「海量規模蔓延實驗」
這些社交軟體的構建機制在於以「人類期貨」為目標而產生的「預判能力」,首先會為每個人建立一個「關注模型」(Attention Extraction),再根據個人的信息、情緒進行預判,之後這個數據模型會逐漸完善,就像上圖中從最初一個模糊不清的3D模型,到逐漸變成了五官清晰、與真人無異的模型,而擁有最優秀模型的公司就是「人類期貨」市場的大贏家。
舉一個最常見的案例。當我們在淘寶網站上進行購物時,是不是時常會發現當自己點入某件產品連結的頁面時,頁面下方會同時推送你相關的產品推薦/其他人在購買什麼,事實上這就是對你的喜好和需求在進行二次分析。等你點入其中的某個連接時,它會迅速對你的選擇進行分析,再次推送其他的相關訊息……最後你會發現購物車裡的東西越來越多。
或許有人會說,難道我們不能進行自我控制嗎?
很顯然,這非常難。
《監視資本主義:智能陷阱》
引用紀錄片中生物學家的說法「社交媒體是新時代的毒品」,開發者在開發時就是在構建一個以人類自身為獵物的軟體,自己也會受制於它。片中,前Pinterest 的程序開發人員就說了這麼一番耐人尋味的話:「即便我是這個軟體的開發者,我也深受影響,難以自拔。」
如果一個東西不是工具,那麼它就會在你身上有所求、引誘、操縱你。
《監視資本主義:智能陷阱》
我們是否有注意到,當你放置了某個社交媒體APP數小時後,它會不停地推送給你一些非常具有「標題黨」屬性的訊息和新聞,包括且不僅有「你的朋友正在看什麼」、「你關注的誰剛做了什麼」、以及一些與明星相關的熱點、八卦新聞等,它們都會不斷地出現在你的待機屏幕上,不斷地誘惑你再次打開它們,隨後讓你陷入新的惡性循環。
數據證明,1940年至2020年,計算機的運算速度幾乎是成指數地向前發展,而人腦的進化發展根本趕不上這樣的速度。
《監視資本主義:智能陷阱》
人工智慧早已經操控了整個世界,算法有著自己的思想,它是一個會自主進化的機器,並且進化迅速。當技術超越人類的弱點時,我們會對它上癮,受它所控,隨後會導致我們的自我控制情緒能力下降:兩極分化、激進化、激化憤怒、計劃虛榮……一切根源都是因為它在壓制人類的天性,挫傷人性。
《監視資本主義:智能陷阱》
「假新聞」(Fake News)、謠言正在社交媒體上四起。各種各樣的陰謀論充斥著我們的視野,那些不經查證的訊息因為大量的轉發、評論,從荒誕不經的「虛假」成為了看似板上釘釘的「事實」。
2020年上線的HBO紀錄片《真相之後:造謠與假新聞》就是講述了假新聞和謠言是如何正在瓦解這個社會的信任感和人與人之間的聯繫。
片中提到,「假新聞」在推特上傳播的速度比真實新聞要快上6倍,它仰仗的正是我們自認為的「公開、真實」的評判,卻也在無形中讓我們陷入了信息繭房的危機,而且我們沒有意識到各種謠言的產生都是有傾向性的。
《真相之後:造謠與假新聞》中一名政客這樣說道
我們正在處於一個「後真相時代」——「有一部分人為了自身的利益,正在利用這些科技、無視客觀事實,盲目迎合受眾的情緒與心理,使用斷言、猜測、感受等表達方式,強化、極化某種特特定觀點抹黑對方,博取眼球效應和支持率」。
《監視資本主義:智能陷阱》
這是一個將信息武器化的時代。社交媒體,究竟是真實的揭露者還是推波助瀾的幫兇?
紀錄片《真相之後》和《監視》同時提到了一個新聞事件——「披薩門」(Pizzagate)。2016年,在總統大選時期,一則聲稱希拉蕊·柯林頓和民主黨精英在華盛頓一家名為「桌球彗星」(COMET)披薩店經營兒童性交易團夥的陰謀論被廣泛流傳。
《真相之後:造謠與假新聞》
當時柯林頓的競選辦公廳主任約翰·波德斯塔的私人電子郵箱被黑客入侵,後者在他的郵箱中發現了大量和披薩有關疑似兒童性交易相關的「暗號」。隨後,有心人故意在Reddit 發布這一則不實消息,暗指披薩店正在進行不法兒童性交易,而後又在4chan、8chan和Twitter等社交媒體上散播披薩店涉嫌經營兒童性交易的事件。披薩店在那之後備受各種騷擾,甚至還有死亡威脅。一個月後,一名來自北卡羅來納州的男人視自己為故事中可能會拯救到孩童的英雄,他手拿步槍闖入披薩店,並在餐廳內部開槍,威脅老闆詹姆斯·阿萊凡蒂斯和店員交待「那些被囚禁的兒童究竟在哪裡」。
耐人尋味的是,在當時整個傳播途徑中,所有自詡正義之士的網民們在阿萊凡蒂斯的社交媒體上像鬣狗一樣群起而攻之,在他的社交帳號裡尋找其涉嫌兒童性交易的「證據」,包括他在社交媒體上發布的教女在後花園奔跑、喝牛奶的照片,都被有心之人解讀為「具有兒童性暗示的犯罪證據」——這是否像極了我們為了抓住某個人的痛腳,恨不得翻遍對方的所有社交訊息,從中尋找出蛛絲馬跡後,為其定罪的方式?
《真相之後:造謠與假新聞》中「桌球彗星」披薩店的員工
陰謀論似乎總是能夠引起大眾的關注,掀起一波又一波的狂歡浪潮,然後幾乎所有人都抱著吃瓜的態度,肆無忌憚地尋找著蛛絲馬跡,為「真相」添磚加瓦。
這些「證實偏見」(*我們的大腦同樣會選擇性的留下符合我們既有觀點的記憶,而忘掉那些與違背我們自有觀點的事情)讓所有人都認為自己手握確鑿的證據,板上釘釘地確認披薩店店主是不折不扣的兒童性犯罪者。隨後,這場網絡暴力就演變成了現實生活中發生的行兇案。
《真相之後:造謠與假新聞》
在事情發生後,店主阿萊凡蒂斯在鏡頭前說道:「我們無法澄清本身就是虛假的新聞,但這些謠言本來是可以避免發生的。」
「披薩門」固然是一件非常極端的事件,但是我們也應該認真思考一下是不是自己也曾經目睹、甚至參與過這樣的社交媒體的無意識網暴現象?而這些可能僅僅只是出自我們的正義感,只是未曾想像過它從一開始的出發點就是存疑的?
《真相之後:造謠與假新聞》
去年8月,在微博上引起熱議的「羅冠軍性侵案」,女方以一條長微博,講述了自己被前任性侵、PUA的經過,引起了大量善良的網友轉發支持。但是不料,事件沒過多久就反轉,女方口中的性侵者前男友羅冠軍在社交媒體上為自己澄清「是被冤枉」的,同時他給出了一些錄音、聊天記錄等相關證據,自證清白。在劇情反轉後,許多網友在他的微博評論處為自己對他的誤解而表示歉意,但不可挽回的事實是羅冠軍在現實生活中已經是「社死」(社會性死亡)的結果。諷刺的是,大部分曾經義憤填膺討伐他的不少大V也只是將先前轉發的討伐他的微博進行刪除,並未作出任何公開表態,就好像事情從未發生過一般。
耐人尋味的是,在女方律師發布聲明表示「自己是冤枉羅冠軍」的前提下,依然有不少網友在社交媒體上認為「她一定是受了男方的脅迫,才會發這樣的聲明」。在某種政治正確的主張下,這場羅生門的後續影響依然還在發酵中。
同年9月,中國政法大學教授羅翔因為發了一條微博,被網友捕風捉影,認為他在暗諷當日的頒獎大會,遂對他的往日的微博進行了排查式的尋找蛛絲馬跡,最後給他貼上了各種標籤。結果,羅翔在微博上表示「暫時不再更博」。
諸如此類的事件舉不勝舉,社交媒體的匿名性從某種意義上來說是惡意中傷、誹謗的催化劑,也是攻擊者的溫床。信息繭房所誕生的「部落主義」正在摧毀我們的理性和邏輯,讓我們被情緒所掌控。越是極端化的觀念越是容易獲得支持,非黑即白,逼人站隊,最後形成新一輪賽博大戰——這些都是人類的情緒被機器大信息數據收集後的分類,而這些「部落」的最終形成都是依託前者,我們被數據刻意地劃分成了敵對的陣營,我們眼前只有自己想看到的「真相」,並對它深信不疑,甚至為此衝鋒陷陣。
《監視資本主義:智能陷阱》
可怕的是,即便是當我們試圖在社交媒體上為自己澄清誤會時,也已經主動走入了平臺為你設定好的遊戲規則。殘酷的真相是,當我們走進由他們設立的遊戲規則中玩時,我們是永遠無法贏過對方的。
另一方面,青少年們正在收到來自社交媒體的各種威脅。過度在意社交媒體上自己的粉絲數、點讚、評論的多少,讓許多青少年不停地自我懷疑、心存自卑,產生各種不良影響,譬如抑鬱、焦慮等。這些毫無預防的年輕人可能會因為羨慕社交媒體上別人營造出的光鮮亮麗而陷入自毀的傾向中,譬如過度整容、貸款提前享受等。人生觀、價值觀、世界觀尚未完全形成的他們試著從外界這些肉眼可見的轉發、點讚中獲得自我存在感的價值,將自身的意義架設在這些匿名者的評價中——甚至後者的評論並不都是客觀的,有些甚至帶著其他的企圖,但是他們也絲毫沒有察覺。
《監視資本主義:智能陷阱》
韓炳哲的《在群中:數字媒體時代的大眾心理學》提到,信息疲勞綜合症就是由過量信息引起的一種心理疾病。患者會抱怨分析能力下降,無法集中注意力,普遍焦慮,或者失去承擔責任的能力。產生這種心理疾病的原因就在於我們所有人都面對著快速增加的大量信息。
《在群中:數字媒體時代的大眾心理學》
「技術不是人類存亡的威脅,是技術能夠把社會中最壞的東西帶出來的能力,社會中最壞的東西才是人類存亡的威脅。如果技術創造了公眾混亂、憤怒、無禮,彼此缺乏缺乏信任,孤獨、疏遠、更加兩極分化,讓人更加分散注意力,無法集中在真正的問題上……那只會導致社會無法自愈,轉移成一種混亂的形式。」
人道技術的創新,原本是為了服務和幫助人類,但如今正在毀滅我們。我並不是一個樂觀主義,至少我認為在科技與人類的這場較量中,人類正處於劣勢。
那麼,我們究竟該怎麼做,才能夠避免未來繼續惡化?
在《監視》末尾,有一位專家給出了他的意見:
1、我們要永遠學會自己選擇;
2、尋找信息來源,判斷是真實;
3、耐心地察看不同的觀點,避免非黑即白的觀點。
或許我們憑藉一己之力確實無法抵擋成千上萬臺的計算機構成的人工智慧,但當我們意識到自己身處禁錮時,那就是變革的開始。
《監視資本主義:智能陷阱》
- end -