上周末紐西蘭清真寺槍擊事件,不僅在各國引起話題,其相關視頻更是散布各大社群媒體,在這敏感時刻,各大社群媒體又是如何應對大批湧進的「違規視頻」呢?事件發生後,政府要求相關社交平臺解釋,為何臉書公司和油管都無法阻止此類直播發生。
Facebook負責業務誠信的副總裁Guy Rosen在周三晚些時候發表的評論中稱,該公司的人工智慧工具未能監測到上周克賴斯特徹奇恐怖襲擊案槍手在該社交媒體平臺上現場直播的視頻。究其原因是因為該公司目前沒有大量數據來訓練其人工智慧對現場直播的大規模槍擊事件進行訓練。該事件還類似於該平臺上常見的第一人稱射擊視頻遊戲畫面。
Facebook方面表示,其公司的人工智慧未能探測到上周五紐西蘭清真寺襲擊事件的現場視頻,因為該人工智慧系統還不夠智能,無法識別襲擊者拍攝的大規模槍擊案。
在本周三的一篇博客文章中,Facebook提供了一份詳細的綱要,說明它是如何回應恐怖襲擊的視頻的。Facebook一直在使用人工智慧算法自動刪除包含色情和恐怖分子贊助內容的視頻和圖像。這些算法之所以能夠做到這一點,是因為它們已經獲得了大量現實世界中令人反感的內容的例子。
Facebook副總裁蓋伊·羅森表示,這樣的事情其實很少發生。上周五的槍擊事件並沒有通過該系統來傳播,因為Facebook還沒有掌握描述大規模槍擊案現場直播的培訓數據及機器學習數據。讓事情更加複雜的是,Facebook上流傳著大量描述第一人稱射擊遊戲畫面的視頻。而Facebook副總裁蓋伊·羅森羅森補充則解釋說:「另一個挑戰,就是自動從視覺上相似的、無害的內容中識別這些槍擊案的內容——例如,如果我們的系統標記了來自直播視頻遊戲的數千個視頻或者是電影視頻,我們的評論者可能會錯過那些重要的真實世界的視頻,在這些視頻中,我們可以提醒現場急救人員尋求幫助。」
因此,該公司不得不依靠用戶來了解拍攝鏡頭。然而,在直播過程中,這段視頻只被觀看了200次,沒有一次生成一個用戶報告。就在直播結束後12分鐘,一名Facebook用戶最終報告了內容。在最初的視頻在Facebook上被撤下之前,它已經被觀看了4000次。但最終,越來越多的用戶開始在Facebook上分享和發布這段視頻的新版本。
羅森將這段視頻的傳播歸咎於三個群體:故意想要保持視頻內容的壞演員;報導該事件的媒體機構,以及對這一事件感到好奇的普通用戶。更糟糕的是,這些視頻的新拷貝以不同的格式被分享,這使得Facebook的自動系統更難檢測和刪除這些視頻。羅森稱:「目前我們總共發現並屏蔽了800多個視覺上截然不同的流傳視頻。」Facebook的系統最終變得足夠智能,在上傳過程中自動刪除了120多萬段攻擊視頻。然而,大約30萬份拷貝在發布後才被刪除。
那麼,Facebook如何才能防止另一起槍擊案病毒式傳播呢?該公司沒有提供任何明確的解決方案。羅森說。「有些人問我們是否應該在Facebook直播中添加一個時間延遲,就像電視臺有時使用的廣播延遲一樣。(但是)每天有數百萬的現場直播,這意味著由於視頻的絕對數量,延遲將無助於解決這個問題,」
然而,該公司確實計劃改進其人工智慧系統,以快速檢測和防止有問題的視頻傳播。其中一個實驗涉及使用基於音頻的技術來識別同一視頻的不同格式。