From: Verge;編譯: Shelly
過去,Facebook一直使用人工審核。然而,一方面,員工的工作強度和人權問題曾飽受爭議;另一方面,人工審核單純按照時間順序審核,已經不能適應社交媒體現狀。
Facebook官方稱,未來將使用更多機器學習算法對文本進行排序,並確定了三個定義排序優先級的標準:傳播度、嚴重性以及違反規則的可能性。
至於AI預判帖子的準確率究竟有多少,Facebook不願透露,但可以確認的是,整個項目已經在有條不紊地進行了。
還記得川普的競選推特不斷被官方標為虛假信息嗎?現在,同行Facebook開始應用AI對內容進行排序審核了。
Facebook一直明確表示,希望人工智慧在其官方平臺上更多地參與內容審核。11月中旬,Facebook官宣:將讓機器學習內容審核。這意味著,Facebook朝著它的AI目標又邁出了新的一步。
目前,在Facebook上,從垃圾郵件、仇恨言論到「煽動暴力」的內容,都會受到人工或機器的自動篩查,機器學習過濾器會把它們標記為違反平臺規則的帖子。
對於一些非常明確的有害或不實信息,系統會直接刪帖或封號,另一些處於灰色地帶的帖子則會自動排入序列,等待人工審核。
值得一提的是,「懂王」川普在其總統在職期間享有的「社交媒體言論豁免權」預計在明年1月就會「如期」結束,當機器審核的力度加大,他會被臉書和推特封號嗎?
美國女主播@morningmika就曾在推特上炮轟為什麼川普的帳號還沒有被封。「我會聯繫推特的負責人,讓他們知道,川普總統每天都在違反他們的政策和規定!」她說。
人工審核曾受質疑
機器審核又有哪般新標準?
Facebook在全球範圍內僱用了約15,000名審核員,過去因這些審核員沒有得到足夠的保障和支持,Facebook一度受到非議。批評和質疑聲認為,這些員工的主要工作是對被機器自動標記的帖子進行排序,考量其是否違反平臺的各項政策,並做出棄留決定,因此,他們有可能受到精神創傷。
以下是其中一項指責Facebook給審核員施加精神壓力的批評:
「Utley退伍後,他當了Facebook的夜班審核員,負責清除用戶每天發布的最糟糕的內容:仇恨、謀殺言論和兒童色情內容。Utley所在的Facebook內容審核小組位於佛羅裡達州坦帕市,由一家名為Cognizant的專業服務供應商運營。該公司約800名員工面臨來自老闆的無休止壓力,被不斷要求更好地執行該社交網絡的社區標準,而這些標準幾乎每天都會更新,這讓承包商的員工永遠處於不確定狀態。」
Facebook的舊審核系統結合了機器學習的主動調節和用戶的反饋。
過去,審核員或多或少是按時間順序審查帖子,即按照帖子被標記的順序處理之。而Facebook的現行審核方式是利用機器學習優先審查最重要的帖子。
Facebook表示,未來將使用多種機器學習算法對帖子進行排序,優先級排序的標準是:傳播度、嚴重性以及違反規則的可能性。
Facebook的新審核系統使用機器學習對等待人工審核的帖子進行排序。
Facebook此番內容審核新舉是值得肯定的。單拿川普來說,為了跟上他一人一天幾十條推特的步伐,審核工作的不易就已經可見一斑了。萬事皆有兩面,從好的方面來說,川普任職四年的貢獻也許還包括推動社交媒體改革,因為社交平臺在一定程度上意識到了內容審核機制亟待優化的必要。
不過,Facebook這些內容審核的標準如何加權尚不清楚,但其表示,首要是處理最具破壞性的帖子。帖子傳播得越廣、被分享和查看的次數越多,則被處理的速度就越快。Facebook稱,它將把涉及現實危害的帖子列為「最需要重視的帖子」,譬如,涉及恐怖主義、剝削兒童或自殘的內容會被優先處理。相應的,類似垃圾郵件之類的煩人但不傷人的帖子會被排在不那麼重要的位置。
參與內容審核時,AI在想什麼?
Facebook社區信用團隊的產品經理Ryan Barnes在新聞發布會上說:「所有違反內容的行為仍將受到實質性的人工審查,與以往不同的是,我們將使用AI系統更好地確定該過程的優先級,即儘量確保審核人員不收到傷害。」
Facebook公開了部分機器學習過濾器的信息。人們可以發現,Facebook所用的過濾系統裡有一個名為「WPIE」的模型,採用了Facebook所謂的「整體」方法來評估內容,做到了對整個帖子的完整性嵌入。
這意味著,算法會試圖分析文案、圖像、標題、海報等信息結合起來傳達的意思,將帖子裡的各種元素整合起來加以預判。
比如說,如果帖子的文案大意為,他們想要賣整批的「特推美味 (special treats) 」,圖片是一張看起來像是烘焙食品的圖片,那麼AI會思考:發帖人是在談論食品嗎?如果標題中還使用了某些單詞,例如「有效 (potent) 」,那再加上之前對文案和配圖的分析,AI就有可能扭轉之前的判斷。
AI或許沒辦法完美
但人可以促成美好的改變
在Facebook早年使用AI審核的試水中,曾經有批評者指出,AI沒辦法hold住大量的在線交流,在動態的交流信息中,AI是沒有判斷能力的。尤其是在出現「霸凌」和「騷擾」等相關信息時,AI可能幾乎不知道自己在看什麼。
Facebook交互完整性團隊的軟體工程師Chris Palow同意AI有局限性,但他也強調,在刪除無用信息、有害信息方面,AI的確可以發揮作用。
「我們的系統旨在使AI和人工審核相結合,減少總體錯誤數,」Palow說,「人工智慧永遠不會是完美的。」
當被問及AI預判帖子信息的準確率,Palow沒有給出直接答案,但指出:只有當機器審核的準確率和人工審核完全一致時,他們才會完全捨棄人工審核。「畢竟,完全交由機器操作的門檻很高。」 Palow說。
不管怎樣,眼下Facebook已經在穩步擴增更多的AI進入內容審核的隊列。可以想見:在社交媒體漸趨複雜的今天,由人工智慧參與社交媒體內容審核是大勢所趨。對於網民來說,「網絡桃花源」或許只能存於幻想,但任何一絲一毫淨化網絡、祛惡揚善的努力都不能放棄。
re:
https://www.theverge.com/2020/11/13/21562596/facebook-ai-moderation
https://www.theverge.com/2019/6/19/18681845/facebook-moderator-interviews-video-trauma-ptsd-cognizant-tampa
掃碼觀看!
本周上新!
徵稿啦!
想讓你的工作獲得更多關注?
想與更多大佬進行學術交流?