大數據文摘出品
作者:牛婉楊、曹培信、劉俊寰、馬莉
我們與惡的距離或許比想像中更近。
3月22日,一名代號「博士」(真名趙主彬)的男子被韓國警方拘捕,揭開了一個隱藏在網絡角落的大型犯罪「暗地」。
從2018年開始,一個網名為「Godgod」的人便開始在推特上尋找他眼中的「性感」女性照片,冒充警察威逼利誘受害者們拍攝裸照,再用這些照片威脅受害者,對受害者實施性剝削,並在Telegram上的聊天室發布這些性剝削畫面供會員觀看並收取會費。
被收費進入的會員更加變本加厲的提出各種變態要求,「Godgod」也一一滿足,一時間要求加入聊天室的人也變得越來越多,很快地聊天室也從唯一的1號房擴展2號房、3號房……,這也是N號房的由來。
隨著加入的人越來越多,團夥還根據發布的內容建立不同的房間,「女教師房」、「女護士房」、「女中學生房」,甚至還有「女童房」。
平均每個聊天室有3到4個受害者,而一個聊天室裡有300到700個觀看者不等,當受害者開始反抗時,他們便利用掌握的個人信息去威脅受害者,讓她們「一輩子都活在這種恐懼之中」。
去年7月,趙立彬創立了第二個N號房,並利用自己的手段將整個犯罪體系變得更加完善,手下有大量的志願者給他工作,受害人數也變得更多。
截至2020年3月22日,韓國警方所掌握線索的被害女性多達74人,其中16人為未成年人,最小年齡受害者為年僅11歲的小學生,甚至有不止一名女性因為不堪羞辱,而選擇自殺身亡。
直到今年初,2位作為臥底一直潛伏在n號房內部的大學生臥底記者在收集到足夠的證據之後向警察舉報了N號房,才把這令人髮指的犯罪事實詳細地報導出來。
更令人震驚的是,參與過Telegram N號房的觀看者超過26萬,佔了韓國目前男性的1%。但除了最終臥底的記者,在長達3年的時間裡,沒有任何一個參與者挺身而出,舉報這一可怕的組織。
一些韓國民眾認為,在房間裡觀看的每一個人都是殺人犯——26萬會員對犯罪行為袖手旁觀,因此向青瓦臺發出請願,要求公開「博士」犯罪集團成員以及所有「N號房」會員的身份和照片。
受害者跡象?AI技術能做什麼?
「N號房」事件持續發酵,讓人們再次感受到了比任何電影劇情都可怕的人性之惡,也掀起了對網際網路犯罪和技術平臺使用的全民反思。
儘管很難找到共性,但網上侵害在發生之前,依然會發生一些行為跡象:
問一些隱私性的問題:頻繁詢問你住在哪兒,你和誰住在一起,那麼這就需要注意了。
恭維你:奉承和許諾或許是侵害行為的苗頭,例如有人說可以幫助你當模特或明星。
說服你私聊:侵害者通常試圖說服受害人離開普通聊天室或大眾社交媒體,通過簡訊或更私密的工具私聊。
向你索要照片:一旦這些侵害著有了照片,他們就能利用受害者。
對於執法者和父母來說,手機和聊天工具的隱蔽性讓他們很難直接獲取這些跡象,但如果技術公司能夠將相關「敏感詞」及「警告程序」加入偵查過程,或許能夠在悲劇發生前進行預先警示。
2018年下半年,微軟組織了一次黑客編程馬拉松大賽(hackathon),Facebook、谷歌和在線遊戲巨頭Roblox等公司的工程師與法律專家均參與其中。大賽的初衷就是構建能夠有效檢測這些「網際網路捕食者」的AI工具,以及建立起受害方的信任。
為了能夠理解更好地理解線上女性/兒童捕食者的套路,團隊分析了上萬條兒童捕食者與未成年人的會話,系統能夠在要求兒童離開平臺進入一對一的對話模式時,會發出提示音以示警告。
在黑客編程比賽之後的幾個月內,微軟與Roblox和及時通信服務提供商Kik在內的其他公司進行了進一步的合作,來優化AI工具,使它能基於特徵對兩人的對話進行評估和評級,並對其指定風險等級,如果風險足夠高,這些會話將被發送給AI審核。
如果系統識別到有侵害未成年人人身安全的風險,例如提到了私下會面等,AI將通知當地的執法機構,在大多數案例中,被標記的會話會報告給NCMEC(National Center for Missing & Exploited Children,美國國家失蹤與受虐兒童援助中心)。
微軟首席數字安全官Courtney Gregoire說:「如果考慮要如何解決這個問題,我們已經能做到反應和報告,但還不能實現預防。」
另一位微軟發言人聲稱,該AI工具能在任何基於文本的環境下工作,包括蘋果的iMessage和WhatsApp。他還表示,已經擁有聊天過濾系統的Roblox正在把微軟AI工具整合到他們的平臺上,作為雙重保障。
除了微軟,這些公司也嘗試用技術阻止線上侵害
Facebook全球安全負責人Antigone Davis去年曾向《金融時報》透露,該公司在過去幾年中一直在與兒童保護組織合作,開發保護平臺上的兒童免受侵害的方法。
Antigone Davis表示,相關措施包括當有人在Messenger和Instagram DM上要求與兒童進行私下聊天,或試圖在未成年人多次拒絕的情況下依然要求獲取聯繫方式時進行警報。
除了Facebook,推特也積極響應著舉報有性侵兒童可能的行為的相關政策,推特表示,一旦發現有帳號發布兒童色情內容,推特官方會在不通知當事者的情況下第一時間進行刪除,對其他用戶的舉報也會進行及時的審核。
谷歌的行動則更早,從2013年開始,谷歌便設立500萬美元的基金用於「根除網絡虐童圖像」 行動,並啟動了200萬美元的兒童保護技術基金,以鼓勵開發更好的工具來銷毀兒童色情作品。
另外,谷歌還開發了一個關於兒童色情和虐待圖像標記的資料庫,這些圖像可以與其他搜尋引擎和兒童保護組織共享,資料庫將幫助自動消除這類內容。
時任谷歌Giving總監傑奎琳 · 富勒(Jacquelline Fuller)在博客中表示,「這將使公司、執法部門和慈善機構更好地合作,及時發現和刪除這些圖像,並採取積極行動打擊犯罪分子。」
隱私安全vs弱者保護,Telegram的尷尬地位
Lindsey Olson是國家失蹤與受剝削兒童中心(National Center for Missing and Exploited Children,NCMEC)執行董事,她說,儘管法律要求技術公司上報網絡平臺上明顯兒童性虐待的案例,但並沒有要求上報可疑的網絡誘騙犯。
這也是本次N號房案件中,第三方平臺Telegram面臨的尷尬地位。
作為一個跨平臺的即時通訊軟體,Telegram一直以可以相互交換加密與自毀消息,發送照片、影片等所有類型文件著稱。據了解,Telegram的加密模式是基於256位對稱AES加密,RSA 2048的加密和Diffie-Hellman的安全密鑰交換協議,除此之外,Telegram傳遞的消息為函數,可擴展性相當強。
Telegram曾經承諾:只要有任何人能夠破解攔截的通訊內容,會提供10萬美元的獎金。截止到目前,只有一個人拿到過這筆獎金,他發現的也僅是一個可能會導致問題的隱患。用Telegram的創始人Pavel Durov的話說就是,「Telegram就是為了隱私和安全而生的,絕不向任何勢力妥協」。
但是,N號房案件的爆發,也正是基於警方、犯罪分子等都無法進行監控的安全系統,這似乎也很好的「打了創始人的臉」,因為這些「加密」的信息也有可能成為犯罪分子滋生的溫床。
正如N號房事件中,有一些男性會員認為自己只是付費觀看了成人電影,並不構成犯罪,「自己才是受害者」,同時還指責被脅迫的女性從一開始就不應該再推特上上傳自己的大尺度照片。Telegram也面臨著這樣的指控境地。
圖片來自微博-別的女孩
作為N號房事件發生的平臺,Telegram無法從此次事件中全身而退。正如微博網友所說,這種「絕對的自由」就像是「回退到了原始叢林」一樣。
而代價無疑是巨大的,去年全球範圍內,技術公司及公眾自願舉報的這類案例已經從2018年的12,000起增長到19,000起。Olson認為這些數字足以體現問題的嚴重性。
Olson說:「現在許多未成年人和孩子們都有手機,侵略者更容易找到想要侵害的對象,孩子們也更容易發送自己露骨的照片。這些人不需要與孩子們有身體接觸,就能對孩子造成巨大傷害。」
AI能比「聰明的壞人」更聰明嗎?
不止韓國,這類通過網際網路詐騙脅迫進行性侵的犯罪一直都在發生,《華盛頓郵報》上周也報導了一起類似手段的案件。
據受害者Rhiannon McDonald回憶,十三歲的一個晚上,她曾與一位模特星探在線聊天,在短短數小時的聊天中,她被脅迫發送了許多自己的裸照,還提供了自己的家庭住址。第二天,這名「星探」出現在了家門口,對Rhiannon實施了性侵。
現年30歲的McDonald表示,多年來她一直深陷這件事情帶來的陰影中,備受心理恐慌的折磨,兩次自殺未遂。
最近,她聯繫到了英國的一家非盈利組織Marie Collins基金會,該組織致力於幫助那些遭受網絡性虐待和性剝削的受害兒童,也第一次全盤向媒體說出了自己的這一可怕經歷。
McDonald沒有告訴任何人發生在她身上的一切,直到6個月之後警察出現在她家。由於與多起類似案件相關,警察最終逮捕了這個人,並在他的電腦裡發現了她的信息。最終這個人被判刑11年。
McDonald最後還說,整件事情都沒有告訴她的父親,她害怕父親會對她發脾氣。但後來她意識到,父親從來沒有責備過她。她說:「他告訴我,他一直很自責,因為他覺得自己應該一直監督著我。但是對於他來說,察覺到這件事真的很難。」
儘管現在未成年人使用的網絡平臺不同了(當年McDonald是AOL Instant Messenger用戶),但兒童侵略者的伎倆基本相同,通常先是花言巧語誘騙受害者,如果他們不同意分享照片或私下會面就緊接著實施威脅。長久以來,技術公司也試圖避免這類案件的發生,但在人工智慧工具出現之前,幾乎不可能檢測到這些行為。
正如McDonald所說,最盡職的父母甚至都很難知道孩子在網上做的任何事。她希望技術能提供幫助。「如果在聊天過程中能被AI識別到,就有機會拯救孩子。」
而問題是,保護兒童與陌生人在線聊天的AI系統,它們的進化速度是否真的能超越施暴者。
微軟表示,未來會繼續教AI識別可能侵犯兒童的人的話術,但也指出了問題所在,有時候,甚至我們都難以區分對方的話是否充滿惡意。Courtney Gregoire說:「他們的花言巧語不斷變化著,如何分辨真正的友誼?又該如何一眼看穿他們的醜惡嘴臉呢?」
據韓國聯合新聞報導,震驚全球的N號房幕後操縱者」博士「大學期間主修信息通信,成績優異。
我們可以想像他熟知Telegram這類平臺的運營規則,而在施暴之前,也巧妙避開了可能存在的風險。面對這樣無所畏懼又熟知技術的對手,AI的作用還能夠發揮出來嗎?
人性之惡有時候比無人性的技術更甚。而更讓人悲哀的是,3年來,明明有26萬人看到了可怕的罪行,我們卻仍然只能寄希望於人工智慧保護自己。
相關報導:
https://www.wsj.com/articles/predators-use-the-internet-to-hideai-is-trying-to-unmask-them-11582626600
https://www.engadget.com/2019-10-18-facebook-anti-predator-measures.html
https://googleblog.blogspot.com/2013/06/our-continued-commitment-to-combating.html
志願者介紹
點「在看」的人都變好看了哦!