面部識別、深度偽造、隱私和自動化定義的AI 2019

2021-01-08 安防知識網

回顧剛剛過去的2019年,基於機器學習系統訓練算法的人工智慧,已然開始滲透至各行各業。

AI周刊在對2019年的人工智慧行業進行總結是歸納了以下四個關鍵詞:面部識別、深度偽裝、隱私和自動化。與此同時,AI周刊也對2020年的人工智慧行業大發展進行了展望。

面部識別

在2019年的新聞報導中,我們可以發現,面部識別技術比其它任何人工智慧應用更受矚目。

2019年1月份,麻省理工學院的一個科學家團隊聲稱:亞馬遜公司的面部識別和分析軟體reko在某些種族中的性別識別準確性低於其他面部識別解決方案。具體來看,reko未能在特定場景中確定女性和深色皮膚的面孔的性別,從而錯誤地將女性的照片分別識別為男性和深色皮膚的女性分別為19%和31%。

撇開亞馬遜的面部識別爭議不談,這項研究很有先見之明地指出了人工智慧的種族偏見問題上周美國國家標準與技術研究所(NIST)發表的一項研究發現:在進行一種被稱為「一對一」匹配的特定類型的資料庫搜索時,不少面部識別系統錯誤地識別了非裔美國人和亞洲人的面孔,相較於白人,亞裔和非裔的人臉識別錯誤率要高10到100倍。

而除了偏見問題之外,人臉識別技術的可擴展性也使得該項技術正在濫用。今年,紐約警察局通過面部識別系統錯誤將演員伍迪·哈裡森識別為嫌疑人;中國通過,面部識別系統用來進行反恐等活動來保障國家公共安全;初創公司AnyVision旗下的面部識別產品也因被用來監視居住在約旦河西岸的巴勒斯坦人而備受關注。

越來越多的活動人士、學者和立法者呼籲限制或徹底禁止面部識別技術。2019年5月,舊金山禁止警察或市政部門使用面部識別技術;奧克蘭在6月也緊隨其後,之後伯克利通過了關於面部識別技術的禁令。2019年秋天,美國加州頒布了一項為期三年的禁令:禁止在執法隨身相機中使用面部識別技術;以及2018年在美國眾議院監督和改革委員會的兩次聽證會上,美國國會一些最著名的共和黨人和民主黨人共同提出了關於面部識別的立法改革建議, 2019年商業面部識別隱私法案的出臺,要求企業在使用面部識別軟體之前必須獲得公眾許可。

鑑於面部識別在美國國會、學術界、州議會和國會山等公共論壇上引發的激烈爭論,可以說面部識別過去是,將來也將是一個熱點話題。

深度偽造(自我審查和深度造假)

2019年2月,OpenA打破了學術規範,決定不公開用於訓練其最先進的自然語言處理模型GPT-2的語料庫,也不公開與之相關的訓練代碼。OpenAI在一篇證明其決定合理性的博客文章中表示,它擔心這些信息可能被用來生成有關特定公司的合成新聞,比如種族主義或性別歧視的文章,以及亞馬遜(Amazon)或Yelp等網站上的虛假評論。

OpenAI隨後發布了幾個更小、更簡單的GPT-2版本,並研究了它們的接收情況以及它們訓練時使用的數據集。在得出「沒有強有力的證據」證明存在誤用之後,谷歌於上月發布了完整的模型——該模型對從網上搜集的800萬份文本文件進行了訓練。

OpenAI此項決定的批評者認為,該公司誇大了他們的工作將帶來的危險,並在不經意間激起了人們對人工智慧和機器學習的激烈討論。除此之外,他們認為OpenAI剝奪了研究人員獲得突破性人工智慧技術的機會,從而使他們處於不利地位,而且它有效地阻止了研究人員識別GPT-2中的錯誤或提出潛在的對策。

儘管批評者的表述不無道理,但OpenAI的擔憂並非完全沒有根據。在2019年,利用人工智慧將現有圖像、音頻記錄或視頻中的人物替換成其他人的肖像的深度贗品或媒體數量迅速增加。Deeptrace在6月和7月發現了14,698個網絡上的深度造假視頻,比去年12月增加了84%。這組數據讓人感到不安,不僅因為深度造假贗品可能被用來在選舉期間左右公眾輿論,或將某人捲入他們沒有犯下的罪行當中,還因為它們已經被用來製作色情材料,並騙取公司數億美元。

包括Facebook、微軟和亞馬遜在內的科技巨頭已與麻省理工學院和康奈爾大學在內的學術合作夥伴合作,幫助抵抗由人工智慧引發的誤導性媒體的傳播,但OpenAI不願發布自己的模型,預示著這種深度抵抗也面臨著不小的挑戰。實際上,益百利預測,到2020年,網絡罪犯將利用人工智慧技術擾亂商業企業的運營,並在各國之間製造地緣政治混亂。

隱私

儘管深度學習和人工智慧給人們帶來了惠利,但它們還存在一個主要的隱私問題。

皇家自由倫敦NHS基金會是英國國家醫療服務中心的一個分支機構,在未經患者的同意下,皇家自由倫敦NHS基金會向谷歌旗下的DeepMind提供了160萬名患者的數據。谷歌(其與阿森松島的健康數據共享夥伴關係在11月成為審查的對象)放棄了發布胸部x光掃描的計劃,因為擔心其中包含個人身份信息;在2019年的夏天,微軟悄悄刪除了其最大的公開人臉識別資料庫MSCeleb,該資料庫擁有超過1000萬張圖像,將近10萬人的面部信息。而伴隨著微軟刪除了 MS-Celeb-1M 資料庫,另外兩個學術單位也刪除了它們旗下的類似相關資料庫,包括由杜克大學研究人員建造的 Duke MTMC 監控資料庫和史丹福大學的 Brainwash 資料庫;而ImageNet,一個常用來訓練計算機視覺算法的開源庫,被發現在某些時候包含從Google,Flickr和其他地方刮取的親密行為的描述。

此外,包括蘋果和谷歌在內的科技巨頭也先後被媒體披露,為了改進Siri和谷歌Assistant等助手功能而收集的錄音可能被濫用。今年4月,彭博社披露,亞馬遜僱傭合同工,為裝有alexa的設備上數千小時的音頻進行人工注釋,這促使該公司推出面向用戶的工具,快速刪除雲存儲數據。

而以上事件的發生都是不合理、有問題的存在。因為在越來越多的情況下,隱私不僅僅是一個哲學問題,並且包含可商業中的利害關係。在這種背景下,州、地方和聯邦先後頒布各級法律,旨在使隱私成為合規管理的強制性部分。目前,美國50個州、地區和哥倫比亞特區正在或已經通過了數百項涉及隱私、網絡安全和數據洩露的法案。可以說,其中最全面的是大約兩年前籤署的《加州消費者隱私法》(California Consumer Privacy Act)。這還不包括健康保險可攜性和責任法案(HIPAA),該法案要求公司在披露個人健康信息之前必須獲得授權。

而為了保障公民的隱私問題,谷歌以及其他公司也先後發布了TensorFlow Privacy和PySyft等用於機器學習框架(包括TensorFlow和PyTorch)的庫,這些庫使用差別隱私等技術來提供強大的隱私保障。與此同時,他們還採用了包括聯邦學習在內的技術,通過分散的設備或伺服器(即人工智慧)來訓練人工智慧。如,同態加密是一種密碼學的形式,它支持對使用算法(也稱為密文)加密的明文(文件內容)進行計算。在完全管理的服務方面,像亞馬遜這樣的科技巨頭已經開始讓他們的產品符合HIPAA這樣的規定。

自動化

儘管人們對人工智慧對其職位所帶來的擔憂可能被誇大了,但不可否認的是,因人工智慧而出現的自動化正在降低行業對勞動力的需求。

麥肯錫全球研究所2019年早些時候發布的一份報告發現,在人工智慧和機器學習帶來不利變化的職業中,女性將佔主導地位。到2030年,在佔GDP 60%以上的10個經濟體中,男性佔多數的工作崗位中,約有40%的工作崗位將被自動化取代。而在自動化潛力很大的以女性為主的工作崗位中,自動化取代率達到了52%。

這個觀點與英國國家統計局在2019年3月發布的一份報告相符,

國家統計局預測,服務行業的員工——主要是服務員、零售庫存回收人員和初級銷售人員——以及農業、汽車和服務行業的員工將受到不同程度的影響。勞工部預測,在2017年佔高風險工作70.2%的女性將承受即將到來的勞動力市場變化的衝擊。

這些觀點與英國國家統計局(ONS) 2019年3月的一份報告相一致,英國10%的勞動力(約150萬工人)從事著 「高風險」的自動化工作。英國國家統計局預測,服務行業的員工——主要是服務員、零售庫存回收人員和初級銷售人員以及農業、汽車和服務行業的員工將受到不同程度的影響,他們認為,在2017年佔高風險工作70.2%的女性將承受即將到來的勞動力市場變化的衝擊。

不管人們從事新的工作還是在目前的領域獲得新的技能,預計到2030年,數千萬工人將不得不進行某種形式的職業轉型。Forrester發現,自動化可能會在未來幾個月裡代替10%的美國工作崗位。世界經濟論壇、普華永道、麥肯錫全球研究院和高德納都曾預測,到2025年,人工智慧可能會代替多達7500萬個工作崗位。

人工智慧行業的未來

人工智慧發展面臨著艱巨的挑戰:在很大程度上,面部識別依舊是機器學習的一種有效的且不受到監管的應用,且這種應用正在不斷加劇;深度偽裝給科技公司、學術機構以及普通公眾帶來了沉重的壓力;人工智慧中隱私問題的最終解決方案是難以捉摸的;不管工人們是否重新調整工作,自動化預計將影響數百萬人的生計。

2020年人工智慧行業將迎來怎樣的變化,誰也無法給出答案。但對於人工智慧帶來的所有問題,都在不斷發生變化。2019年,人工智慧在蛋白質摺疊方面達到了最先進的水平,這可能為新的療法和藥物鋪平道路;機器學習的各種實現被用來應對全球氣候變化;人工智慧允許有語言和聽力障礙的人使用以前無法使用的產品……

人工智慧是一把雙刃劍,與任何技術的發展一樣,人工智慧要發展,總得犧牲某些利益為代價。

(本文編譯自外網,內容尚有增減)

相關焦點

  • 人臉識別時代,我們該如何保護自己的隱私?
    「人臉識別在有的領域可能會產生很大風險,包括新聞領域,通過深度偽造技術使得偽造的新聞圖片傳播。「聯合國網絡安全與網絡犯罪問題高級顧問吳沈括則表示,技術是中立的,但使用技術的人是有立場的。人臉識別技術的安全問題不在於該項技術本身,而是應用的問題。危險在於利用這項技術達到了不該達到的目的,實施了不該實施的行為。
  • 換臉App背後的恐慌:我的臉什麼時候會被偽造,又該如何辨別?
    ★2017年12月Reddit網友「Deepfakes」在社區r / deepfakes發布偽造的名人色情視頻,其中包括演員斯嘉麗·詹森、歌手泰勒·斯威夫特和凱蒂·佩裡等人。Deepfakes聲稱自己所使用的是多個深度學習的開源庫,例如Google 的人工智慧框架TensorFlow。
  • 2019年25大AI應用趨勢:假肢、農作物監測、面部識別、聊天機器人……
    CB Insight分析師審視各個行業,觀察到2019年最值得關注的25個人工智慧趨勢,包括下一代假肢、作物監測、邊緣AI、面部識別、無人收銀零售和AI聊天機器。人工智慧現在在各個行業蔓延。如上圖所示,邊緣AI用例包括:家庭智能攝像頭,可以識別出入人員的身份,應用公司:nest和亞馬遜;設備自帶面部識別、物體識別功能,用戶數據毋須離開設備,應用公司:蘋果和華為
  • 人臉識別下的隱私讓渡,代價有多大?
    從2015年到2019年,人臉識別、視頻監控的專利申請數量從1000件飆升到3000件,其中四分之三在中國。MarketsandMarkets諮詢公司研究預計,到2024年,全球面部識別市場規模達70億美元。但是,在人臉識別的迅猛發展的另一端是人臉識別頻發爭議的民意滔滔。
  • 今日Paper | 問答系統;3D人體形狀和姿勢;面部偽造檢測;AdderNet等
    大規模的機器閱讀任務將文檔檢索(查找相關文章)與機器理解文本(識別這些文章的答案範圍)的挑戰結合在一起。作者的方法將基於bigram哈希和TF-IDF匹配的搜索組件與經過訓練以檢測Wikipedia段落中的答案的多層遞歸神經網絡模型相結合。
  • 自動化是當前與深度學習及人工智慧等的不可分割的關係
    自動化是當前與深度學習及人工智慧等的不可分割的關係,也同樣是當前的熱門主題。自動化機器學習在自動化,人工智慧,無人機等科技領域有廣泛的應用。自動化機器學習可以模擬生物學過程,比如分類,和識別。分類。分類就是識別。
  • 隱私問題與安全爭議未休,人臉識別技術的應用邊界該如何圈點?
    人臉識別技術是一種應用較為廣泛的生物識別技術,該技術以人的面部外觀特徵為分析目標,包括眼、眉毛、鼻、耳廓、嘴唇、下巴等面部器官的外觀、大小、位置以及它們相互間對應的平面或立體空間關係等。人臉作為身份識別特徵,直觀性較好,具有較高的唯一性。
  • 到處都是人臉識別,我們如何保護個人隱私?
    個人隱私信息的擔憂關於機場的人臉識別,有網友提出疑問:如果是公安部門,我們沒有異議,但是,機場本質上是服務者,它有什麼權力採集和使用公民的生物信息?這種信息和採集有沒有經過授權?是否合法?其實,關於人臉識別等數據信息和個人隱私矛盾並不鮮見。
  • 要禁止使用面部識別?
    日前,歐盟已經透露將禁止面部識別在公共場所使用,時間可能長達五年。這是因為官方想要花費更多時間來防止這項技術被濫用,但是一些特定的研究可以允許使用這種技術,比如警察可以用這項技術來進行罪犯捕獲,科學家可以運用這種技術來進行安全工程的科學研究和發展等。在長達18頁的官方文件中,歐盟委員會說道,此舉是為了保護隱私和保證個人數據的安全。
  • 英特爾發布了RealSense ID 開發了一種面部識別系統
    打開APP 英特爾發布了RealSense ID 開發了一種面部識別系統 IEEE電氣電子工程師 發表於 2021-01-16 09:32:08
  • 超越地域和文化,AI識別出全人類共同的16種面部表情
    一項新的研究在這個清單上又增加了我們存在的另一個重要部分:我們的面部表情。來自加州大學伯克利分校和谷歌的研究人員使用機器學習和 YouTube 視頻,對常見的面部表情和引發表情的情境進行了比較。結果發現,無論是在巴西的生日派對上,還是在肯亞的葬禮上,還是在中國公園裡的廣場舞中,人類在類似的社會環境中都會使用相同的面部表情,比如微笑、皺眉、苦臉。
  • 亞馬遜向警方和政府出售面部識別軟體 民權組織「上書」貝佐斯談...
    亞馬遜向警方和政府出售面部識別軟體 民權組織「上書」貝佐斯談隱私保護  Evelyn Zhang • 2018-05-23
  • Nature:超越地域和文化,AI識別出全人類共同的16種面部表情
    一項新的研究在這個清單上又增加了我們存在的另一個重要部分:我們的面部表情。來自加州大學伯克利分校和谷歌的研究人員使用機器學習和 YouTube 視頻,對常見的面部表情和引發表情的情境進行了比較。結果發現,無論是在巴西的生日派對上,還是在肯亞的葬禮上,還是在中國公園裡的廣場舞中,人類在類似的社會環境中都會使用相同的面部表情,比如微笑、皺眉、苦臉。
  • 超越地域和文化,AI已識別出全人類共同的16種面部表情
    一項新的研究在這個清單上又增加了我們存在的另一個重要部分:我們的面部表情。來自加州大學伯克利分校和谷歌的研究人員使用機器學習和YouTube視頻,對常見的面部表情和引發表情的情境進行了比較。結果發現,無論是在巴西的生日派對上,還是在肯亞的葬禮上,還是在中國公園裡的廣場舞中,人類在類似的社會環境中都會使用相同的面部表情,比如微笑、皺眉、苦臉。
  • 擔心隱私洩露?最新AI可成功偽裝照片,欺騙人臉識別系統
    近年來,很多公司在網上搜尋與人名有關的公開照片,以便建立龐大的人臉資料庫,並改進其面部識別系統。這讓人們越來越覺得,個人隱私正在一點點消失。而研究人員正試圖阻止這些,芝加哥大學的一個計算機工程師小組開發了一種工具,可以用像素級的變化來偽裝照片,使面部識別系統混淆。該軟體被命名為福克斯(Fawkes),以紀念受到全世界抗議者喜愛的蓋伊·福克斯面具。
  • Deepfake陰影下的「人臉識別時代」全面到來!我們可能遭遇什麼危險?
    該技術通過藉助海量訓練數據,生成眾多虛假視頻和音頻新聞,使辨別信息真偽、生物識別變得困難,成為一種困擾世界科技屆的「反識別技術」。深度偽造來源於生成對抗網絡(GAN)的出現和發展。(曾紅極一時的換臉App ZAO,圖片來源於網絡,gif)除了娛樂行業之外,深度偽造技術在教育、文創、遊戲等諸多領域都具有積極應用潛力,深度偽造技術也正在無成本、平民化地走向大眾生活。但目前,由於鑑別深度偽造技術的能力卻還未成熟,這對個人隱私、媒體公信力、司法取證等多方面帶來困擾,引發了社會擔憂。
  • 自從被AI換了身體,做一個女裝大佬無壓力
    之所以稱之為「附體」,這其實是人體深度偽造技術呈現的效果。「深度偽造」(Deepfake)是英文「deep learning」(深度學習)和「fake」(偽造)的混合詞,即利用深度學習算法,實現音視頻的模擬和偽造。顧名思義,人體深度偽造技術就是指通過AI模型算法將目標人物的整個身體替換成另一個人。
  • 生物識別技術的法律邊界
    近年來,以人臉識別為代表的生物識別技術作為個人身份認定的新方法,改變了傳統個人信息收集和處理的方式,自動化的收集和應用越來越普遍,在建設智慧城市、維護社會治安等方面發揮了重要作用。但與此同時,濫用生物識別技術的現象也廣泛存在,對於個人信息權益產生嚴重威脅。生物識別技術的主要特徵。
  • 英特爾新RealSense ID系統使用人工智慧進行面部識別
    英特爾推出了一款名為RealSense ID的新型攝像頭系統,該系統使用設備上的人工智慧進行面部識別。RealSense ID被設計用於一系列應用,包括智能鎖、訪問控制、銷售點查詢、ATM機、自動查詢機等。
  • 識別偽造視頻?人工智慧專家有高招
    真實視頻畫面(左)與「深度偽造」畫面(右)。視頻編輯軟體變得越來越複雜,很多精心偽造的視頻讓你越來越難以相信自己的眼睛——這個演員真的在那部電影中出現過嗎?這個視頻是經過剪輯的嗎?這些難以通過肉眼識別真假的視頻被稱為「深度偽造」視頻。有的「深度偽造」可能是無傷大雅的玩笑,但有的可能用心險惡。