識別偽造視頻?人工智慧專家有高招

2020-11-02 科技工作者


真實視頻畫面(左)與「深度偽造」畫面(右)。

視頻編輯軟體變得越來越複雜,很多精心偽造的視頻讓你越來越難以相信自己的眼睛——這個演員真的在那部電影中出現過嗎?這個視頻是經過剪輯的嗎?這些難以通過肉眼識別真假的視頻被稱為「深度偽造」視頻。

有的「深度偽造」可能是無傷大雅的玩笑,但有的可能用心險惡。那麼,我們怎麼才能分辨視頻是否經過篡改?

techxplore.com網站當地時間10月27日報導,美國賓漢姆頓大學(BHU)與英特爾公司(Intel)合作開發了一款辨別視頻真偽的工具FakeCatcher,其準確率超過90%。相關研究成果發布於《IEEE Transactions on Pattern Analysis and Machine Intelligence》中。

FakeCatcher通過分析由心跳引起的膚色細微差別來判定視頻的真偽,它使用的光電容積脈搏波(PPG)與血氧儀和蘋果手錶等可穿戴設備使用的技術非常相似。

Intel高級研究科學家Ilke Demir說:「我們從人臉的不同部位提取了多種PPG信號,然後觀察這些信號在時間和空間上的一致性。在『深度偽造』視頻中,心跳不一致,也沒有脈搏信息。而在真實視頻中,人們左、右臉頰的血流情況是相同的(即脈搏相同)。」

BHU博士生Umur A. Ciftci與Demir共同參與了FakeCatcher的開發。Ciftci所在的Lijun Yin教授實驗室長期從事圖形與圖像計算研究,創建了多個人臉和情緒表情的三維資料庫。

Yin說:「Ciftci已經做了大量生理數據分析工作。信號處理研究始於我們的第一個多模式資料庫,我們不僅採用了2D和3D可視圖像,還加入了熱感攝像機和生理傳感器來捕捉數據。利用生理學作為另一特徵,我們得以檢視數據的前後一致性。」

研究人員隨機搜集的「深度偽造」視頻質量比實驗室生成的專業偽造視頻質量低得多,因此,前者更容易露出破綻。

Ciftci說:「我們的假視頻是通過掃描真人製作而成,而其他假視頻是由他人數據加工而成,因此也更容易識別。我們也學習了一些假視頻的技巧,將其應用在數據創建過程中。」

然而,FakeCatcher的成功發布也引發了新的憂慮——這是不是等於告訴惡意造假者:「你們的假視頻是這樣被發現的」?造假者可能會再度修改自己的「贗品」,使造假行為無法被察覺。

對此,Ciftci認為不必過度擔憂。他說:「對於不太了解其科學原理的人來說,這是很複雜的事情,他們很難依靠現有知識儲備來應對驗真檢視。」

未來,研究人員將持續對FakeCatcher進行完善,使其能夠確定「深度偽造」是如何達成的,這一功能對於網絡安全和遠程醫療的發展具有重要意義。

編譯:雷鑫宇 審稿:西莫 責編:陳之涵

期刊來源:《IEEE Transactions on Pattern Analysis and Machine Intelligence

期刊編號:0162-8828

原文連結:https://techxplore.com/news/2020-10-deepfake-videos-pulse.html

中文內容僅供參考,一切內容以英文原版為準。轉載請註明來源。

相關焦點

  • 完美人工智慧以假亂真,偽造逼真「唐納·川普」肉眼難識別
    ,非常擅長偽造出超逼真視頻,完美程度甚至連其他智能工具都無法分辨真假,更別說是人類進行肉眼識別了。製作人特雷·帕克(Trey Parker)聲稱,這檔節目可能是社交媒體上有史以來的最昂貴視頻。英偉達的瑪克辛使用這項技術讓視頻通話看起來更「自然」,針幕動畫公司也創建了完整的數字頭像,用戶可以直接參與視頻聊天。除了娛樂方面,人工智慧的負面影響也不容小覷。
  • 還在為人臉識別擔憂?是時候了解一下人臉偽造了
    編輯導讀:AI面相識別、AI測膚、人臉識別解鎖,人臉識別運用的範圍越來越廣泛,但這背後的「人臉信息安全」問題也需要大家關注。學者們說,當未來的技術歷史學家回首往事,可能會認為GANs是通往類人工智慧之路上的重要一步。在」查無此人「網站上,每刷新一次,就會有一張新的人臉生成。
  • 還在為人臉識別而擔憂的你,是時候了解一下人臉偽造了
    學者們說,當未來的技術歷史學家回首往事,可能會認為GANs是通往類人工智慧之路上的重要一步。但如果仔細看他的頭像,專業人士會發現一些端倪——眼鏡框並不左右對稱,而且在右耳邊有一處詭異的扭曲,而他背後的風景則更加模糊,似乎是建築,但顏色與線條都難以辨認。社交媒體情報集團Graphika和大西洋理事會數字取證研究實驗室為這個用戶身份出具報告,他們認為,這個人的圖像資料是偽造的。
  • 面部識別、深度偽造、隱私和自動化定義的AI 2019
    面部識別在2019年的新聞報導中,我們可以發現,面部識別技術比其它任何人工智慧應用更受矚目。2019年1月份,麻省理工學院的一個科學家團隊聲稱:亞馬遜公司的面部識別和分析軟體reko在某些種族中的性別識別準確性低於其他面部識別解決方案。
  • 圖像識別與人工智慧圖像識別和機器視覺有什麼區別
    人工智慧領域發展到現在,ai與人工智慧、圖像識別領域、計算機視覺領域等近年來越來越多的整合和融合。首先,人工智慧在生活工作中將普遍應用;其次,人工智慧在不同的工作場景都有其應用,從金融到醫療,從服務到工廠,應用無處不在;最後,人工智慧正在與自動駕駛技術等聯繫在一起。
  • 清華大學在快手開啟2020高招直播
    3月1日,清華大學招生辦公室聯合快手推出iTsinghua雲學堂,暨清華大學2020高招直播系列活動。通過專業認知講座、高招政策宣講、備考經驗分享、拔尖創新人才貫通培養試點等四大板塊,向社會開放清華大學的優質教育資源,推動基礎教育與高等教育的銜接貫通。
  • 「專利解密」AI Deepfakes換人臉,如何鑑別是否偽造?
    集微網消息,最近影視劇明星包括斯嘉麗·詹森(寡姐)的換臉不雅視頻在網上流行給他們造成了很大的困擾。這些視頻中,女主角的臉通過 AI Deepfakes(人工智慧的深度人臉交換)技術換成了影視明星的臉。
  • 人工智慧使人臉識別更加智能化
    【網易智能訊10月5日消息】Technavio相關數據顯示,預計2018-2022年期間,全球視頻監控市場預計實現接近11%的複合年增長率。將人工智慧(AI)應用於實體安全行業有利有弊,但隨著越來越多的監控系統與大腦直接匹配,有關利用人工智慧與監控在倫理方法上的爭論仍在繼續。
  • 河北高招體育測試將首用指紋比對系統識別身份
    我省高招體育測試將首次用指紋識別身份  本報保定電(記者 石英傑)4月16日至28日,2008年我省普通高校招生體育專業測試將在保定學院進行,測試中將第一次使用指紋比對系統識別考生身份。考生成績當天將張貼公布,有異議可以申訴。
  • 人工智慧成功從野生黑猩猩群體視頻中識別出個體面部特徵
    人工智慧成功從野生黑猩猩群體視頻中識別出個體面部特徵 日本京都大學一個研究小組最近利用人工智慧技術,成功從野生黑猩猩群體的視頻中識別出個體面部特徵。
  • BVS安全帽識別進入人工智慧時代
    這一年來,「人工智慧」(AI)接連刷屏,從5月份最激動人心的AlphaGo對戰柯潔開始到現在,人工智慧逐漸呈現爆發趨勢。轉眼間,2017年已走完,回顧這一年安防行業的發展,智能化趨勢更加明顯。這一年來,「人工智慧」(AI)接連刷屏,從5月份最激動人心的AlphaGo對戰柯潔開始到現在,人工智慧逐漸呈現爆發趨勢。
  • 假臉,又一個人工智慧騙術
    英國《金融時報》網站10月13日發表記者西達爾特·文卡塔拉馬克裡希南的題為《繼「深度偽造」之後的又一個人工智慧騙術:假臉》的報導,全文內容摘編如下:乍一看,「阿方索·馬西亞斯」並不起眼——留著鬍子,戴著眼鏡,兩側的髮際線有點兒後移。但他那以怪異方式扭曲的眼鏡和身後模糊的背景透露出一個令人不安的事實:馬西亞斯根本就不存在。
  • Deepfake陰影下的「人臉識別時代」全面到來!我們可能遭遇什麼危險?
    小探記得,就在去年年底,矽谷人工智慧公司Kneron曾表示該公司使用Deepfake(深度欺騙)技術成功欺騙了支付寶和微信的支付程序,並且順利通過進入機場、火車站等自助終端的檢驗。那麼,現在全面鋪開人臉識別技術有必要嗎??我們正在進入的「人臉時代」真的安全嗎?
  • 黑客如何用一副紙眼鏡,就「弄瞎」人臉識別算法?
    還有一個噩耗,人工智慧也摻和進去了。陽光普照,人工智慧賦能百業千行,挽起袖子進車間廠房,提起褲腿下田間地頭。陽光照不到的地方,在Boss直聘上高薪誠聘「資深人工智慧算法專家」的也可能是黑色產業。早在2018年,一段罵川普的視頻在全美瘋傳。
  • 新研究訓練小老鼠充當分類器識別Deepfake假聲音,比計算機更靠譜
    會上,研究人員提出,小動物們,特別是小老鼠,在識別自然語音元素方面很有天分。這項成果可能會影響技術公司通過人工智慧來構建系統,去檢測電腦合成的聲音。"Deepfake"的發展令人擔憂「小哥哥網戀嗎?我蘿莉音。」
  • 人工智慧識別初露鋒芒:可根據照片識別攝影師
    原標題:人工智慧識別初露鋒芒:可根據照片識別攝影師   在日常生活中,我們經常會看到一些十分漂亮、構思精妙的照片,但某張照片背後的攝影師是誰?
  • AI換臉視頻讓人真假難辨,新技術用AI來識破它
    但日前研究人員通過人工智慧對虛假視頻中的人像眨眼進行分析,從而可以有效將假視頻檢測出來。隨著人工智慧的飛速發展,不少人利用所謂的Deepfake黑科技製作出虛假視頻,這種視頻換臉技術引起了業內的強烈擔憂。正如他們所稱的那樣,Deepfake是數字虛假信息不斷演變的最新的——也許是最令人不安的——表現。修改圖像早已有之,而篡改音頻的方法也在不斷改進。
  • 專家:應立法規範人機視覺技術濫用
    中新社長沙9月9日電 (王昊昊)「人工智慧的技術是中立的,應通過構建數字內容可信體系,制定相關法律,規範人機視覺技術濫用。」國防科技大學系統工程學院院長老松楊表示。7日至9日,2020網際網路嶽麓峰會在長沙舉行,來自網際網路行業、投資界、學術界的百餘名專家共同論道5G應用、大數據、人工智慧等的新發展。
  • 手機被偷後如何讓小偷不能用 專家有高招請牢記
    手機被偷後如何讓小偷不能用 專家有高招請牢記 2003-12-23 15:53:25 中國青年報   南方網訊 所有的手機都有一個惟一的序列號
  • 穿越者現身,來自2030年「未來人」承認偽造視頻,真相究竟如何?
    另外Noah為了讓這一切更有說服力,公開了一份嘗嘗的預言清單,我們來看看到底有哪些驚人的預言:2019年一月,會有大規模的UFO造訪地球,它們會出現在世界各地。2019年二月,美國中西部將遭受大規模暴風雪襲擊,將是歷史上最大的暴風雪。