deepfake會通過模擬和翻轉,影響聲音的合成

2021-01-08 白鬧在

科學技術正在改變我們的生活方式,我認為是極有可能的。尤其是教育和醫療兩個方面。證明思考的重要性如果拿著印鈔機來印紙幣,不知道這個風險。第一次見這種標題的消息,就看到說deepfake被曝光但是我本人真的覺得。

電影和遊戲還是不要用這種方式更好。確定嗎?這次的事件已經是第四次傳言deepfake,但是得到的回覆都是"很久之前就出現過,但是估計是黃牛炒作"云云。但是這不是重點,重點是這次python等一些軟體已經可以做到將圖片翻轉後,替換聲音、圖像,還原出聲音。問題是我剛剛看到

既然要得到結論,我們就得先明確是什麼讓deepfake開始發生。首先是普通盜版軟體的泛濫,通過掛馬、垃圾廣告等手段無中生有在網絡上傳播。然後是黃牛炒作,大家有時間就去追逐下當時瘋狂流行的遊戲比如之前的lol,而不是盯著現在被爆出問題的deepfake。或者你明白了這個問題,實際上問題是"為什麼有些人可以對視頻中正常的聲音進行替換,反而卻做不到聲音和圖像"。因為聲音本身有五種權重,(記憶中是這麼說的,未考證),語言、圖像、頭髮絲、手機殼。

換句話說只要轉換了這個聲音,那麼沒有一種權重是完全不變的。"替換聲音"這一行為無論是同音還是轉音,不管同音還是轉音,只要是利用圖像和聲音的匹配而產生的,就是基於方言的。而各大網站,都包括遊戲公司的審核機制,用ui、logo、作者署名方式、文本等權重來判斷視頻是否被正常公開。那麼所謂的"聲音是否被修改"就可以理解為網站審核機制是否一致。我們在電影、遊戲中,觀看正常的圖像時是否會有幾秒時間的正常音頻?從以上我們可以認定,聲音本身是無法被偽造的。同理,我們用電腦批量生成的音頻如果可以被他人篡改,那麼修改者就應該有意識到或被其他人知道。

可是未必。而實際上大家看到的deepfake歌曲,背後可能是有其他軟體使用了其他方法生成的另一首歌曲(修改了上下文,或者各個接收方的位置)。也有可能上一首歌曲只是一個跟聲音無關的工具。(聲音只是工具,但卻是替換音頻的基礎)以上得出結論:聲音對於人來說,是無法被修改的。可是對於個人來說可以修改。如果你聽到的deepfake歌曲,是個人或者機構利用電腦軟體批量生成,並且利用了大量的機器產生的聲音做相應修改,那麼你也許會被某些人改變了審美和認知。因為deepfake歌曲就是利用這種工具產生的。

相關焦點

  • 新研究訓練小老鼠充當分類器識別Deepfake假聲音,比計算機更靠譜
    這項成果可能會影響技術公司通過人工智慧來構建系統,去檢測電腦合成的聲音。"Deepfake"的發展令人擔憂「小哥哥網戀嗎?我蘿莉音。」近來,專家們非常擔心"Deepfake"類產品的發展速度。通過"Deepfake"應用,計算機可以對數百份照片或錄音進行採樣合成,偽造一些人們沒有說過的錄音或是照片。
  • 《連線》雜誌:AI生成的文字將是最可怕的Deepfake內容
    社交平臺為含有 「合成和操縱媒體」的帖子制定了特殊政策,希望在保護自由表達和阻止大肆傳播的謊言之間取得適當平衡。但現在,距離11月3日還有3個月左右的時間,一波deepfake內容似乎從未斷過。相反,另一種人工智慧生成的媒體形式正在成為頭條新聞,這種媒體更難被發現,卻更有可能成為網際網路上一股無孔不入的力量:deepfake文字。
  • 什麼是Deepfake?為什麼Deepfake生成的假臉會這麼自然?
    什麼是Deepfake?為什麼Deepfake生成的假臉會這麼自然?這種生成虛假視頻的技術叫做「Deepfake」,它能把視頻中的臉換成其他人的臉,同時保持臉部肌肉運動和諧,口型和聲音匹配。 結合政治宣傳,這意味著任何人都能「惡搞」候選人,製作他們「演講」「活動」的假視頻。 由於這項技術十分新穎,效果又格外出色,普通人如果不仔細看,可能無法分辨真實視頻和虛假視頻之間的區別。
  • 找到那張假照片,對抗Deepfake之路
    編譯 | 子珮智東西1月13日消息,隨著Deepfake等一鍵式換臉應用的流行,越來越多的普通人也能通過簡單的操作對視頻中人像、甚至聲音進行修改,達到以假亂真的地步。但在有趣的背後,也有助長謠言、侵犯隱私的隱患。2019年1月,賓厄姆頓大學曾與英特爾合作推出視頻圖片檢測工具FakeCatcher。
  • 帶你解析2020 Kaggle DeepFake 排行榜前1.5%技術方案
    Deepfake -假視頻檢測截圖來自kaggle官網最近的2020 Deepfake假視頻檢測挑戰賽,旨在幫助世界各地的研究人員檢測線上視頻及語音是否被偽造和篡改,幫助提升線上人權和保護網絡上個人隱私。
  • 研究人員用頻率分析來識別Deep-Fake圖像 算法造圖會...
    兩種算法的相互作用產生新的圖像deep -fake images是「深度學習」(deep learning)和「fake」(fake)的合成詞,是在計算機模型的幫助下生成的,也就是所謂的「生成式對抗網絡」(Generative Adversarial Networks),簡稱GANs。
  • 想用GAN和Deepfake瞞天過海,沒那麼容易:這是Adobe和加州伯克利的...
    來自 Adobe 和加州伯克利的研究者發現,僅僅在一種 CNN 生成的圖像上進行訓練的分類器,也可以檢測許多其他模型生成的結果。或許,GAN 和 Deepfake 在「瞞天過海」上也不是萬能的。近來,諸如生成對抗網絡(GAN)的深度圖像生成技術快速發展,引發了公眾的廣泛關注和興趣,但這也使人們擔心,我們會逐漸走入一個無法分辨圖像真實與否的世界。
  • Deepfake陰影下的「人臉識別時代」全面到來!我們可能遭遇什麼危險?
    小探記得,就在去年年底,矽谷人工智慧公司Kneron曾表示該公司使用Deepfake(深度欺騙)技術成功欺騙了支付寶和微信的支付程序,並且順利通過進入機場、火車站等自助終端的檢驗。那麼,現在全面鋪開人臉識別技術有必要嗎??我們正在進入的「人臉時代」真的安全嗎?
  • 換臉App背後的恐慌:我的臉什麼時候會被偽造,又該如何辨別?
    2018年2月Reddit禁止用戶在r / deepfakes分享深度學習偽造的非自願色情內容,Twitter和成人視頻網站Pornhub也在隨後做出類似舉動。2018年9月Google在禁止列表裡添加了「非自願合成色情圖像」,允許任何人請求搜尋引擎封鎖有關自己的虛假色情內容。
  • 黑科技DeepFake,上線五天就遭全球唾棄,這技術到底有多邪惡?
    它依賴於一種稱為自動編碼器的神經網絡,將圖像縮小到較低維空間編碼器和一個從潛在表示中重建圖像的解碼器組成,Deepfake通過通用編碼器來利用此架構,該編碼器可將人的特徵編碼到這個空間中,而特徵包括面部特徵和身體姿勢的關鍵特性
  • 用生物信號檢測Deepfake,這個新方法會很快失效嗎?
    讓 Deepfake 越來越逼真的一個核心技術是 GAN(Generative Adversarial Network),也就是生成對抗網絡。它的原理類似左右手互博 —— 生成器生成假視頻,鑑別器用以鑑別真偽,以此不斷提高造假的質量。正因如此,檢測 Deepfake 的方法很容易被超越。比如在 2018 年,就有研究通過人物的眨眼是否自然來判斷視頻的真偽。
  • 已經有人通過AI換臉來篡改世界線了
    但如果他們失敗了,NASA就會切斷和太空人之間的通訊,尼克森將不得不向世界宣告這一悲劇。為了應對這種情況,尼克森的御用演講撰稿人薩菲爾(William Safire)為他事先準備一份名為《如果登月發生災難》的演講稿。如果悲劇確實發生的話,尼克森就將捧著這份稿子走進演播室,向全世界人民傳達這一不幸的消息。
  • 「AI深度合成」迎商業化元年,技術應用與治理路徑該如何展開?
    「深度合成」具有多元化應用形式,「數字人」是其重要發展方向 首先談一下技術的發展。深度合成作為一種AI合成/生成內容的技術,是人工智慧發展到一定階段的產物。「深度合成」的概念,並不是指「深度偽造」(deepfake)。
  • 一個模型擊潰12種AI造假,各種GAN與Deepfake都陣亡
    不論是GAN生成的,Deepfake的,超解析度的,還是怎樣得來的,只要是AI合成圖片,都可以拿一個通用的模型檢測出來。儘管各種CNN的原理架構完全不同,但是並不影響檢測器發現造假的通病。只要做好適當的預處理和後處理,以及適當的數據擴增,便可以鑑定圖片是真是假,不論訓練集裡有沒有那隻AI的作品。
  • 地球磁極將會在未來發生翻轉,那麼地磁翻轉會帶來哪些影響?
    假如地球磁極發生反轉,對地球的影響是多方面的,甚至是毀滅性的。類似地球磁極翻轉的話題,艾伯菌我也在很多地方聽過,說法本身有一定道理,但是可信度還是值得懷疑。據相關資料表明,地球在數十萬年前就曾發生過磁極翻轉。
  • DeepFake檢測新思路:用心跳做"信號",背後的"造假"模型也無處可逃
    此類檢測技術,大多都是「二分類」檢測方法,雖然也能達到98%的準確率,然而這些檢測方法往往會受到過渡匹配的影響,也就是說在處理不同類型的圖片時,檢測方法的性能會顯著下降。近日,賓漢姆頓大學和英特爾的研究人員開發了一種算法,號稱能用視頻中的生物信號檢測這個視頻是否是偽造的。除此之外,這種方法還能識別出假視頻背後的生成模型。
  • Deepfake視頻中涉及色情高達96%
    【新聞 | Deepfake視頻中涉及色情高達96%,且只針對女性】來源:新智元Deepfake視頻中涉及色情高達96%儘管媒體、政客和技術人員對Deepfake造假影響選舉的風險感到恐慌,但一項新研究在研究了近1.5萬Deepfake視頻後,發現96%的視頻是色情片。
  • 社交網絡上的圖正被Deepfake機器人用來生成果體照
    別有用心的人,正在盯著你放在社交網絡上的美照,還可能已經被Deepfake拿去生成果照。 關注Deepfake傳播的研究機構「Sensity」發現,截至到2020年7月,在Telegram公共頻道中已經生成並分享了超過10萬張。 這意味著,生成的圖片總數,包括那些未曾分享過、或是7月以來製作的照片,是遠遠高於這個數字的。 Sensity表示,這些頻道中的大部分用戶,大概有70%來自俄羅斯和周邊國家。
  • 你在電影裡聽到的聲音,都是假的
    例如2014年《哥斯拉》,音效師就通過摩擦膨脹的氣球來製作大部分嘶吼聲。傾盆大雨=炸培根有時候音效師並不會錄下真實的雨聲(而且真實的雨聲未必能達到要求)。在這種情況下,培根在鍋中嘶嘶作響的聲音反而更加好用!
  • 科學家證實地磁正在翻轉,對我們普通人有什麼影響?
    地磁翻轉現象的研究1995年,美國洛斯-阿拉莫斯國家實驗室(LANA)和加州大學洛杉磯分校的科學家成功地用計算機模擬了地核中「地磁發電機」的活動,包括地磁倒轉。在電腦模擬的數百萬年裡出現了十多次倒轉。科學家認為,在地球深處,地核分固態的內核與液態的外核兩部分。