《射鵰英雄傳》裡演過黃蓉的,除了朱茵、翁美玲、周迅、林依晨,竟然還有楊冪?
不信,看圖
我大楊冪,穿越到《射鵰英雄傳》了。
【社群流量】朱茵變楊冪,流量一個億——FakeApp 破解版 換臉簡易教程,附圖文安裝和視頻地址
【社群流量】朱茵變楊冪,流量一個億——FakeApp 破解版 換臉簡易教程,附圖文安裝和視頻地址
換臉後人臉的輪廓、表情都一樣,簡直看不出是人造的。
整個視頻,也十分流暢。
這樣的效果,一下子就引來了一群吃瓜群眾,微博話題閱讀量達到了1.1億。
image.png
那麼,AI換臉背後是怎麼回事呢?
不止朱茵變楊冪
從換臉程序deepfake傳入國內開始,就有不少網友製作過換臉視頻。比如把宅男們喜聞樂見的女主播換成國內當紅小花。
把主播變成唐嫣
【社群流量】朱茵變楊冪,流量一個億——FakeApp 破解版 換臉簡易教程,附圖文安裝和視頻地址
把馮提莫變趙麗穎:
【社群流量】朱茵變楊冪,流量一個億——FakeApp 破解版 換臉簡易教程,附圖文安裝和視頻地址
AI換臉技術deepfake已經出現一年多,造出了無數假視頻。在國外,它被引到了「不可描述」的方向。
在Reddit論壇上,它掀起過一股狂潮,甚至出現過專門的討論區。
【社群流量】朱茵變楊冪,流量一個億——FakeApp 破解版 換臉簡易教程,附圖文安裝和視頻地址
大膽的想法不敢有,但你可能想按照國內的老少皆宜用法,製作一部符合自己嗜好的換臉視頻。
門檻並不算高,甚至都不用自己訓練一個deepfake模型,有現成的程序用。
2018年1月,有人推出了Windows程序FakeApp,允許用戶很輕鬆地自製換臉視頻,即使沒有任何AI方面的知識,大大降低了deepfake的使用門檻。
FakeApp只需要一個包含Nvidia GPU的個人電腦、3~4GB的存儲空間,就能生成換臉視頻。至於訓練神經網絡的材料需要用戶自行尋找。
一、安裝視頻【英語中字教程】現在大火的deepfake視頻,換臉程序fakeapp使用教學。
播放地址:https://www.bilibili.com/video/av19349170
【社群流量】朱茵變楊冪,流量一個億——FakeApp 破解版 換臉簡易教程,附圖文安裝和視頻地址
二、圖文版安裝過程1、安裝必要環境;硬體和作業系統,支持cuda的 Nvidia 顯卡,8G及以上的內存,Windows10 x64
用python查看TensorFlow版本,升級到1.5;
安裝python3.6和tensorflow1.5,Python3.6 to PATH,推薦自定義安裝,安裝完確認下Python\Python36和Python\Python36\Scripts是否加入了環境變量,沒有就手動添加一下。然後就可以打開命令行窗口,輸入:pip install tensorflow-gpu==1.5安裝tensorflow1.5的gpu版,為了提高下載速度可以先配置使用國內的源。
方法:在C:\Users[your username]目錄新建pip目錄,再到pip目錄下新建pip.ini,內容如下(清華的源)
1.首先需要安裝的便是這個能讓你傻瓜式換臉的應用FakeApp了,點擊連結進入官網。安裝過程中並沒有什麼值得特殊強調的地方,咱們一筆跳過。
2.接下來就是和GPU相關的CUDA8了,選擇相應的系統版本便可以下載安裝。在安裝方式這一步建議大家使用本地安裝exe[local]的方式,exe[network]的安裝方式....可能有點慢。默認情況下CUDA會自動幫你添加到環境變量,如果沒有,請手動添加,這一步非常重要。
FakeApp 有三個模塊
GET DATASET: 獲取數據集你的素材視頻將被逐幀切割成圖片,程序會自動識別並提取出圖片中人物的面部數據。
TRAIN:訓練模型根據第一步中生成的數據集,機器會自動地幫你訓練模型,從而進行面部的替換。
CREATE:生成視頻他能根據你訓練出的模型,將給定視頻素材中人物的面部進行替換,最後生成替換後的視頻。
開始實驗1.第一步,生成數據集先創建一個文件夾fake,將素材視頻存放進去
用A和B來區分這兩個小妹妹,按照FakeApp的提示,將素材路徑填入,點擊EXTRACT,接下來無需任何操作,等程序跑完就行了。你會看到fake文件夾中多出了一個dataset-A的目錄,這便是我們待會兒訓練模型時需要的數據集了。A的訓練集生成後,重複這一步驟,生成B的訓練集。至此,咱們第一步結束了。
在這一步開始前,你需要在fake文件中創建一個model目錄,這裡會存放模型文件。和之前一樣,依次填入文件夾路徑,下面的參數無需修改,使用默認配置即可。點擊TRAIN,等待程序初始化後,會彈出一個預覽框,這時,你幾乎可以高枕無憂了。剛開始你會發現預覽框最右側的一列會非常模糊,不要緊,模型才剛開始訓練。Loss A和Loss B代表模型的差異值,咱們無需關注數值產生的原理,你只需要知道,兩者之差越小,說明模型訓練的越好。
訓練過程很費時間,比如,每個數據集各400張左右的面部圖像,訓練了大概14個小時。如果你想要更好的效果,建議每個數據集不低於600張,至於如何確定數據集的大小,可以看上面的示例圖A,圖中的360代表dataset-A的數據量。
值得一提的是,訓練進度會被實時保存下來,也就是說你可以隨時暫停訓練,在預覽窗口中,輸入英文小寫字母q即可保存退出,下次想要繼續訓練的話,打開FakeApp再點擊TRAIN即可。
3.在model中填入我們先前訓練好的模型路徑,Video則填入你想要替換的視頻路徑,依舊是傻瓜式,點擊CREATE,稍安勿躁,讓GPU飛一會兒~程序跑完後,你應該就能在fake文件中看到生成的swap.mp4文件了,讓我們通過視頻截圖,看看效果如何。
總的來說效果還是令人滿意的,雖然看起來有點違和,但絕對可以以假亂真。好了,至此咱們的簡易教程就告一段落了,如果你有什麼問題歡迎留言討論。
下載地址:https://pan.baidu.com/s/1F3_MSteR9sDHRp1MytF7BA
教程交流QQ群:620102404