文 | 學術頭條
清宮題材一直是電視劇行業的寵兒,近年來出現了很多火爆的單品,例如《甄嬛傳》《如懿傳》《延禧攻略》等等。拋開故事本身,電視劇中嬪妃們的美貌給觀眾們留下了深刻印象,讓一大波觀眾高呼也想體驗坐擁「後宮佳麗三千」的「渣渣龍」的快樂。
而另一波吃瓜群眾卻陷入了沉思,歷史上清朝後宮中各位嬪妃真的是如此美貌嗎?留存下來的畫像或許能告訴我們,她們究竟有多美。
心動不如行動,近日 B 站 UP 主 Jack-Cui 就利用 AI 技術還原了乾隆及其五位嬪妃的樣貌,並對比了《延禧攻略》的劇照作參考。很多人期待的 「白月光」 富察容音、「硬核少女」 瓔珞姑娘都在其中。原圖畫像來自清代宮廷畫師郎世寧的《心寫治平》。
接下來,就帶大家看看畫像上的乾隆和嬪妃們 「動」 起來是什麼樣的。
動起來的乾隆和他的嬪妃們
(嬪妃排名不分先後,「渣渣龍」必須放在首位。講道理,每個人都好美啊!!)
乾隆
純惠皇貴妃
孝賢純皇后
淑嘉皇貴妃
孝儀純皇后
清高宗舒妃
掌握這三種 AI 技術,你也可以
據了解,此次製作的靈感來源於海外大神 Denis Shiryaev 的 AI stuff 教程,Jack-Cui 在其基礎上經過多次試驗修改後實現了照片復原並動起來的效果。該效果用到的深度學習算法分別為:StyleGAN 2、DAIN 、First Order Model。
StyleGAN 算法由 NVIDIA 開發,可以生成逼真的、但不存在與這個世界的人物肖像,也就是利用 AI 產生虛假視覺效果的能力。
此前,一名 Uber 工程師利用這個算法開發了一個人物肖像隨機生成網站(奉上網址:https://thispersondoesnotexist.com/),每次刷新這個網站,就會從頭開始生成新的人臉圖像。你可以在這個網站中找到各種各樣、現實不存在的臉,比如網紅臉、黃種人臉、混血人臉等。
此外,還可以利用這種技術生成新字體,製造二次元老婆,當然用它來吸電子貓的也大有人在。
在默認情況下,SyleGAN 訓練一張 1024×1024 解析度的圖片,需要使用 8 塊 GPU 訓練接近一個星期的時間,研究人員在說明文檔中告知所有使用者:使用較少 GPU 可能無法達到最佳效果。他們還列出了使用 NVIDIA Tesla V100 GPU 對不同解析度的圖像進行訓練所需的時間以供參考。
StyleGAN 2 在原版的基礎上進行了升級,重點修復 artifacts 問題,並進一步提高了生成圖像的質量。
另一個算法 DAIN(Depth-Aware video frame Interpolation,插幀算法)則由上海交大的團隊開發,比之前 NVIDIA 的算法效果更清晰、幀率更高,可以把 30fps 進一步插幀到 480fps,這已經超過了很多手機的慢動作錄像幀率。
通過這個算法完成的視頻,即使將視頻慢放 8 倍也不會覺得卡頓,大大提高了視頻的流暢度。
而 First Order Motion 模型來自 NeurIPS 2019 論文 「First Order Motion Model for Image Animation」,最初的目的是讓 「靜態圖片」 動起來。經過一段時間的發展,它甚至可以讓照片裡的人物復活,為你演唱一首歌曲。
根據作者介紹,這個模型可以輕易地讓 「權遊」 中的人物模仿川普進行講話,還可以讓靜態的馬跑起來,另外還可以完成模特的 「一鍵換裝」。
前一陣火爆全網的川普和蒙拉麗莎唱《Unravel》就是利用了這個技術(配樂請自行腦補)。
技術從來都是一把雙刃劍,AI 也不例外。在 AI 的整個發展歷程中,我們發現 AI 掌握了越來越多不斷超出我們想像的新 「技能」,一方面為我們的生活和工作帶來了諸多便利和樂趣,另一方面也帶來了很大的安全隱患,為不法分子帶來了可乘之機。技術本身是中性的,是好是壞取決於使用它的人,我們希望它可以被正確、合理地被利用。
附上UP 主 Github 開源項目地址:https://github.com/Jack-Cherish/PythonPark
參考資料:https://blog.csdn.net/qq_38284961/article/details/97562956https://gitee.com/mirrors/DAINutm_source=alading&utm_campaign=repohttps://zhuanlan.zhihu.com/p/136606648