最近,一段由AI修復的「100年前北京影像」在社交平臺上火了。
視頻由加拿大攝影師在1920-1929年間拍攝。視頻中原本色彩單調、輪廓模糊的人影,經過修復後,變成了宛若油畫的彩色視頻。
截至10日晚上8時,這段視頻在微博上的播放量高達1748萬,在B站的播放量則超過了70萬。許多網友留言稱視頻的逼真效果打破了他們的想像,仿佛已經聞到百年前北京街頭的香火味。
接下來,就讓我們一起穿越回100年前,看看那個時候的北京城。
1920年的北京城(當時屬於中華民國北洋政府時期,尚未改名為北平),還有點清朝時期的皇城根兒下的味道。
馬路,橋面上人來車往,人流、馬車、人力車交相同行,車水馬龍好不熱鬧。讓人不得不感嘆一句,一百年前的北京城,可真是一點也不堵車。
從出行方式來看,當時的交通工具主要有人力車、馬車、轎子三種形式,但大多數情況下,選擇步行的人居多;畢竟,在一百年前,不是誰都打得起車、坐得起轎子的。
雖然一百年前沒有現代購物商場,但有著各式各樣的大集市,小商販們就地擺攤,顧客們駐足觀看,這樣看來也是別有一番購物風味啊。
還有一幕是安逸和諧的逗狗畫面,有網友調侃稱:狗狗依然還是那個狗狗。
在大多數畫面中,影像出鏡人物多為男性,鏡頭轉向寺廟祭拜場景時,便鮮有地出現了女性的身影。從畫面中可以看出,那時的女性腳部多為「三寸金蓮腳」,當時的男性還留著長辮。
畫面中女子兩隻大眼睛透露出對攝影機的驚恐,發現不太對勁後馬上躲開。不遠處,同樣梳著長辮子的人藏在樹後面,好奇地觀察著。
雖然多數畫面都與現代生活場景有所差異,但較為有趣的是,一百年前人們打招呼的方式,網友稱其為「蘿蔔蹲」。
可以看出,男女之間的打招呼方式也有些細微差異,並且打招呼也不僅是「蘿蔔蹲」一種,作揖也是常見的方式。
對比現代的招手問好,不得不說,以前的人們禮節真的很到位。
雖然視頻時長僅有10 分鐘,但卻從多個角度體現出了百年前的不同風貌,網友們紛紛感慨著百年間的滄桑巨變:「太容易代入了,感覺是兩個時代人的見面。」
與以往陳舊的視頻不同,這段只有10分鐘的影片竟然是彩色的,老建築、街邊的店鋪、甚至是人們臉上正是多了這一抹顏色,即刻顯得生動起來,活靈活現。
藉由AI技術修復的百年前的京城影像確實讓我們看到了與現代社會截然不同的一面,在博主評論的下方,有許多網友紛紛感慨昨日風貌,感嘆技術的強大。
但其實,AI修復舊視頻並非新技術,它早早的就進入到修復電影的領域中來了。
在國內應該很少有人聽過「Denis Shiryae 」這個名字,但這位大神是影史第一片《火車進站》影像修復的背後功臣。
《火車進站》拍攝於1895年,影片全長45秒。由於當時技術局限,原始影片的質量非常模糊,解析度非常低,原始幀率大概在16幀到24幀之間。
不過,經Denis Shiryae出手,通過神經網絡的畫面解析度增強和插幀之後,該影片達到了4K高清解析度,幀率提高到每秒60幀;也就是說該影片能夠更高清,更順暢呈現給觀眾了。
Denis Shiryaev使用的是Topaz實驗室的Gigapixel AI以及DAI Nimage圖像編輯應用程式。據官網介紹,Gigapixel AI軟體內嵌專有的插值算法,在分析圖像的同時能夠識別圖像的細節和結構,即使將圖像放大600%,它也可以使圖像更清晰。
同樣通過AI對老舊電影實現4K修復重映的,還有去年獻禮祖國的主旋律電影——《決勝時刻》和《開國大典》。
其中《決勝時刻》有一個為吸引人的點,那就是復原了開國大典的真實視頻片段。
這段珍貴的影像資料是導演黃建新及其團隊在俄羅斯檔案倉庫的膠片中找到的,這也是開國大典的相關影像資料第一次以彩色超清形式在大熒幕上呈現。
而且中國從2007年就開始啟動了電影檔案影片數位化修復工程,計劃每年修復超過100部電影,海外市場每年也有12000部修復電影的工作量。
為了更順利地進行修復工作,肖搏團隊開發了「中影·神思」人工智慧圖像處理系統,靠計算機大數據深度學習算法,在四個月內修復增強了30萬幀圖像。
利用「中影·神思」,修復一部電影的時間可以縮短四分之三,成本可以減少一半。
目前,「中影•神思」已成功應用於《厲害了,我的國》、《血色浪漫》、《亮劍》等多部影視劇的圖像修復與增強當中。
最關鍵的是,「中影·神思」的開發使得很多以前無法修復的電影現在也能逐漸修復了。
比如:1949年王濱導演的《橋》,電影殘片畫面重影現象十分嚴重,膠片掃出來後每個人物每一幀都有一個虛邊,但利用AI處理技術就能輕鬆解決這個問題。
而且修復電影只是AI技術應用在電影領域的冰山一角,不知不覺,AI已經攻佔了電影行業的全產業鏈,包括選星、寫劇本、做剪輯.
如果小羅伯特·唐尼被本·阿弗萊克取代,《鋼鐵俠》還能成為大片麼?把《少年的你》的女主演換成王珞丹,這次的封神影后還是周冬雨麼?
上述問題背後牽扯的票房、觀眾喜好對電影製作方無比重要,以往只能進行一些「空想」的分析,但是通過利用對多元化的數據,電影公司Cinelytic能夠利用AI模擬問題的重現。
Cinelytic軟體的展示
Cinelytic聯合創始人兼執行長Tobias Queisser曾在一次採訪中談到:「用Cinelytic軟體可以單獨比較兩位女演員,也可以在特定的電影場景裡進行比較。(可以設計兩個場景,看看對於一部特別的影片,演員1和演員2在哪些領域有更大的影響力)
選角只是整個電影製作的一小部分,在2016年紐約大學AI研究人員奧古德溫研發了一款Benjamin人工智慧寫稿程序。
在給這個程序餵了幾十本科幻電影劇本之後,其創造出了語意連貫,具有邏輯性的劇本,雖然沒法做到像人類寫的劇本那樣邏輯通順,但是這表明AI已經具有了寫劇本的潛力。
AI續寫《鬥破蒼穹》小說
除此之外,研究員正在利用機器學習算法攻佔配音領域,例如總部位於聖何塞的Adobe公司正在嘗試用機器學習來輔助模仿人的聲音,目的是重塑演員對白或修改劇本中的爛臺詞。
從選角到寫劇本再到配音領域,人工智慧也沒有放過電影剪輯。
在2016年,IBM的沃森製作出的驚悚科幻片《摩根》成為全球第一部由人工智慧操刀的電影預告片。
通過將100部恐怖電影的預告片中的每個鏡頭分離出來,然後餵給沃森進行訓練,沃森會對這些預告片進行視覺、音頻、場景構成的分析。
接著將完整的影片《摩根》導入到沃森中,在「觀看」了電影後,沃森迅速挑出10個最適合製作預告片的電影場景。最後,沃森從90分鐘的影片中,為製作人篩選出一段長達六分鐘的影片,也讓預告片的剪輯時間縮減到24小時。
之後,AI剪輯術有了更加先進的功能。2017年,史丹福大學與Adobe合力開發出了一款可以自動完成視頻剪輯程序,在剪輯速度碾壓人類之外,同時還可以讓我們根據自己的意願對人工智慧的剪輯風格進行控制。
這個更加先進的AI系統會自動將所有的鏡頭,包括多個角度拍攝的畫面按照我們的腳本進行組織,還能根據需求找到指定的內容。
如今,人工智慧已經滲透到了電影行業的方方面面,以往還只能在實驗室蹦躂的AI算法、技術已經有了具體的落地場景,逐漸成為驅動新一輪產業變革的核心力量。
而這些智能技術和現實生活不斷融合的案例,也在提醒著大家:世界正在邁入「AI時代」。
所以我們應該重視教育的發展趨勢,搶先一步佔領AI教育資源高地,不再讓機器人、語音識別、圖像識別這些聽起來「高大上」的科技名詞只出現在大家的話語中。
因此,今天的孩子們要為未來做好準備,掌握未來時代的核心技術:少兒編程,只有這樣才跟上未來AI時代的步伐。