36氪獲悉,人工智慧初創團隊「Versa」於近期完成3000萬人民幣等值美金的Pre-A輪融資,由紅杉資本中國基金領投,上一輪資方真格基金與臻雲創投跟投。Versa 創始人兼 CEO 蔡天懿告訴36氪,此輪融資完成後,資金一方面將用於國內市場與海外市場的品牌推廣,另一方面 Versa將成立深度視覺實驗室,招募CV領域優秀的科學家,進一步優化深度神經網絡,不斷突破表示能力邊界,以更高級的通用智能為創作者賦能。
在 Versa 獲天使輪融資的文章中,36氪曾介紹到,Versa 早期的產品形態看上去與2016年6月火爆朋友圈的 Prisma 有許多相似之處,但在算法的創新與可延伸的邊界上, Versa 比 Prisma 以及同類應用有著更廣闊的空間。
CTO 趙維傑表示,目前深度學習的瓶頸並不在於數據量太小,而在於數據有效利用率太低。與傳統深度學習自下而上的數據驅動方法不同,Versa 提出了全新的 ConceptNet 理論框架:基於概念學習,從概念空間理解事物,突破傳統深度神經網絡的表示能力邊界,進而建立具備感知、聯想、推理能力的深度神經網絡。
ConceptNet不僅在表示理論上取得突破,還提高了數據有效利用率。在傳統方法需要10萬+數據量的問題上,ConceptNet只需要100張以下的數據樣本。
8月份內測時,Versa僅有1萬的定向邀請用戶,8種渲染風格,功能上可實現針對畫面局部的二次渲染以及對景深景淺的區分。3個月以來,Versa 一共進行了4次大的迭代,實現了從1萬到100萬的用戶數的增長。
9月出初Versa 上線 了 Versa Space 功能,用戶可以上傳作品到自己的主頁上,不同用戶之間實現了關注、留言等互動功能;同期上線的「人景分離」與「風格色」功能則代表了 Versa 團隊在圖像識別算法層面的新的突破。此功能在測試中做到了98%的準確度,甚至能識別並分離出一根頭髮絲。
人影分離
而在10月底,Versa 將「人景分離」升級到「圖像分離」,即算法不僅能夠識別人,還能識別出小貓、小狗、桌子、杯子、汽車、飛機等物體。比如下圖,車和人可以單獨分離也可實現同時與背景分離,目前Versa可識別並分離的物體已超過20種,平均準確率93%。
圖像分離
蔡天懿表示,想要實現以上功能的前提,是機器要能夠識別圖片中的所有元素,比如人的五官、頭髮、衣服材質、汽車車燈、車窗、狗的五官等等。只有這樣,機器才能進行下一步的工作:賦予不同物體其應有的筆觸與渲染風格。
舉個例子,Versa 在針對人物髮絲做渲染時的筆觸就跟人物五官和旁邊的桌子不一樣,截止到今天,Versa 已經支持超過30種不同名畫的渲染風格。
關於 Versa 將要推出的最新功能,蔡天懿告訴36氪,在聖誕節期間團隊將會對「圖像分離」再次升級 —— 實現對短視頻的人景分離。
想像一個場景,落日黃昏,你從中關村創業大街走來,周邊的景色被渲染成梵谷的《星空》,唯獨你在現實場景之下。這個時候,你再按一下人景分離的按鈕,你從頭到腳被渲染成了《星空》的風格,而中關村創業大街恢復成往日的景色。
36氪已體驗過短視頻版本的人景分離功能,效果值得大家期待。未來用戶只需要拿起手機,打開 Versa,一段帶有名畫風格的短視頻便可輕鬆存入相冊。
紅杉資本中國基金副總裁王臨青告訴36氪,「紅杉相信:新技術下會產生新的工具,使用新工具創作的作品又能聚集形成新的生態。我們一直致力於尋找和支持技術創新,Versa正是一家這樣的公司。」
採訪的最後,蔡天懿向36氪透露,Versa 本質上是一家由工程師組成的團隊,而在工程師心中,技術應該被分享。因此 Versa 接下來將通過 OpenAI 的平臺將其部分 AI 算法免費開源並將核心算法的埠實施付費調用。蔡天懿認為,只有將技術分享才能讓 AI 之上的產品變得更加多元,而只有產品實現多元,才能讓更多有趣的應用場景實現落地。
想成為AI版的美圖秀秀,「Versa」完成600萬人民幣天使輪融資,大幅降低深度學習樣本數量