36氪獨家獲悉,人工智慧初創團隊Versa完成600萬人民幣天使輪融資,由真格基金領投、臻雲創投跟投。此次融資完成後,資金將大部分用於產品研發以及技術團隊的擴張。
相信大家對去年6月紅極一時的Prisma印象深刻,36氪也曾對Prisma以及後來的跟隨者進行了報導,包括Philm、Fabby、Camera360 的智能濾鏡 Poker 以及短視頻版的 Prisma 「Artisto」 。
事實上,Prisma的算法原理出自李飛飛教授在ECCV2016上發表的作品「Perceptual Losses for Real-Time Style Transfer and Super-Resolution」。其原理是利用卷積神經網絡(CNN)將圖片的內容和風格進行分離和重新組合,構建一套模仿名畫的算法,再根據用戶上傳圖片的構圖、顏色、光線、風格等多個維度去匹配合適的風格做組合轉化。
Versa即將上線的APP在產品形態上與Prisma並無太大區別,但在算法原理上做出了創新。拿prisma為例,每一組不同風格的繪畫風格,Prisma大概需要超過10萬個數據樣本去做練習,而Versa僅僅需要100個數據樣本即可。
Versa-Magicbox
這背後的原理是Versa在卷積網絡的特徵提取層和特徵映射層中間加入了一個「基礎概念域」。舉個例子,機器要去識別一隻貓,需要大量的圖片訓練提取出貓的特徵(像素點的比對),這一般需要幾萬張。而我們人去識別貓的時候是通過大腦中的概念,比方說,4條腿、毛茸茸的、有鬍鬚等特徵。滿足這些特徵的物體,我們大腦就會告訴我們這是貓。Versa正是構建了一個基礎概念域,引入了人的先驗概念,大大降低深度學習所需的樣本量以及算力。
與此同時,Versa在基礎概念域的編碼過程中,編碼網絡的訓練只需相對較少的數據用於冷啟動。之後所有的應用都能在此網絡的基礎上做增量學習。因此,該學習框架具備極強的遷移學習能力,容易泛化到各應用領域。
目前與Prisma相比,Versa除了深度學習所需樣本量大幅降低以外,還有幾個值得注意的特點:
可識別景深景淺、人物與背景
在初次渲染完成後,可針對局部再次渲染
更強的風格化效果,不會出現紋理貼圖錯誤
渲染速度平均在1~2秒左右
Versa CEO 蔡天懿告訴36氪,除了對圖像進行處理以外,未來的RoadMap還包括視頻風格的渲染、歌曲風格的創作以及利用AI去營造專業攝影所需要光影效果。
關於技術的商業落地,蔡天懿告訴36氪,Versa的願景是希望利用人工智慧為C端用戶賦能。因此在變現上,主要從B端切入為合作夥伴輸出技術解決方案。關於B端獲客的進展,蔡天懿表示會陸續公布,相信會給大家帶來驚喜。
Versa CEO蔡天懿畢業於巴黎高科計算機專業,後續在法國埃塞克商學院攻讀項目管理。畢業後蔡天懿在巴黎微軟任售前工程師,2012年在矽谷創辦Dreamstorm,利用相關性搜索幫初次創業者物色志趣相投的合伙人。後續以600萬美元的估值於2014年被EFACTOR收購。2014年回國後加入格瓦拉任產品合伙人,主導移動端產品的開發,在此期間用戶量從20萬增長到4000萬,2016年格瓦拉被微影時代收購後,蔡天懿成功退出團隊,並於2017年創立Versa。
Versa CTO 趙維傑2012年加入華為,任算法科學家以及華為晶片的算法開發部總監。在內部開發方向包括智能語音(降噪&回聲消除)、圖像、視頻、自然語言理解以及神經網絡專用晶片。成熟產品應用於華為Kirin晶片,搭載於Mate9、P10等旗艦機型。
如果想要體驗Versa,可輸入36氪專屬邀請碼: 36kr