SIGGRAPH 2020 AR/VR論文匯總

2020-12-22 騰訊網

查看引用/信息源請點擊:映維網

SIGGRAPH 2020大會收錄的論文匯總

映維網 2020年09月07日)成立於1967年的SIGGRAPH大會一直致力於推廣和發展計算機繪圖和動畫製作的軟硬體技術,並已經成為一個集科學、藝術、商業於一身的權威性學術研討會。今年的大會已經結束,而來自世界各地的研究者和工程師都在這裡分享了最新的工作進展。

對於SIGGRAPH 2020大會收錄的論文,其中不乏或許可用於虛擬實境/增強現實領域的內容。下面是映維網整理的部分收錄論文:

1. MEgATrack: Monochrome Egocentric Articulated Hand-Tracking for Virtual Reality

我們主要提出了用於驅動虛擬實境和增強現實體驗的實時手部追蹤系統。利用四個魚眼單色攝像頭,系統能夠生成精確和低抖動的三維手部。我們主要是通過用於檢測手部和估計手部關鍵點位置的神經網絡架構來實現這一點。

手部檢測網絡能夠可靠地處理各種真實世界的環境,而關鍵點估計網絡則利用追蹤歷史來產生時空一致的姿態。團隊同時設計了可擴展的半自動機制,通過手動注釋和自動追蹤相結合的方式來收集大量不同的ground truth數據。

另外,我們引入了一種追蹤檢測的方法,在降低計算成本的同時提高了平滑度。優化後的系統在PC端能夠以60Hz的速度運行,而移動處理器則是30Hz。

相關論文

MEgATrack: Monochrome Egocentric Articulated Hand-Tracking for Virtual Reality

https://paper.nweon.com/5527

2. XNect: Real-time Multi-Person 3D Motion Capture with a Single RGB Camera

我們提出了一種使用單個RGB攝像頭,並以超過30 fps的速度實時捕捉多人3D運動的方法。它可以成功地在一般場景中運行。我們的方法包含多個階段。第一階段是一個卷積神經網絡(CNN),它估計二維和三維姿態特徵。我們為這個CNN貢獻一個新的架構:SelecSLS Net,它使用新穎的選擇性長距離和短距離跳轉連接來改進信息流,從而在不影響準確性的前提下實現更快的網絡;在第二階段,一個完全連接的神經網絡將每個被試的二維姿態和三維姿態特徵轉化為每個個體的完整三維姿態估計;第三階段應用時空骨骼模型擬合每個被試的預測二維和三維姿態,進一步協調二維和三維姿態,並加強時間一致性。我們將在一系列具有挑戰性的真實場景中演示系統,而它能夠以超過30 fps的速度運行,並且達到最先進的精度。

相關論文

XNect: Real-time Multi-Person 3D Motion Capture with a Single RGB Camera

https://paper.nweon.com/650

3. Neural Supersampling for Real-time Rendering

我們介紹了一種可以將低解析度輸入圖像轉換為高解析度輸出的機器學習方法。這種upsampling(上採樣)過程利用了神經網絡並以場景統計進行訓練,從而能夠恢復清晰的細節,同時節省在實時應用程式中直接渲染所述細節的計算開銷。

對於神經超採樣,由運動矢量提供的附加輔助信息特別有效。運動矢量定義了序列幀中像素之間的幾何對應關係。換言之,每個運動矢量指向一個亞像素位置,其中在一幀中可見的曲面點可能已經出現在上一幀中。所述值通常是利用計算機視覺方法進行估計,但這種光流估計算法容易出錯。相比之下,渲染引擎可以直接生成密集運動矢量,從而為應用於渲染內容的神經超採樣提供可靠的、豐富的輸入。

相關論文

Neural Supersampling for Real-time Rendering

https://paper.nweon.com/3261

4. Gaze-Contingent Ocular Parallax Rendering for Virtual Reality

沉浸式計算機圖形系統致力於產生真實的用戶體驗。當前的虛擬實境顯示技術成功地實現了眾多感知方面的重要效果,包括透視、視差、運動視差和其他深度線索。在這篇論文中,我們介紹了一種能夠精確渲染視差的視覺感知技術。眼睛視差描述了視網膜隨眼睛旋轉而產生的圖像偏移。這種效果是因為眼睛的旋轉中心和投影中心不一樣。通過設計和進行一系列的用戶實驗,我們研究了視覺視差渲染的感知含義。具體地說,我們估計了這種效應的感知檢測和辨別閾值,並證明在大多數虛擬實境應用中它是清晰可見。另外,我們發現視覺視差渲染提供了一個有效的有序深度提示,並改善了虛擬實境中真實感印象。

相關論文

Gaze-Contingent Ocular Parallax Rendering for Virtual Reality

https://paper.nweon.com/4828

5. The Eyes Have It: An Integrated Eye and Face Model for Photorealistic Facial Animation

這項研究的主要貢獻包括:一個可共同學習,並能夠更好地表示注視方向和上面部表情的3D人臉和眼球模型;一種將左右眼注視從彼此和面部其他部分分離開來的方法,從而令模型能夠代表前所未見的眼神和表情組合;以及一個用於支持頭顯攝像頭構建精確動畫的注視感知模型。定量實驗表明,這一方法可以獲得更高的重建質量,而定性結果顯示所述方法可以大大改善VR虛擬化身的臨場感。

相關論文

The Eyes Have It: An Integrated Eye and Face Model for Photorealistic Facial Animation

https://paper.nweon.com/2968

6. N-dimensional rigid body dynamics

我提出了一個與空間維度無關的剛體動力學公式。我用幾何代數來描述剛體的狀態和運動方程。使用擴展到nD的碰撞檢測算法,我解析了對象之間的碰撞和接觸問題。我的實現是4D,但這裡描述的技術適用於任何數量的維度。我用一個三維切片來展示這些四維剛體。我允許用戶實時操縱這些剛體。

相關論文

N-dimensional rigid body dynamics

https://paper.nweon.com/5643

7. Data-driven extraction and composition of secondary dynamics in facial performance capture

表達性對象的表達捕捉,特別是高空間解析度獲得的面部表現,其不可避免地會包含一些由於慣性效應和彈道運動而產生的次級動態效果。在大多數自然捕捉環境中,演員在表演時能夠自由移動,而不是固定在特定的位置。通常,所述的次級動態效果並不需要,因為捕捉到的面部表情通常會重新定位到不同的頭部運動,有時甚至是完全不同的角色。在這兩種情況下,我們應該移除捕捉到的動態效果,並添加新的二級效果。本文提出了這樣一個假設:對於一個高度約束的彈性介質(如人臉),這些次級慣性效果主要是由於骨結構(頭骨和下頜骨)運動產生。我們的研究旨在計算和描述捕捉到的動態面部表現之間的差異。這可以用來減去在捕捉過程中由於無意運動而產生的次級動力,或者在準靜態表演的基礎上合成這樣的效果,從而模擬演員身體和頭骨的動態運動。

相關論文

Data-driven extraction and composition of secondary dynamics in facial performance capture

https://paper.nweon.com/5641

8. ARAnimator: in-situ character animation in mobile AR with user-defined motion gestures

創建與真實環境緊密交互的虛擬AR角色動畫十分有趣,但非常困難。現有的系統採用視頻透視的方式來間接控制移動AR中的虛擬角色,而這使得與真實環境的緊密交互變得不太直觀。在這項研究中,我們使用一個具有AR功能的行動裝置來直接控制位於真實環境中的虛擬角色位置和運動。我們發現,基於SVM的學習方法可以從行動裝置的運動數據中獲得相當高的手勢分類精度。我們提出了一個ARAnimator,它允許新手用戶和休閒用戶通過一個支持AR的手機直接表示一個虛擬角色,並使用設備的運動手勢來控制其在AR場景中的動畫,然後通過視頻透視界面進行動畫預覽和交互式編輯。實驗結果表明,利用ARAnimator,用戶可以輕鬆地創建與不同真實環境緊密交互的角色動畫。

相關論文

ARAnimator: in-situ character animation in mobile AR with user-defined motion gestures

https://paper.nweon.com/5639/

9. The design and evolution of the UberBake light baking system

我們描述了UberBake的設計和發展。UberBake是一個由動視開發的全局照明系統,它支持有限的照明變化以響應特定的玩家交互。我們不依賴完全動態的解決方案,而是使用傳統的靜態照明烘焙管道,並通過一組小功能對其進行擴展,從而使得我們能夠在運行時以最小的性能和內存開銷動態更新預計算的照明。這意味著我們的系統能夠支持從高端PC到前代遊戲機的各種系統。特別地,我們展示了如何有效地預計算由於單個照明的啟用和禁用,以及大門打開和關閉而引起的照明變化。

相關論文

The design and evolution of the UberBake light baking system

https://paper.nweon.com/5653

10. Tactile Rendering Based on Skin Stress Optimization

我們提出了一種呈現虛擬觸摸的方法,從而使得位於用戶皮膚的觸覺設備所產生的刺激與虛擬環境模擬中的計算刺激相匹配。為了實現這一點,我們採用了一種新的優化算法來解決從皮膚刺激到設備配置的逆映射問題。在所述算法中,我們使用設備皮膚模擬模型來估計渲染的刺激,通過將摩擦狀態的計算與設備配置的優化解耦而有效地考慮了軌跡相關的影響,同時使用設備皮膚模型的神經網絡近似來加速計算。概括而言,我們可以實時觸覺渲染豐富的交互。

相關論文

Tactile Rendering Based on Skin Stress Optimization

https://paper.nweon.com/1361

11. Directional sources and listeners in interactive sound propagation using reciprocal wave field coding

常見的聲源會表現出強烈的頻率和方向依賴性。當在複雜的環境中傳輸時,它們的各向異性輻射場在到達方向敏感的聽者之前會經歷散射、衍射和遮擋。我們提出了第一個基于波的交互式聽覺化系統,它可以對一般場景中的聲波場進行編碼和呈現。我們的方法在自由移動和旋轉的聲源呈現方向效應,並且支持任何列表的源方向性函數和頭相關傳遞函數。對於各種環境和源類型,我們演示了依賴於詳細場景幾何體的令人信服的效果。

相關論文

Directional sources and listeners in interactive sound propagation using reciprocal wave field coding

https://paper.nweon.com/5645

12. A Scalable Approach to Control Diverse Behaviors for Physically Simulated Characters

具有廣泛自然外觀和實際行為的人類角色將有助於構建引人入勝的交互式體驗。在這篇論文中,我們提出了一種旨在適應大量異類行為的技術。通過將一個運動參考庫劃分為類似運動的簇,我們可以構造能夠在所述簇中再現運動的模擬版本。我們的系統通過由8小時動捕數據構建的運動圖所產生的運動進行訓練,並包含了一系列不同的行為,如跳舞、空手道動作、手勢、行走和跑步。

相關論文

A Scalable Approach to Control Diverse Behaviors for Physically Simulated Characters

https://paper.nweon.com/5529

13. High Resolution tendue Expansion for Holographic Displays

全息顯示器可以創建高質量的三維圖像,同時保持適合頭戴式虛擬實境和增強現實系統的小尺寸。然而,基於空間光調製器中像素的數量,全息顯示器的光通量有限,從而就造成了視窗和視場之間的折衷。

我們在這項研究中引入了新的算法,以空間光調製器的固有解析度支持密集的、真實的圖像。與基線方法相比,峰值信噪比提高了20dB。我們提出空間和頻率約束來優化人的感知性能,並通過仿真和初步的臺式樣機對性能進行了表徵。我們進一步展示了在多個深度生成內容的能力,並提供了一種將臺式原型小型化為類似太陽鏡的外形的途徑。

相關論文

High Resolution tendue Expansion for Holographic Displays

https://paper.nweon.com/5533

14. Exertion-aware path generation

我們提出了一種新的路徑生成方法,而所述方法可以用來實現高度逼真的沉浸式虛擬實境應用。在給定一個地形作為輸入,我們基於優化的方法能夠自動生成可行的路徑,並允許用戶在虛擬實境中進行自行車騎行鍛鍊。所述方法考慮了路徑生成過程中的總工作量和路徑難度的感知程度等特性。為了驗證我們的方法,我們將其應用於在各種地形上生成具有不同施加目標和約束的路徑。為了進行我們的用戶研究,我們建造了一輛運動自行車。我們的用戶研究結果顯示,與傳統的鍛鍊方法相比,用戶在使用我們生成的路徑進行鍛鍊時更令人愉快。他們在自行車道上的能量消耗同時符合指定的目標,從而驗證了我們方法的有效性。

相關論文

Exertion-aware path generation

https://paper.nweon.com/5647

15. Holographic Optics for Thin and Lightweight Virtual Reality

我們提出了一種結合了全息光學元件和基於偏振的光學摺疊的全新近眼顯示器,而這一方法可用於開發未來的太陽鏡式VR硬體。兩種方法的結合有助於實現儘可能細薄的光學元件,同時最有效地利用空間。具體而言,設備僅採用細薄平面薄膜作為光學元件,並實現了小於9毫米的顯示器厚度,同時支持與當今消費類虛擬實境產品相當的視場。這項研究同時展示了更優視覺性能的前景:雷射照明用於為虛擬實境顯示器提供更廣泛的顏色範圍,並且在將解析度擴展到人類視覺極限方面取得了進展。

相關論文

Holographic Optics for Thin and Lightweight Virtual Reality

https://paper.nweon.com/3067

16. Towards occlusion-aware multifocal displays

人類視覺系統使用大量線索來感知深度,包括視差、調節、運動視差和遮擋。多焦點顯示器是滿足視覺調節提示的經典方法之一,它將虛擬內容放置在多個焦平面之上,而每個焦平面的深度不同。然而,靠近眼睛的焦平面上的內容不會遮擋遠處的內容,這會惡化遮擋線索,並且由於散焦模糊洩漏而降低深度不連續處的對比度。本文使用了新的ConeTilt算子來實現了遮擋感知的多焦點顯示。我們發現,對於具有相對簡單遮擋配置的場景,ConeTilt可以提供與物理遮擋相同的效果。我們證明了ConeTilt可以很容易地用純相位空間光調製器來實現。使用一個實驗室原型,我們展示的結果證明了遮擋線索的存在和深度邊緣顯示對比度的增加。

相關論文

Towards occlusion-aware multifocal displays

https://paper.nweon.com/5649/

17. Immersive light field video with a layered mesh representation

我們研發了一個低成本的裝置來錄製沉浸式光場視頻。所述裝置由46個安裝在輕質亞克力圓頂的運動相機組成。利用由同一谷歌研究小組成員在2019年開發的機器學習算法DeepView,我們將來自每臺相機的視頻流組合成一個場景的3D表示。論文同時介紹了一種全新的「分層網格」表示,它由一系列具有半透明紋理的同心層組成。通過從後到前地渲染所述層,場景將能變得生動逼真。在以前,合成相機一開始未能捕獲的視點是一個非常困難的問題,但所述新方法解決了這一痛點,並允許用戶在探索光場視頻內容時自由地轉動頭部。另外,所述系統能夠在壓縮光場視頻的同時保持原始的視覺質量,並使用傳統的紋理貼圖和廣泛支持的視頻編解碼器來實現。

相關論文

Immersive light field video with a layered mesh representation

https://paper.nweon.com/2680

18. HeadBlaster: a wearable approach to simulating motion perception using head-mounted air propulsion jets

我們介紹了一種新穎的可穿戴技術HeadBlaster,它可以對頭部施力並刺激前庭和本體感感覺系統,從而創造運動知覺。與傾斜身體的運動平臺相比,HeadBlaster更接近真實運動中橫向慣性力和離心力的感受,從而提供更持久的運動感受。另外,由於HeadBlaster只驅動頭部而不是整個身體,它消除了約束用戶運動的機械運動平臺,從而提高了用戶的移動性,並可以房間規模VR體驗。我們設計了一個可穿戴的頭部噴射系統:6個空氣噴嘴集成到一個虛擬實境頭顯中,並使用壓縮空氣射流提供持久的橫向推進力。通過控制多個空氣噴射,它能夠在360度內產生橫向加速度的感覺。為了量化頭部運動、感知加速度的持續性和可檢測力的最小水平,我們進行了一系列的感知和人為因素研究。然後,我們通過兩個虛擬實境應用程式探索了HeadBlaster的用戶體驗。研究結果表明,與運動平臺相比,HeadBlaster提供了更長的感知加速度持續時間。它同時顯著提高了真實感和沉浸感。另外,它可以與運動平臺結合使用,從而進一步增強用戶體驗。

相關論文

HeadBlaster: a wearable approach to simulating motion perception using head-mounted air propulsion jets

https://paper.nweon.com/5651

相關焦點

  • 真·降維打擊SIGGRAPH 2020論文幫你想像三維生物眼裡的四維空間
    一篇 SIGGRAPH 2020 論文幫我們 「想像」 出了這個過程,看完論文,你還可以上手試試遊戲。四維空間是什麼?三個空間維度加一個時間維度?不,那是四維時空,跟四維空間是兩個不同的概念。四維空間的第四個維度也是空間維度,和我們熟知的 x、y、z 屬於同一性質。
  • 智能科普:VR、AR的區別?
    相關閱讀:vr技術是什麼vr是什麼意思三星gear vr是什麼ar技術是什麼
  • 太極二作李子懋獲SIGGRAPH最佳博士論文獎,華人連續三年獲此殊榮
    機器之心報導參與:魔王、蛋醬、杜偉剛剛,頂級計算圖形學機構 ACM SIGGRAPH 頒發了 2020 年最佳博士論文獎。MIT CSAIL 博士後研究員、太極(Taichi)論文第二作者李子懋(Tzu-Mao Li)獲得該獎項。
  • VR虛擬實境在遊戲行業的應用優勢
    虛擬實境技術最先在娛樂領域落地,大家最熟悉的3d電影,ar互動遊戲等,近幾年,vr技術在網頁遊戲中的應用也逐漸生成,那麼虛擬實境在遊戲領域的應用優勢有哪些呢虛擬實境技術可以大大增強遊戲的真實感、沉浸感,結合手、眼、耳多感官上刺激人的興奮感。
  • 2020最佳AI論文,都在這裡了
    儘管2020年發生了很多事情,研究者們仍然為人工智慧技術的進步做出了大量重要的貢獻。位於蒙特婁的 AI 內容創作者 Louis Bouchard (他的 YouTube 帳號叫 What's AI) 匯總了一份2020年最值得關注的 AI 論文名單(https://github.com/louisfb01/Best_AI_paper_2020 )。
  • SIGGRAPH Asia 2020 電腦動畫節獲獎短片,你最喜歡哪一部?
    2020年12月15日,SIGGRAPH Asia 2020虛擬線上會議正式宣布了電腦動畫節的三部獲獎短片:最佳作品獎《Shoom’s Odyssey》、最佳學生作品獎《Migrants》、評審團特別獎《Box Assassin》。
  • AR技術加持的黑科技桌遊,圓你《遊戲王》的夢想
    但該設備是第一款在桌遊領域的vr設備,根據演示視頻來看效果不錯。 雖然AR遊戲的開發已經不算新鮮事,但並沒有取得突破性的進展。而AR桌遊設備顯然是與眾不同的,經過AR加持的桌遊個人覺得比vr遊戲更有市場。至於實際效果大家可以看看下面的圖片,還是很不錯。
  • CES第二天AR/VR匯總:索尼推出3D光場顯示方案
    進入CES第二天,青亭網繼續為大家帶來有關AR/VR/3D及相關產品和方案的匯總。大部分產品均已展出,感興趣的朋友可參考CES 2020第一天AR/VR匯總,而關於CES 2020的最終總結,我們將放在本周日的常規新聞匯總,敬請關注。
  • 【171VR遊戲】2020年4月26日最新及更新的VR遊戲
    下載地址:https://171vr.cn/thread-2161-1-1.html2.BOXVR全DLC版【更新最新版本】遊戲星級:⭐⭐⭐踏進馬林公園(邁阿密)、國家公園(華盛頓特區)、進步球場(克利夫蘭)和道奇體育場(洛杉磯)的擊球手包廂,這裡是2017-2020年全明星賽的主場。
  • CreativeXR 2019為英國VR/AR 開發者提供高達20000英鎊的資
    圖文出自:uploadvr原文連結:https://uploadvr.com/creativexr-2019/
  • 5款獲2020年度最佳VR遊戲提名的遊戲,哪個是你的菜?
    vr技術有強大的沉浸性,交互性,應用在遊戲領域不可不謂是得天獨厚,因而,vr技術在遊戲開發方面應用非常廣泛,每隔一段時間就有一批利用vr技術製作的新遊戲出現。Steam今天公布了2020年Steam大獎的提名作品!接下來就一起來看看是哪五款遊戲榜上有名。
  • 奧特曼AR印章拉力2020in福島活動開啟
    ウルトラマンARスタンプラリー2020 in ふくしま【大冒險!奧特曼AR印章拉力2020in福島】再次開啟。此次活動自2020年9月1日至2020年11月30日。id=jp.tsuburaya.fukushima.ar2019到達福島縣指定地點,利用專用APP打開相機,可獲得各種不同3D、2D圖案,並獲得印章,滿足一定印章後,可獲得相應獎品。全福島縣總計12區域34個打卡點,單個區域集滿印章可獲得特別拍照模板。
  • vr視頻是指什麼?vr視角是什麼樣的?
    vr視頻,一個備受熱議的話題,相信大家都和我一樣期待著更多更好的作品出現,來讓我們感受到不一樣的體驗。那麼vr視頻到底是指什麼呢?視角應該是什麼樣的比較好呢?首先我們一定要搞明白vr視頻並不是vr全景視頻,在以往的認知中我們很多人都會把vr全景視頻來理解成vr視頻。其實這是並不對的,大多數vr全景視頻的線性時間軸都是只有一條的;而我們認為真正是vr視頻的時間軸是並不固定的,我們作為第一人稱進入場景時應該是以「角色」的身份進入。劇情應當是根據我們的移動和交互來確認發展方向的。
  • 2020年4月VR/AR月報|VR陀螺
    文/VR陀螺一、2020年4月VR/AR行業融資數據分析2020年4月海內外共完成18筆融資,其中國內3筆,國外15筆。國內三筆融資合計7060萬人民幣(僅計算公開數據),集中在VR視頻和全景相機領域。
  • vr攝影要學多久?vr攝影師前景怎麼樣?
    不僅如此vr全景的應用領域更是廣泛,上到公司企業的形象展示,下到商家店鋪的引流轉化;前景更是母庸質疑,vr看車、vr看房、vr展會、vr旅遊、vr博物館等已經逐漸的被人們所熟知。隨著5G的逐漸普及,和相關政策的大力支持,vr全景定然會在將來更多的領域展現風採,很多有想法的人看到這一趨勢也難以不為之心動。
  • ...大學網絡與繼續教育學院:2020年上半年網絡教育本科生畢業論文...
    答辯時間2020年4月17日~5月9日,於2020年5月10日之前完成論文答辯工作。 1.本次視頻答辯學習中心自行採用系統軟體(如小魚易連、騰訊會議、QQ直播等),請各學習中心提前將系統操作說明通知到答辯學生,並做好對學生的指導。 2.請各學習中心負責老師務必向學校告知答辯具體時間、密碼,以便學校可視聽和檢查。
  • IJCAI 2020 錄取論文合集
    後又受疫情影響,組委會決定將 IJCAI 2020 此次會議,延期至2021年1月舉辦。在諸多情況下,為了社區開發者和學術青年更好的了解 IJCAI 2020會議情況,AI研習社整理了 IJCAI 2020錄取論文合集,供大家查閱。以下是IJCAI2020上NLP方面的相關論文合集。
  • 自考論文答辯是脫稿嗎?
    自考的論文答辯是什麼形式?大多數學校的答辯主要是圍繞著論文進行的,考生提交一份論文,自己留一份論文,答辯那天,老師會圍繞論文的內容來提一些問題。有些院校的答辯氛圍比較輕鬆,有些院校則比較嚴肅。
  • 後元音ar的發音方法的文字
    第五課 後元音的發音方法本文發布後元音ar的發音方法的文字。5、後元音: [ar] , [ar] , [ar] [ar] [ar] 。發音方法:雙唇張大,牙床2食指,舌很低,平放在口中,後舌稍稍隆起,長元音,喉頭肌肉鬆弛。注意:口腔後部打開、共鳴。漢語的「啊」 口腔前部打開,是口腔前部共鳴。
  • vr全景創業,vr全景業務現在好做嗎?
    vr全景隨著5G+vr的熱度逐漸走進了人們的視野,對應的服務也開始變得多了起來,像vr全景看車、vr全景看房、vr全景旅遊等等等……很多人看到這個趨勢想要以此創業,又害怕業務不好做,下面就為大家解答一下vr全景創業靠不靠譜,業務好不好做。