原作 TAYLOR KUBOTARoot 編譯自 Stanford News量子位 報導 | 公眾號 QbitAI
拐角路口沒有裝凸面反光鏡的話。
別找凸面反光鏡了……就是沒有
老司機開車都得減速慢下來。
誰知道拐彎看不見的地方,會不會有人或小動物突然竄出來。
就更別說無人車了。
辣有沒有可能,現有的雷射雷達能夠提前看到視域外的物體,及時啟動制動功能?
斯坦福SCIL實驗室在努力
完全有。
在昨天,3月5號,斯坦福SCIL實驗室(Stanford Computational Imaging Lab)在Nature上發表了一篇論文,Confocal Non-line-of-sight Imaging based on the Light-cone Transform。
「透視」系統研發團隊:David Lindell(左)、Matt O』Toole(中)、助理教授G
這篇文章,闡述了如何利用反射回來的光束3D建模還原出拐角盲區後的物體。
他們研發這個「透視」技術的初衷,是想用在無人車上,提前預判出拐角的人,增加無人駕駛的安全性。
△斯坦福的小哥哥們研發設計了一個基於雷射的系統,可以對視域外的物體成像。
「聽起來很神奇,但這是可以實現的。」斯坦福電子工程助理教授Gordon Wetstein說。
「看見」看不見的
坦率地講,這個借用雷射的反射把拐角盲區的物體成像的方法,並不是只有斯坦福研究團隊在做。
不過,他們的算法最好用。
「盲區物體成像的挑戰,是找出一種有效的方法來從噪聲測量中恢復看不見物體的三維結構,」SCIL實驗室研究生David Lindell說。 「我認為,這種方法能有多大的影響力,取決於成像的計算效率。」
該論文的作者博士後Matt O』Toole(右)和研究生David Lindell
這套系統,研究團隊把一個雷射器放在了一個光子探測器旁邊。
這個探測器高度敏感,可以捕捉到單個光粒子。
研究團隊往牆上打人肉眼看不到的雷射脈衝,然後這些脈衝遇到拐角背後的物體,會反彈回到牆上來,繼而被光子探測器接收。
現階段,掃描的過程可能需要兩分鐘到一小時,具體取決於光照條件和盲區物體的反射率。
一旦掃描完成後,算法會計算回收光子的軌跡,逐漸把模糊的點變成清晰的3D模型。
整個過程用不到1秒。算法流弊到可以直接在普通的筆記本上跑起來。
考慮到現有算法優秀的表現,研發特對認為他們可以加快處理速度,掃描完成的一瞬間也能成像復原盲區物體。
實際路測遇到的困難
在這篇文章工作之後,SCIL的研發團隊還會繼續完善這套「透視」系統。
要知道,現實世界裡,無人車行駛的環境比實驗室預設的場景複雜得多。
如何快速地響應這些複雜的變化?如何壓縮掃描的時間?
這些都是研發團隊要解決的課題。
無人車體與盲區物體的距離、環境的光照條件等各種因素,都會影響到光子探測器的光子捕捉。要準確地還原出、「看見」盲區物體的樣子,在實際行駛過程中,並不是件容易的事。
另外,這種「透視」技術還得充分利用上散射的光子。而散射的光,還是當下車導航LIDAR系統選擇性忽略的信息。
「我們認為,「透視」算法已經可以用到LIDAR系統上了,」該論文的共同主要作者,SCIL博士後Matthew O』Toole說。 「關鍵的問題是,目前LIDAR系統的硬體能不能支持這種類型的成像。」
在「透視」系統上路之前,研發團隊還有兩個方向可以再進一步優化。
一個是在日光照射下的表現。還有怎麼應對快速移動的物體。
比方說突然有個籃球跑到路中央,或者飛速穿過馬路的熊孩子。
研究人員路測了他們的技術。
他們發現,這套「透視」系統只能使用間接光。儘管這套系統可以很靈敏地發現帶反光材質的物體,比方說穿了安全服的人,或者交通標誌,但是對於沒有穿會反光的衣物的一般路人來說,系統就發現不了(liao)了(le)。
「我們的工作,也算是邁出了有意義的一步。相信這個透視功能,未來會讓我們所有人都受益的,」助理教授Wetzstein說,「我們接下來會加強這套系統在實操上的適用性。」
Wetzstein除了是電子工程助理教授之外,還兼任計算機學院助理教授,並是斯坦福Bio-X和神經生物學協會的成員。
該項目的資金支持,來自於加拿大政府,史丹福大學研究生教育副院長辦公室,國家科學基金等五個機構。
最後,附論文地址,
https://www.nature.com/articles/doi:10.1038/nature25489
& SCIL實驗室網站,
http://www.computationalimaging.org/
& 編譯來源,
https://news.stanford.edu/2018/03/05/technique-can-see-objects-hidden-around-corners/