曉查 發自 凹非寺量子位 報導 | 公眾號 QbitAI
就在今天早晨,蘋果發布了iOS/iPadOS 13.4更新,除了常規升級,還有個看似不起眼的更新:加入了ARKit 3.5。
如果你關注過上周發布的iPad Pro,想必已經能猜到,ARKit 3.5是就是為它的雷射雷達準備的。
從2017年開始,蘋果就開始大力推廣AR(增強現實),但只有發布會上的MineCraft等遊戲展示令人印象深刻,之後鮮有廠商跟進。曾經開發AR眼鏡的Magic Leap也瀕臨「賣身」。
AR似乎遠遠看不到大範圍實際應用的那一天,但是iPad Pro雷射雷達的出現可能改變這一局面。
關於ARKit 3.5
在今天更新的ARKit 3.5中,蘋果添加了一個新的「場景幾何」(Scene Geometry)API,允許開發者使用iPad Pro上雷射雷達掃描儀創建房間的3D地圖,識別地板、牆壁、天花板、桌椅沙發等。
能夠在5米範圍內精準測量物體的長寬高,感知到物體每個平面的方向,甚至還能發現物體之間的遮擋關係,讓嵌入在視頻的中數字內容與場景更好地融合在一起。
這讓iOS自帶的測距儀App體驗有了質的飛躍。
之前的iPad和iPhone都是通過攝像頭的景深來感知物體的遠近,實際上測距儀的照片中並不包含真正的3D信息。
用過測距儀的用戶都知道,比如我們在測量桌子長度的時候,測距儀的起點和終點很難精準地放置在桌子邊緣上。這使得我們的測量準確度大打折扣。
iPad Pro上測距儀App因為有了雷射雷達的存在,與其他蘋果設備有很大的不同。
而配備了雷射雷達的iPad Pro當它到達要測量的桌子等物體的末端時,能夠自動識別邊緣。
而且如果你走得更近,則會在屏幕上展示更多細節,比如自動顯示的新標尺視圖。
數碼評測達人魏布斯在他的評測視頻中對iPad Pro的雷射雷達有詳細的介紹。
https://haokan.baidu.com/v?vid=11256260096815666799
儘管蘋果沒有特別提及,但雷射雷達也將改善相機拍攝效果,今後在採用人像模式時,背景虛化也會更加精準。
iPad上的雷射雷達
雷射雷達之前已經廣泛用在自動駕駛汽車上,用於物體的3D成像。蘋果的自動駕駛秘密項目Titan Project也用過雷射雷達。
蘋果在2017年發表的一篇研究論文詳細介紹了自動駕駛汽車上的3D對象識別系統。該系統利用了雷射雷達的深度圖,與神經網絡結合起來,大大提高了自動駕駛汽車識別環境的能力。
如今蘋果的自動駕駛汽車計劃已擱淺,但雷射雷達卻被用在了行動裝置上。
那麼iPad Pro上的這顆雷射雷達有何特別之處呢?
iPad Pro上的這顆LiDAR本質上是一顆飛行時間傳感器(ToF)。ToF現在被各大手機廠商用在相機的對焦上。
但蘋果使用的ToF與其他廠商不同,它是一顆真正根據飛行時間計算距離的傳感器dToF。
其他廠商都是根據相位差,利用發射光線和反射回的光線之間的相位幹涉來判斷時間和距離。
而是更具發射光子反射回來的時間差來計算距離,這顆ToF能以納秒(十億分之一秒)速度運行,精度更高、能耗更低。正是這個傳感器的出現讓AR應用成為可能。
用iPad拍攝照片看起來相當笨拙,但是今年的iPhone可能配備雷射雷達,如果蘋果的AR眼鏡計劃付諸實踐,那麼未來的蘋果AR眼鏡也一定會有雷射雷達相助。
令人高興的是,外媒AppleInsider爆料稱,iOS 14的代碼中顯示今年的iPhone會加入雷射雷達。只是iPhone背後的三攝排列似乎沒有給雷射雷達留下足夠的空間,難道iPhone的攝像頭布局還要改嗎?
參考連結:
蘋果更新ARKit 3.5:
https://venturebeat.com/2020/03/24/apple-releases-arkit-3-5-adding-scene-geometry-api-and-lidar-support/
魏布斯評測新版iPad Pro(感謝魏布斯授權轉載):
https://haokan.baidu.com/v?vid=11256260096815666799