蘋果12的雷射雷達有用嗎
iPhone12 正式面世。與基本機型相比,iPhone 12 Pro 和 iPhone 12 Pro Max 的後置攝像頭除了多一枚長焦鏡頭,還增加了一顆 LiDAR,雷射雷達掃描儀。
這顆雷射雷達是什麼?它能為你的手機帶來什麼新體驗?
在這塊圓形黑色區域之下,LiDAR主要由兩部分組成:發射端和接收端。垂直腔面發射雷射器(VCSEL)作為發射端,向物體發射一束紅外光,經反射被CMOS圖像傳感器接收,光束經歷的這一段時間被稱為飛行時間(ToF)。
飛行時間又分為直接飛行時間(dToF)和間接飛行時間(iToF)。前者向目標發射一個光脈衝信號,直接測量光子從出發到返回的用時;後者發射一連串經過調製的光波,通過檢測來回光波間的相位差測量飛行時間。
已知光速,通過簡單的計算我們就能得到與目標物體之間的距離。這樣的測距原理與雷達類似,不過,LiDAR基於的是脈衝雷射,比雷達利用的無線電波波長更短、頻率更高,可以得到解析度更高的圖像,精度可達釐米甚至毫米級別。
因此,LiDAR也被應用在地圖測繪、自動駕駛、文物保護等領域。而到了手機,它又能做些什麼呢?
這不是蘋果第一次在它的產品裡引入雷射雷達。早在今年 3 月,2020 款 iPad Pro 就配備了 LiDAR 掃描功能,採用直接飛行時間技術(dToF),相比 iToF,功耗較低且不易受環境光的幹擾,可以做到大範圍測量。
使用時,發射器投射出9*64大小的矩陣光束,捕捉並繪製最遠5米範圍內的位置深度圖。改變,首先發生在你拍攝的照片裡。
一張出色的淺景深照片,是通過調大相機光圈並對焦在距離相機較近的地方實現的。今天,通過多個攝像頭和機器學習算法的幫助,用手機也能輕而易舉拍出這種背景虛化的效果。
首先,神經網絡和機器學習技術可以讓手機知道我們在拍什麼,以及目標距離我們有多遠。對於普通人來說,從一張照片中判斷物體層次和遠近關係是一件非常容易的事,但對於機器,則需要大量的資源來學習,比如顏色分布、明暗程度和物體尺寸。
就像上面這張照片,曝光度均勻且主題明顯,機器很容易分析出距離鏡頭較近的點以及距離鏡頭較遠的點。
可一旦照片中有更複雜的關係,事情就變得棘手了。
人類或者動物的毛髮、豐富的色彩、以及與背景顏色接近的衣服等,都很容易被機器誤判為背景,尤其是主體的邊緣區域,呈現出不自然的模糊效果。
LiDAR的加入能帶來更精準的深度信息,以便於讓iPhone理解物體之間的前後關係,通過算法繪製出一張空間位圖,並將照片做切片處理。iPhone會在幾納秒內根據深度信息圖將照片切分成多份,距離越遠的圖層,模糊程度越高,製作出一張以假亂真的淺景深人像照片。
同時,在低光照條件下,iPhone的對焦速度也將大幅提升,並且可以在黑暗中準確找到畫面中的人物,為夜間模式下的人像照片打下基礎。
當然,LiDAR 對 iPhone 12 Pro 的拍照提升實際上還得看實拍測試。 你可以期待另一個讓它真正大放異彩的領域—— AR。
2017年開始,蘋果公司推出AR軟體開發套件ARKit,開發者們可以使用它製作出精緻的AR應用,比如下面這個能讓你隨時隨地打保齡球的遊戲。
遊戲場景中的這兩人保持運動狀態,且是前後移動,在沒有深度信息的輔助下,機器難以判斷出兩個人的位置關係,把球放置在二人中央。所以你會看到,球時不時從人體內「穿」過的詭異畫面。
而加入了LiDAR之後,通過測量出照片的深度系統,將遊戲裡的3D模型附著在地面、桌面等平面上,並分析整個攝像頭視野內的空間位置關係來動態調節模型的光照和陰影,使遊戲體驗更加真實。
當這些人物從你面前跑過,將帶來身臨其境的體驗,並且通過機器學習算法的加持,AR應用能更清楚地知道攝像機視野裡的是你家的沙發還是地面,從而將草地附著到沙髮腳的位置,與你所處的位置達到前所未有的契合。
你可能意識到了,手機前置的 Face ID 也能構建 3D 圖像,它與 LiDAR 有什麼區別?
而LiDAR的光斑較大且疏,更適合用來對整個房間進行掃描和建模。
LiDAR能讓你的手機在AR應用中獲得更好的體驗,在家裡放一把椅子,它比你的雙目還要更精準地知道椅子離地面多遠、離牆壁多遠。
椅子嵌進牆裡或是立在牆面的畫面,再也不會出現了。
蘋果iPhone12雷射雷達有必要花錢買嗎
蘋果突然給新款iPad Pro的攝像頭模組裡配置了雷射雷達掃描儀(LiDAR),可以對5米之內的物體進行精確的3D掃描。蘋果不斷在釋放他們正積極推進AR應用落地的信號。
另外,據各大主流科技媒體的消息,這枚專為AR設計的雷射雷達也將出現在新款iPhone上。它預示了蘋果將在AR上做什麼動作?值不值得你多掏錢?以及,我們還要多久才能用上傳聞已久的蘋果AR眼鏡?
蘋果iPhone 12「強賣」雷射雷達,有必要花錢買嗎?
做一個AR眼鏡,需要什麼?
去年年底,The Information爆料,在10月的內部會議上,蘋果AR/VR部門負責人Mike Rockwell向多達千人的團隊公布了AR路線圖。其中,公司計劃在2022年發布具備AR和VR功能的頭顯,它和VR一體機Oculus Quest類似,但更輕薄,並計劃在2023年推出更輕便的AR眼鏡。
蘋果為了推出AR眼鏡,這幾年都作了多少積累?
據行業垂直媒體VR陀螺的總結,從2010年到2020年,蘋果收購或投資了20多家和AR/VR相關的公司,有包括像面部識別硬體技術公司Polar Rose這樣的底層技術商,也有像NextVR這種內容公司。
AR眼鏡屏幕方面,蘋果2018年收購了光波導企業AKONIA,這或許暗示了蘋果後續將鎖定光波導顯示方案。而AR聲學方面,我們也可以從iOS 14中蘋果給AirPods耳機帶來的更新找到眉目,新加入的「環繞立體聲」和「自動切換設備」,或許意味著蘋果給AR眼鏡找到了沉浸式聲學方案。
處理器呢?從A11仿生晶片開始,蘋果就加入了自研的GPU,專門針對AR進行了優化。總的來說,A系列的晶片的性能在移動晶片中拔得頭籌。
在硬體積累的同時,蘋果在軟體層面已經打了三年地基。
早在2017年,蘋果就推出了AR開發平臺ARKit,推出SDK,隔年推出.usdz文件格式。VR陀螺認為,「.usdz是在AR時代定義AR文件格式的重要標誌,像我們現在的安卓app,就是.apk。」在今年的WWDC上,蘋果發布了ARKit 4。ARKit 4圍繞雷射雷達掃描儀展開,包含深度API、位置錨定、臉部追蹤等功能。
蘋果不斷優化這個開發平臺,鼓勵開發者創作AR應用。像Apple Arcade裡的遊戲Hot Lava,就能利用雷射雷達,在玩家客廳建模以生成遊戲表面等等。
集邦諮詢分析師蔡卓邵認為,增加手機上的AR應用是說服消費者購買高價AR眼鏡的第一步,有了足夠應用之後,手機廠商才能將AR眼鏡作為智慧型手機的配件,像智能手錶那樣賣給消費者。他預計,這個過程將在未來一到三年內發生。
不過由於技術限制,過去幾年的消費級AR並沒有激起多大的水花。
2014年,售價達到1500美元,但功能有限、續航過短的第一代Google Glass無人問津;Magic Leap,這家AR行業裡明星公司,長期承受著「PPT公司」的罵名,產品半年來只賣出了6千臺,離10萬臺的年度銷售目標相去甚遠,CEO下臺,被迫調整之前的to C戰略;微軟的HoloLens從第二代開始更是不趟C端這「渾水」了。
高性能的AR設備的價格,遠遠超出了普通消費者的心理預期。另外,一體式的AR眼鏡為了輕便,往往會犧牲性能和續航。由於多方限制,一批通過連接手機來運行的分體式AR/VR眼鏡開始湧入市場,比如vivo、華為等大廠,和Nreal等創業公司都推出了相關產品。這種基於手機的分體式AR,可能是直接和手機屏幕互動的「手持式AR」的下一個過渡階段。
如果蘋果推出AR眼鏡,適用的應用形式是什麼?VR陀螺作了預測,他們認為是App Clips(輕應用),「程序太大,功耗就大,對設備是一個負擔,運算量小(蘋果限制容量只能是10MB)、可多渠道訪問的App Clips,會是AR眼鏡的完美搭檔。」
蘋果「強賣」雷射雷達
就目前來說,或許也會出現在iPhone上的雷射雷達,本質上還是處於教育市場和培養生態的階段,消費者不用花費額外的硬體成本去接觸初級AR產品,前沿開發者進行AR創作的門檻都不斷拉低。在產業鏈條中,蘋果在出貨量如此巨大的設備上「強賣」雷射雷達,也能一定程度上催熟供應鏈,生產規模起來後,硬體成本也就降低了。
蘋果眼下在雷射雷達上進行的新嘗試,本質上是想將AR應用程式和軟體生態帶向新的高度,因為光靠ARKit的推動,進展似乎不溫不火。
可以這麼說,你眼下為雷射雷達多掏的錢,買的是蘋果的「醉翁之意不在酒」。
據CNET前年4月的報導,有消息人士透露蘋果正在研發可以同時運行AR和VR的頭顯,項目代號為T288,當時計劃為單眼配置8K解析度的顯示精度。
蘋果還會在這款頭顯上儘可能使用輕型材料,適合用戶長時間佩戴。而代號為N421的AR眼鏡則更激進,「本來是按照全天候佩戴的方向去設計的」,但目前的原型機像是「價格高昂的太陽鏡」,由於要塞進電池和晶片,眼鏡邊框較粗。去年,蘋果還為一項功能申請了專利:當人們在佩戴上這款眼鏡後,如果正在進行AR體驗,鏡片會隨之變暗,以提醒他人佩戴者的狀態。
這些設計方向,都表明蘋果希望這些硬體可以長時間黏在用戶身上,甚至取代他們手裡的iPhone。高管在去年10月的內部會議上表達了願景,他們相信在未來十年,經過不斷迭代的AR眼鏡或能取代iPhone。
但在這種想要取代iPhone的AR眼鏡上市之前,我們最可能先看到的眼鏡,還會是長在iPhone上的形態。