自動駕駛離不開感知層、控制層和執行層的相互配合。攝像頭、雷達等傳感器獲取圖像、距離、速度等信息,扮演眼睛、耳朵的角色。
控制模塊分析處理信息,並進行判斷、下達指令,扮演大腦的角色。車身各部件負責執行指令,扮演手腳的角色。而環境感知是這一切的基礎, 因此傳感器對於自動駕駛不可或缺。
車載攝像頭是實現眾多預警、識別類 ADAS 功能的基礎。在眾多 ADAS 功能中,視覺影像處理系統較為基礎,對於駕駛者也更為直觀,而攝像頭又是視覺影像處理系統的基礎, 因此車載攝像頭對於自動駕駛必不可少。
攝像頭可實現的 ADAS 功能
以上眾多功能都可藉助攝像頭實現,有的功能甚至只能通過攝像頭實現。
車載攝像頭價格持續走低,未來單車多攝像頭將成為趨勢。攝像頭成本相對低廉,價格也從 2010 年的 300 多元持續走低,到 2014 年單個攝像頭價格已降低至 200 元左右,易於普及應用。
根據不同 ADAS 功能的要求,攝像頭的安裝位置也不盡相同。按攝像頭的安裝位置不同,可分為前視、側視、後視和內置四個部分。未來要實現全套 ADAS 功能,單車需配備至少 5 個攝像頭。
前視攝像頭使用頻率最高,單一攝像頭可實現多重功能。如行車記錄、車道偏離預警、前向碰撞預警、行人識別等。前視攝像頭一般為廣角鏡頭,安裝在車內後視鏡上或者前擋風玻璃上較高的位置,以實現較遠的有效距離。
側視攝像頭代替後視鏡將成為趨勢。由於後視鏡的範圍有限,當另一輛在斜後方的車位於這個範圍之外就「隱身」,因為盲區的存在,大大增加了交通事故發生的機率。而在車輛兩側加裝側視攝像頭可以基本覆蓋盲區,當有車輛進入盲區時,就有自動提醒駕駛員注意。
全景泊車系統通過安裝在車身周圍的多個超廣角攝像頭,同時採集車輛四周的影像,經過圖像處理單元矯正和拼接之後,形成一副車輛四周的全景俯視圖,實時傳送至中控臺的顯示設備上。
駕駛員坐在車中即可以「上帝視角」直觀地看到車輛所處的位置以及車輛周報的障礙物。
車載攝像頭應用廣泛且價格相對低廉,是最基本最常見的傳感器。相對於手機攝像頭,車載攝像頭的工況更加惡劣,需要滿足抗震、防磁、防水、耐高溫等各種苛刻要求。製造工藝流程複雜,技術難度高。
特別是用於ADAS功能的前視攝像頭,涉及行車安全,可靠性必須非常高。因此車載攝像頭的製造工藝也更加複雜。
在成為整車廠商的一級供應商之前,需經過大量不同種類的嚴格測試。但是一旦進入整車廠商的一級供應商體系就會形成很高的壁壘,很難被替代,因為更換供應商的成本太高,重新更換供應商就意味著整車廠商要再次進行複雜的測試。
全球視覺系ADAS龍頭Mobileye從1999年成立就開始研發視覺處理系統,但在2007年搭載Mobileye產品的車型才上市,從研發到正式進入前裝市場,用了八年的時間。但成為眾多整車廠商的一級供應商後,Mobileye已成為這一領域絕對的寡頭。
自從其公司2014年上市至今,與其他公司競逐各大汽車廠商的智能汽車安全設備招標時,Mobileye的成功率幾乎是百分之百。
毫米波的波長介於釐米波和光波之間, 因此毫米波兼有微波制導和光電制導的優點:
1)同釐米波導引頭相比,毫米波導引頭具 有體積小、質量輕和空間解析度高的特點;
2)與紅外、雷射等光學導引頭相比,毫米波導引頭穿透霧、煙、灰塵的能力強,傳輸距離遠,具有全天候全天時的特點;
3)性能穩定,不受目標物體形狀、顏色等幹擾。毫米波雷達很好的彌補了如紅外、雷射、超聲波、 攝像頭等其他傳感器在車載應用中所不具備的使用場景。
毫米波雷達的探測距離一 般在 150m-250m 之間,有的高性能毫米波雷達探測距離甚至能達到 300m,可以滿足汽車在高速運動時探測較大範圍的需求。與此同時,毫米波雷達的探測精度較高。
這些特性使得毫米波雷達能夠監測到大範圍內車輛的運行情況,同時對於前方車輛的速度、加速度、距離等信息的探測也更加精準,因此是自適應巡航(ACC)、自動緊急剎車(AEB) 的首選傳感器。
目前 77GHz 毫米波雷達系統單價大約在 250 歐元左右,高昂的價格限制了毫米波雷達的車載化應用。
雷射雷達性能精良,是無人駕駛的最佳技術路線。雷射雷達相對於其他自動駕駛傳感器具有非常優越的性能:
解析度高。雷射雷達可以獲得極高的角度、距離和速度解析度,這意味著雷射雷達可以利用都卜勒成像技術獲得非常清晰的圖像。
精度高。雷射直線傳播、方向性好、光束非常窄,彌散性非常低,因此雷射雷達的精度很高。
抗有源幹擾能力強。與微波、毫米波雷達易受自然界廣泛存在的電磁波影響的情況不同,自然界中能對雷射雷達起幹擾作用的信號源不多,因此雷射雷達抗有源幹擾的能力很強。
三維雷射雷達一般安裝在車頂, 可以高速旋轉,以獲得周圍空間的點雲數據,從而實時繪製出車輛周邊的三維空間地圖。同時,雷射雷達還可以測量出周邊其他車輛在三個方向上的距離、速度、加速度、角速度等信息,再結合 GPS 地圖計算出車輛的位置,這些龐大豐富的數據信息傳輸給 ECU 分析處理後,以供車輛快速做出判斷。
以地圖為中心:以 Google 和百度為代表的網際網路企業的無人駕駛是以地圖為中心, 主要原因在於雷射雷達可以為這些公司繪製高精度地圖。
以汽車為中心:對大多數車企而言,他們更想要一款專為汽車量身定製的雷射雷達產品。
首先,和測繪專用的笨重「大花盆」相比,小型雷射雷達和汽車更配,為了兼顧美觀和風阻係數,自動駕駛汽車與普通汽車不應該在外觀上有任何差別,雷射雷達儘量要被做成小體積直接嵌入車身,這就意味著要將機械旋轉部件做到最小甚至拋棄。
因此車用雷射雷達沒有選用大體積旋轉結構,而是在製作工藝上,將旋轉部件做到了產品內部。例如 Ibeo 的雷射雷達產品 LUX,改為固定雷射光源,通過內部玻璃片旋 轉的方式改變雷射光束方向,實現多角度檢測的需要。
而Quanergy 旗下產品 S3 是一款全固態產品,使用了相位矩陣新技術,內部不存在任何旋轉部件。
不過,好東西都很貴。雷射雷達單價以萬為單位,高昂的價格讓其難以市場化。
最後我們對比一下這三大傳感器性能:
一起事故引發的改變
2016 年 5 月,美國佛羅裡達州一輛開啟了自動駕駛模式(Autopilot) 的特斯拉與白色重型卡車相撞,導致特斯拉車主身亡。
這起被稱為「全球首例自動駕駛致死」事故,讓不少人開始對自動駕駛的安全性表示擔憂,也給特斯拉蒙上一層陰霾。
特斯拉
事故曝光後,特斯拉與其視覺識別系統供應商 Mobileye 終止合作,並於 9 月份通過 OTA 推送了 V8.0 系統, 強化毫米波雷達作用,將其提升成為主控制傳感器。
特斯拉 V7.0 時代的自動駕駛主要以圖像識別為主,毫米波雷達只是一個輔助傳感器,V8.0 系統對整個技術方案做出了很大的調整:以毫米波雷達為主,圖像識別為輔,雷達可以監測範圍是之前的 6 倍,大幅增強特斯拉的前方障礙識別能力。
而到了2016 年 10 月,特斯拉又發布 Autopilot2.0,宣布未來生產的所有車型都將具備進行完全自動駕駛的硬體系統。同時,特斯拉表示在此硬體基礎上的自動駕駛的安全性有了空前提升。
Autopilot 2.0 與 Autopilot 1.0 硬體對比情況
特斯拉的完全自動駕駛硬體系統包括:
1)車身四周加裝 8 個攝像頭,能夠測量 250 米範圍內的物體;
2)搭載 12 顆 超聲波傳感器,用以輔助偵測;
3)升級增強版的毫米波雷達,能夠在惡劣天氣下工作,也能探測到前方車輛;
4)汽車主板的性能是前款產品的 40 倍,大幅提升計算能力。
特斯拉本次發布Autopilot 2.0的完全自動駕駛硬體變化最大的在於攝像頭,數量從原先的1個增至8個。 這也預示著特斯拉感知端的技術路線從原先的攝像頭,到倚重雷達,最後又重新選擇了攝像頭。
特斯拉不斷變化的主控傳感器選擇說明感知端目前還沒有完全固定的技術路線,特斯拉自身也是在探索中不斷地前進。
Mobileye
實際上,與特斯拉「分手」,是Mobileye提出來的。
經過十幾年的研發創新,Mobileye憑藉其EyeQ系列晶片上的高級視覺算法可實現多種ADAS功能,已成為視覺系ADAS產品中絕對的龍頭。
從2007年研發出的第一代EyeQ產品開始,Mobileye與意法半導體合作,不斷升級晶片技術,優化視覺算法,EyeQ3產品的運算速度已是第一代產品的48倍。
Mobileye 的 EyeQ 系列產品升級情況
從表格中我們可以看到,前三代產品都只搭載一顆攝像頭。目前EyeQ4、EyeQ5產品計劃已發布,其中EyeQ4將開始使用多攝像頭方案。預計未來通過晶片升級和算法優化,Mobileye的晶片算法將融合更多傳感器,將推出多目攝像頭+毫米波雷達+雷射雷達的解決方案,全面支持無人駕駛。
2016年7月,Mobileye 宣布和特斯拉終止合作,EyeQ3 將會是 Mobileye 和特斯拉的最後一次合作。幾乎同時,Mobileye 還宣布英特爾、寶馬進行合作。今年3月,英特爾以溢價33%+的價格收購Mobileye。
其實,Mobileye與特斯拉終止合作的深層次原因在於:
1)風格策略不同。Mobileye相對保守,特斯拉相對激進,因此Mobileye更傾向與傳統汽車廠商合作。
2)數據歸屬有爭議。Mobileye提出了一個名為REM的概念,數據將由加入的成員共享,而作為積累裡程以及數據最多的特斯拉不願意白白把數據共享給別的車廠。
不過特斯拉只是Mobileye所面對的眾多整車客戶之一,但是與英特爾的強強聯合,Mobileye將受益於英特爾從晶片端提供的資源幫助,構造基於視覺、實現傳感器融合的強大算法,推動視覺算法持續向自動駕駛邁進。
對比特斯拉跟Mobileye的產品升級我們會發現,「老情人」的肉體雖然分離了,但精神上還是一致的。都是通過增加傳感器的數量,並讓多個傳感器融合來提高自動駕駛能力。
上面提到的特斯拉事故中,主要原因有:
毫米波雷達測距可能誤判。毫米波雷達測到前方有巨大障礙物,但可能因為卡車反射面積過大和車身過高,毫米波雷達將拖掛車誤判為懸掛在道路上方的交通指示牌;
前置攝像頭 EyeQ3 可能誤判。事故拖掛車是橫置的,全身白色,沒有色彩警告,在陽光強烈的環境下,圖像識別系統容易將拖掛車誤判為白雲。
在極端情況下,特斯拉的毫米波雷達和前置攝像頭均發生了誤判。可見攝像頭+毫米波雷達方案缺乏冗餘度,容錯性差, 難以完成自動駕駛的使命,需要多個傳感器信息融合綜合判斷。
傳感器各有優劣,難以互相替代,未來要實現自動駕駛,是一定需要多種(個) 傳感器相互配合共同構成汽車的感知系統的。不同傳感器的原理、功能各不相同,在不同的使用場景裡可以發揮各自優勢,難以互相替代。
多個同類或不同類傳感器分別獲得不同局部和類別的信息,這些信息之間可能相互補充,也可能存在冗餘和矛盾,而控制中心最終只能下達唯一正確的指令,這就要求控制中心必須對多個傳感器所得到的信息進行融合,綜合判斷。
試想一下,如果一個傳感器所得到的信息要求汽車立即剎車,而另一傳感器顯示可以繼續安全行駛,或者一個傳感器要求汽車左轉,而另一個傳感器要求汽車右轉,在這種情況下,如果不對傳感器信息進行融合,汽車就會「感到迷茫而不知所措」, 最終可能導致意外的發生。
因此在使用多種(個)傳感器的情況下,要想保證安全性,就必須對傳感器進行信息融合。 多傳感器融合可顯著提高系統的冗餘度和容錯性,從而保證決策的快速性和正確性,是自動駕駛的必然趨勢。
1)硬體層面,數量要足夠,也就是不同種類的傳感器都要配備,才能夠保證信息獲取充分且有冗餘;
2)軟體層面,算法要足夠優化,數據處理速度要夠快,且容錯性要好,才能保證最終決策的快速性和正確性。
簡單地說,傳感器融合就是將多個傳感器獲取的數據、信息集中在一起綜合分析以便更加準確可靠地描述外界環境,從而提高系統決策的正確性。
多傳感器融合的基本原理
多傳感器融合的基本原理類似於人類大腦對環境信息的綜合處理過程。人類對外界環境的感知是通過將眼睛、耳朵、鼻子和四肢等感官(各種傳感器)所探測的信息傳輸至大腦(信息融合中心),並與先驗知識(資料庫)進行綜合,以便對其周圍的環境和正在發生的事件做出快速準確地評估。
多傳感器融合的體系結構:分布式、集中式和混合式。
1)分布式。先對各個獨立傳感器所獲得的原始數據進行局部處理,然後再將結果送 入信息融合中心進行智能優化組合來獲得最終的結果。分布式對通信帶寬的需求低、 計算速度快、可靠性和延續性好,但跟蹤的精度卻遠沒有集中式高。
2)集中式。集中式將各傳感器獲得的原始數據直接送至中央處理器進行融合處理, 可以實現實時融合。其數據處理的精度高,算法靈活,缺點是對處理器的要求高,可 靠性較低,數據量大,故難於實現。
3)混合式。混合式多傳感器信息融合框架中,部分傳感器採用集中式融合方式,剩 餘的傳感器採用分布式融合方式。混合式融合框架具有較強的適應能力,兼顧了集中 式融合和分布式的優點,穩定性強。混合式融合方式的結構比前兩種融合方式的結構 複雜,這樣就加大了通信和計算上的代價。
因為多傳感器的使用會使需要處理的信息量大增,這其中甚至有相互矛盾的信息,如何保證系統快速地處理數據,過濾無用、錯誤信息,從而保證系統最終做出及時正確的決策十分關鍵。
目前多傳感器融合的理論方法有貝葉斯準則法、卡爾曼濾波法、D-S 證據理論法、模糊集理論法、人工神經網絡法等。
從我們上面的分析可看出,多傳感器融合在硬體層面並不難實現,重點和難點都在算法上。多傳感器融合軟硬體難以分離,但算法是重點和難點,擁有很高的技術壁壘,因此算法將佔據價值鏈的主要部分。
在自動駕駛的浪潮下,自主品牌車企對智能化、電子化的需求比合資車企更加強勁,隨之而來的便是自主一二級零部件供應商在該領域的機會,過去幾年,零部件行業也在持續布局等待市場開啟。
相對於控制層和執行層多被網際網路巨頭、整車廠及 Tier 1 所控制,傳感器層的零部件供應商較為分散且門檻相對低一些,進入周期相對短一些。傳感層仍然是國內企業進入自動駕駛產業最容易的切入點。
打開APP閱讀更多精彩內容聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容圖片侵權或者其他問題,請聯繫本站作侵刪。 侵權投訴