深度解析Apollo無人車感知和定位技術

2021-01-08 第一電動網

有關無人車的定位有兩種,一種稱之為絕對定位,不依賴任何參照物,直接給出無人車相對地球坐標或者說WGS84坐標系,也就是坐標(B,L,H),其中B為緯度,L為經度,H為大地高即是到WGS-84橢球面的高度, WGS-84坐標系是美國國防部研製確定的大地坐標系,是一種協議地球坐標系。 

WGS-84坐標系的定義是:原點是地球的質心,空間直角坐標系的Z軸指向BIH(1984.0)定義的地極(CTP)方向,即國際協議原點CIO,它由IAU和IUGG共同推薦。X軸指向BIH定義的零度子午面和CTP赤道的交點,Y軸和Z,X軸構成右手坐標系。WGS-84橢球採用國際大地測量與地球物理聯合會第17屆大會測量常數推薦值,採用的兩個常用基本幾何參數:  長半軸a=6378137m;扁率f=1:298.257223563。坐標系非常複雜,GPS的測量結果與我國的54系或80系坐標相差幾十米至一百多米,隨區域不同,差別也不同。

經粗略統計,我國西部相差70米左右,東北部140米左右,南部75米左右,中部45米左右。在中國,國家出於安全的考慮,在地圖發布和出版的時候,對84坐標進行了一次非線性加偏,得到的坐標我們稱之為GCJ02坐標系。國內許多地圖公司,可能是由於業務的需求,或者是商業競爭的某些原因,在GCJ02坐標的基礎上又進行了一次非線性加偏,得到了自己的坐標系統。百度就是這麼一家公司。百度在GCJ02的基礎上進行了BD-09二次非線性加偏,得到了自己的百度坐標系統。 

傳統的GPS定位精度只有3-7米,我國城市主幹道單一車道寬一般是3.75米,也就是說GPS無法做到車道線級定位。在城市道路或峽谷中,精度會進一步下降。即便是美國及北約國家,民用系統也不可能用GPS獲得亞米級定位。GPS衛星廣播的信號包括三種信號分量:載波、測距碼和數據碼。測距碼又分為P碼(精碼)和C/A碼,通常也會把C/A碼叫做民碼,P碼叫軍碼。P碼會再分為明碼和W碼,想要破解是完全不可能的。後來在新一代GPS上老美又提出了專門的M(Military)碼,具體細節仍處於高度保密中,只知道速率為5.115 MHz,碼長未知。北鬥的定位精度目前還不如GPS。 

無人車的車道線級絕對定位是個難題,無人車需要更高精度的釐米級定位。日本為解決這個問題,研發準天頂衛星系統(QZSS),在2010年發射了一顆衛星,2017年又陸續發射了3顆衛星,構成了三顆人造衛星透過時間轉移完成全球定位系統區域性功能的衛星擴增系統,今年4月1日將正式商用,配合GPS系統,QZSS可以做到6釐米級定位。QZSS系統的L5信號頻點也是採用1176.45MHz,而且採用的碼速率與GPS在該頻點的碼速率一樣,都是10.23MHz。意味著晶片廠商在原有支持GPS系統晶片上無需改動硬體,只需在軟體處理上作更改就可以實現對Galileo、QZSS系統的兼容,相當於軟體實現上需要多搜索幾顆導航衛星。幾乎不增加成本,而北鬥系統是需要改硬體的,非常麻煩。因為日本國土面積小,4顆衛星就夠了,如果換成中國或美國,可能需要35顆-40顆衛星。 

國內大部分廠家都採用GPS RTK做絕對定位,不過RTK缺點也是很明顯的。RTK確定整周模糊度的可靠性為95~99%,在穩定性方面不及全站儀,這是由於RTK較容易受衛星狀況、天氣狀況、數據鏈傳輸狀況影響的緣故。首先,GPS在中、低緯度地區每天總有兩次盲區(中國一般都是在下午),每次20~30分鐘,盲區時衛星幾何圖形結構強度低,RTK測量很難得到固定解。其次,白天中午,受電離層幹擾大,共用衛星數少,因而初始化時間長甚至不能初始化,也就無法進行測量。根據實際經驗,每天中午12點~13點,RTK測量很難得到固定解。再次,依賴GPS信號,在隧道內和高樓密集區無法使用。 

Apollo的定位技術

先進的無人車方案肯定不能完全基於RTK,百度Apollo系統使用了雷射雷達、RTK與IMU融合的方案,多種傳感器融合加上一個誤差狀態卡爾曼濾波器使得定位精度可以達到5-10釐米,且具備高可靠性和魯棒性,達到了全球頂級水平。市區允許最高時速超過每小時60公裡。 

上圖為百度Apollo自動駕駛傳感器、計算單元、控制前的連接圖,計算系統使用臺灣Neousys Nuvo-6108GC工控機,這款工控機使用英特爾雙至強E5-2658 V3 12核CPU。主要用來處理雷射雷達雲點和圖像數據。 

GPS定位和慣性測量單元方面,IMU 為NovAtel IMU-IGM-A1 ,GPS接收機為NovAtelProPak6。雷射雷達使用的是Velodyne HDL-64E S3,通過乙太網連接工控機,水平視野360°,垂直視野26.9°,水平角度解析度為0.08°,距離精度小於2cm,可探測到120m的汽車或樹木。視覺系統使用Leopard ImagingLI-USB30-AR023ZWDR with 3.0 case,通過USB連接到工控機。使用安森美的200萬像素1080p傳感器AR0230AT和AP0202 ISP。FOV為廣角58度,有效距離大約60-70米。毫米波雷達採用的是Continental ARS408-21,連接至CAN卡。CAN卡為德國ESD CAN-PCIe/402-B4。 

上圖為百度無人車定位模塊框架,融合了IMU、GNSS和雷射雷達等傳感器(紫色),以及一個預先製作好的定位地圖(黃色)。最上層的是SINS系統,就是Strap-down InertialNavigation。捷聯慣導系統是在平臺式慣導系統基礎上發展而來的,它是一種無框架系統,由三個速率陀螺、三個線加速度計和處理器組成。SINS使用IMU測量得到的加速度和角速度積分得到位置、速度、姿態等,在卡爾曼濾波器的傳播階段作為預測模型;相應地,卡爾曼濾波器會對IMU的加速度和角速度進行矯正,位置、速度和姿態等誤差也反饋給SINS。RTK定位和雷射雷達點雲定位結果作為卡爾曼濾波器的量測更新。 

上圖為百度的雷射雷達點雲定位地圖。首先要提前製作一幅無人車將要行駛地區的雷射雷達點雲定位地圖,包含有雷射雷達強度成像圖和高度分布圖,這張圖通常是地圖廠家用測繪級雷射雷達完成的。目前全球絕大多數廠家包括Waymo、福特、通用等都是如此。b為雷射雷達反射強度成像圖,c為高度分布圖。這張圖覆蓋範圍3.3*3.1平方公裡。 

雷射點雲定位算法描述如下:

表面上看高精度定位很複雜,實際計算中,耗費的運算資源並不算多,基於雷射雷達的運算量遠低於基於圖像的運算量。這套系統在將來也可以用傳統的汽車級SoC完成,如瑞薩的R-Car H3,恩智浦的I.MX8或S32A258C。成本有望大幅度降低。64線雷射雷達也有望在未來由flash固態雷射雷達取代,進而大幅度降低成本。 

百度無人車定位團隊的一篇關於多傳感器融合定位的學術論文「Robust and Precise VehicleLocalization based on Multi-sensor Fusion in Diverse City Scenes」已被機器人頂級會議ICRA 2018錄用,初稿可從arXiv上下載。 

Apollo的感知技術

在 Apollo 中感知模塊有以下幾個職能:探測目標(是否有障礙物)、對目標分類(障礙物是什麼)、語義分割 (在整幀畫面中將障礙物分類渲染)、目標追蹤 (障礙物追蹤)。

Apollo 2.0系統使用了多傳感器融合的方式做環境感知,攝像頭負責紅綠燈的檢測,毫米波雷達最大的作用是提供目標的運動速度,目標識別主要靠雷射雷達完成的。 

2016年10月,百度與清華聯合發表了論文Multi-View 3D ObjectDetection Network for Autonomous Driving ,地址https://arxiv.org/pdf/1611.07759.pdf,論文以雷射雷達與攝像頭融合的方式做目標識別,不過在2017年5月百度發表的論文Vehicle Detection from 3DLidar Using Fully Convolutional Network,地址https://arxiv.org/pdf/1608.07916.pdf,這篇論文裡放棄與攝像頭融合。在2017年10月,加入毫米波雷達融合。 

2017年11月,蘋果發表論文,VoxelNet: End-to-EndLearning for Point Cloud Based 3D Object Detection,也只用雷射雷達識別目標,並且與百度和清華Multi-View 3D ObjectDetection Network for Autonomous Driving做了對比,顯示出單純用雷射雷達效果更好。究其原因,雷射雷達數據處理速度比攝像頭要快,時間同步很有難度,兩者還需要坐標統一;其次是攝像頭對光線太敏感,可靠性低,遠距離尤其明顯。百度在Apollo 2.0裡使用了雷射雷達與毫米波雷達融合的方案。

雷射雷達物體識別最大的優點是可以完全排除光線的幹擾,無論白天還是黑夜,無論是樹影斑駁的林蔭道,還是光線急劇變化的隧道出口,都沒有問題。其次,雷射雷達可以輕易獲得深度信息,而對攝像頭系統來說這非常困難。再次,雷射雷達的有效距離遠在攝像頭之上,更遠的有效距離等於加大了安全冗餘。最後,雷射雷達的3D雲點與攝像頭的2D圖像,兩者在做深度學習目標識別時,2D圖像容易發生透視變形。簡單地說透視變形指的是一個物體及其周圍區域與標準鏡頭中看到的相比完全不同,由於遠近特徵的相對比例變化,發生了彎曲或變形。這是透鏡的固有特性(凸透鏡匯聚光線、凹透鏡發散光線),所以無法消除,只能改善。而3D就不會有這個問題,所以3D圖像的深度學習使用的神經網絡可以更加簡單一點。 

另外,雷射雷達也可以識別顏色和車道線。 

無人車領域對目標圖像的識別不僅僅是識別,還包括分割和追蹤。分割就是用物體框框出目標。對於2D圖像來說,只能用2D框分割出目標,而雷射雷達圖像則可以做到3D框,安全性更高。追蹤則是預測出車輛或行人可能的運動軌跡。 

很明顯,3D的分割框要比2D的有價值的多,這也是Waymo和百度都用雷射雷達識別車輛的原因之一。 

目標檢測與識別領域早期用DPM。 2013年11月,目標檢測領域公認的大神Ross Girshick推出R-CNN,2015年4月進化為Fast R-CNN,2015年6月進化為Faster R-CNN,成為今日目標檢測與識別領域公認最好的方法,也是可以完全端對端地實現。 

雷射雷達的目標檢測與識別也用FasterR-CNN。Faster R-CNN 從2015年底至今已經有接近兩年了,但依舊還是ObjectDetection領域的主流框架之一,雖然後續推出了R-FCN,Mask R-CNN 等改進框架,但基本結構變化不大。同時不乏有SSD,YOLO等新作,但精度上依然以Faster R-CNN為最好。從RCNN到fast RCNN,再到本文的faster RCNN,目標檢測的四個基本步驟(候選區域生成,特徵提取,分類,位置精修)終於被統一到一個深度網絡框架之內。所有計算沒有重複,完全在GPU中完成,大大提高了運行速度。  

圖像語義分割可以說是圖像理解的基石性技術,在自動駕駛系統(具體為街景識別與理解,判斷可行駛區域)、無人機應用(著陸點判斷)以及穿戴式設備應用中舉足輕重。圖像是由許多像素組成,而「語義分割」顧名思義就是將像素按照圖像中表達語義含義的不同進行分組(Grouping)/分割(Segmentation)。語義分割有時會是最難的一部分,因為這要用到NLP自然語言處理領域的技能,而大部分玩CNN的對NLP不甚了解。

上圖為史丹福大學的雷射雷達語義分割流程圖,最後是用3D FC-CRF,也就是全連通條件隨機場,另一種常用的方法是MRF,馬爾科夫隨機場。條件隨機場用於序列標註,數據分割等自然語言處理中,表現出很好的效果。在中文分詞、中文人名識別和歧義消解等任務中都有應用。 

百度的語義分割主要是為了更好地理解交通場景,為行為決策提供依據。低成本的無人駕駛也可以用攝像頭的2D圖像做語義分割,為無人車找出可行駛區域,光線良好的情況下可以用這種低成本的方案。 

2018CES展示的Apollo2.0無人車頂部除了雷射雷達外,新增了兩個攝像頭,一個長焦、一個短焦,主要目的是為了識別道路上的紅綠燈。

自動駕駛訓練數據集

KITTI數據集由德國卡爾斯魯厄理工學院和豐田美國技術研究院聯合創辦的自動駕駛場景下的計算機視覺算法評測數據集。該數據集用於評測立體圖像(stereo),光流(optical flow),視覺測距(visual odometry),3D物體檢測(object detection)和3D跟蹤(tracking)等計算機視覺技術在車載環境下的性能。KITTI包含市區、鄉村和高速公路等場景採集的真實圖像數據,每張圖像中最多達15輛車和30個行人,還有各種程度的遮擋與截斷。 

Cityscapes數據集則是由奔馳主推,提供無人駕駛環境下的圖像分割數據集。用於評估視覺算法在城區場景語義理解方面的性能。Cityscapes包含50個城市不同場景、不同背景、不同季節的街景,提供5000張精細標註的圖像、20000張粗略標註的圖像、30類標註物體。 

3月8日,百度正式開放ApolloScape大規模自動駕駛數據集。ApolloScape擁有比Cityscapes等同類數據集大10倍以上的數據量,包括感知、仿真場景、路網數據等數十萬幀逐像素語義分割標註的高解析度圖像數據,進一步涵蓋更複雜的環境、天氣和交通狀況等。ApolloScape數據集涵蓋了更複雜的道路狀況,比如單張圖像中最高可達162輛交通工具或80名行人 ,同時開放數據集採用了逐像素語義分割標註的方式。 

Kitti,Cityscapes和ApolloScape的數據實例對比

對我國傳統車廠來說,自建訓練數據集恐怕是最大的難題,與百度合作是最好的選擇。 

3月31日北京《Hello Apollo,自動駕駛公開課》

2018年CES上,百度發布了Apollo 2.0,搭載了百度Apollo 2.0系統的自動駕駛汽車將擁有簡單城市道路的自動駕駛能力。Apollo 2.0 的發布,也意味著百度整體的自動駕駛系統被開放出來,其中包括了雲服務平臺、軟體平臺、參考硬體平臺以及參考車輛平臺。 

Apollo自動駕駛公開課第3期,即將於3月31日在北京舉辦,將引導自動駕駛開發者深入應用Apollo2.0。本次公開課邀請了百度自動駕駛事業部的資深工程師,以及Apollo的老用戶,一起與開發者們交流,快速掌握Apollo2.0的最新功能。 

百度自動駕駛事業部資深架構師,負責產品化解決方案的楊凡將介紹Apollo開放平臺簡介、Apollo能力開放簡介、Apollo資源開放與研發迭代新模式、Apollo生態階段性成果。 

百度無人車定位技術負責人,設計並搭建了Apollo多傳感器融合定位系統的萬國偉將介紹《Apollo2.0多傳感器融合定位模塊》。無人車定位技術是自動駕駛領域的基礎技術之一,其難點在於如何保證高精準度和高魯棒性。Apollo2.0的多傳感器融合定位模塊自適應地使用GNSS、LiDAR及IMU等傳感器,在許多有挑戰的場景(例如市區、隧道等)都達到了釐米級定位。萬國偉的演講將分享定位模塊的框架,以及各子模塊的算法原理。 

長沙智能駕駛研究院公司產品部負責人黃英君,從事智能駕駛方面總體解決方案與產品研發工作,將在沙龍上介紹《Apollo的分布式可擴展計算平臺探索》。黃英君的分享主要包括:在 Jetson TX2上進行Docker擴展,運行Apollo;在Apollo on Jetson TX2中配置TensorRT和VisionWorks適配,進行視覺算法優化與加速。 

智行者科技聯合創始人&技術研發部總監李曉飛將在沙龍上分享《低速自動駕駛專用車產品落地之智行者-Apollo合作案例》,主要包括自動駕駛落地場景及應用挑戰、智行者AVOS系統研發、智行者與Apollo的技術合作三個部分。

演講嘉賓簡介

楊凡:百度自動駕駛事業部資深架構師,負責產品化解決方案。 

演講摘要:Apollo開放平臺簡介、Apollo能力開放簡介、Apollo資源開放與研發迭代新模式、Apollo生態階段性成果。 

萬國偉:百度無人車定位技術負責人,Apollo 核心算法技術負責人,設計並搭建了Apollo多傳感器融合定位系統。 

演講摘要:無人車定位技術是自動駕駛領域的基礎技術之一,其難點在於如何保證高精準度和高魯棒性。Apollo2.0的多傳感器融合定位模塊自適應地使用GNSS、LiDAR及IMU等傳感器,在許多有挑戰的場景(例如市區、隧道等)都達到了釐米級定位。本次演講將分享定位模塊的框架,以及各子模塊的算法原理。 

黃英君:長沙智能駕駛研究院公司產品部負責人,從事智能駕駛方面總體解決方案與產品研發工作,對Apollo的分布式擴展方面進行了探索。 

演講摘要:智能駕駛的技術平臺和系統架構飛速發展,多個廠家都提出了自己的系統架構和解決方案,目前並沒有一個統治性的方案。Apollo集中運行感知、決策、控制模塊,對資源、實時性、可靠性需求是不同的,對計算平臺、作業系統、運行環境的要求也各不相同。我們分享將這些模塊進行解耦,分布式集成運行在不同的計算平臺和作業系統上,即在一個高可靠的雙機備份低成本平臺上運行決策與控制模塊,在多個低成本高性能技術平臺上運行感知模塊,實現一個分布式可擴展的解決方案。本次分享主要包括:在 Jetson TX2上進行Docker擴展,運行Apollo;在Apollo on Jetson TX2中配置TensorRT和VisionWorks適配,進行視覺算法優化與加速。 

李曉飛:智行者科技聯合創始人&技術研發部總監。 

演講摘要:風起雲湧,自動駕駛產品落地之路為何困難重重?撲朔迷離,自動駕駛應用場景究竟出路何方?眾志成城,智行者和Apollo如何攜手並進?主要講述自動駕駛落地場景及應用挑戰,智行者AVOS系統研發,智行者與Apollo的技術合作三個部分。

來源:佐智汽車

本文地址:https://www.d1ev.com/news/jishu/65264

返回第一電動網首頁 >

以上內容轉載自佐智汽車,目的在於傳播更多信息,如有侵僅請聯繫admin#d1ev.com(#替換成@)刪除,轉載內容並不代表第一電動網(www.d1ev.com)立場。

文中圖片源自網際網路,如有侵權請聯繫admin#d1ev.com(#替換成@)刪除。

相關焦點

  • Apollo自動駕駛技術論壇
    但攝像頭有著容易受環境影響、缺乏深度信息等缺點,給無人駕駛系統中的視覺感知算法帶來了巨大的挑戰。因此,如何建立一套高精確率和高穩定性的視覺感知算法,是無人車感知模塊的核心問題。在這次分享中,我們將討論:1. Apollo視覺感知算法模塊2. 紅綠燈檢測算法3.
  • Apollo 2.5技術文檔學習指南
    上個月Apollo 2.5正式發布,開放了視覺感知、實時相對地圖和高速規劃與控制三大能力,幫助開發者迅速起步,快速驗證。同時,開發者也可以使用更多、更高效的開發工具,進一步提升開發效率。這裡,我們將Apollo 2.5的技術文檔進行整理、歸納分享給開發者,幫助開發者更好更快地使用Apollo。
  • 開發者說|手把手教你用粒子濾波實現無人車定位
    每個粒子有自己的初始位置和航向角,執行預測後,粒子群的分布也不再那麼集中。粒子預測完成後,我們需要對所有粒子的權重進行更新(所有粒子的初始權重都相等)。權重更新的依據是無人車對路標位置的感知。由於車載傳感器是安裝在車上的,感知到的路標位置都是基於車體坐標系的。
  • Apollo無人駕駛平臺技術框架解析
    ApolloApollo的整體技術框架由上到下分為四部分:雲服務平臺開源軟體平臺參考硬體平臺參考車輛平臺Apollo技術框架1、雲服務平臺雲服務平臺主要面對未來的無人駕駛汽車運營商,可細分為:高精地圖服務:高精度地圖是實現無人駕駛汽車高精度定位
  • 直播回顧丨Apollo 6.0系列公開課②雷射雷達感知技術解析
    11月,Apollo 6.0公開課第二講由百度高級研發工程師——陳嘉豪為大家帶來主題為「Apollo 6.0雷射雷達感知技術解析」的專場講解。圍繞基於PointPillars的雷射雷達點雲檢測算法,以及PointPillars模型的部署與優化進行直播解讀。
  • 深度解析自動駕駛雷射雷達技術原理、感知系統的發展趨勢
    原標題:深度解析自動駕駛雷射雷達技術原理、感知系統的發展趨勢   目前,機械旋轉雷射雷達的高
  • Apollo 源碼解析 —— Portal 批量變更 Item
    ; 17:     } 18:  19:     // 創建 ItemChangeSets 對象,並解析配置文件到 ItemChangeSets 中。第 3 至 9 行:調用 #parseKeyValueFromItem(newItem) 方法,解析一行,生成 [key, value] 。
  • 移動機器人的5大定位技術解析
    那麼移動機器人定位技術主要涉及到哪些呢?經總結目前移動機器人主要有這5大定位技術。  當然,也有不少移動機器人導航定位技術中用到的是分開的發射和接收裝置,在環境地圖中布置多個接收裝置,而在移動機器人上安裝發射探頭。
  • 無人車駛入南京 百度Apollo獲頒測試牌照
    無人車駛入南京 百度Apollo獲頒測試牌照 泰伯網綜合•2020-12-22 14:27:58 這是南京市頒發的第一批自動駕駛測試牌照,也是江蘇省首批面向前裝量產車輛的自動駕駛測試牌照。
  • 攜程開源技術Apollo統一配置中心實踐
    配置中心在現實的Coding工作中,我們是否會遇到這樣的問題,我們本地開發環境會用到一套配置參數和配置文件,測試環境會用到另一套配置參數和配置文件,然而項目打包發布時又會用到一套配置參數和配置文件。四,創建資料庫和表cd apollo-build-scriptsmysql -h localhost -u root -p>輸入資料庫密碼create database config_portal;use config_portal;source sql/apolloportaldb.sqlcreate database config;use config;
  • Apollo開發者說丨使用GDB調試Apollo項目
    社區公眾號曾經推送過一篇《技術文檔丨使用VSCode構建、調試Apollo項目 》,基本能滿足Apollo項目的調試需求,但直接在終端中使用GDB調試Apollo項目,靈活性更強。本文簡介藉助GDB調試Apollo項目的基本方法,希望給大家學習Apollo帶來一定的幫助。
  • Apollo問答丨如何進行bazel編譯?
    自Apollo開發者社區小程序上線以來,我們每一天都會在「社區問答」版塊收到許多開發者的技術提問。每周,可愛的Apollo小姐姐都會精選出被採納的社區問答進行整理匯總,並統一對大家進行答覆。A:Github文檔:https://github.com/ApolloAuto/apollo/tree/master/docs;官網開發者中心:https://apollo.auto/devcenter/devcenter_cn.html
  • 深度傳感器有哪些創業機會?先得知道這3種深度感知技術和應用
    人類有兩隻眼睛,使我們能夠自然地感知深度。但是,大多數CV應用程式都依靠一臺攝像機來捕獲和解釋其周圍的環境。丟失的三維尺寸嚴重限制了CV的性能,可以說傳感器的性能就是如今虛擬與現實世界之間的瓶頸。  深度傳遞關鍵信息——我們將需要深度感測和2D成像來捕獲現實世界的全部信息。
  • 物聯感知技術演進,強化數據底層支撐
    所有數據的分析和應用都要建立在數據採集的基礎上,數據採集的系統性、實時性尤為重要。如何推進物聯網多源數據採集和共享交換,向經濟、民生等各個領域延伸大數據服務,發揮未來新石油的功用成為數據時代需要考慮的基礎問題、關鍵問題,感知層技術演進則成為物聯體系建設的助推器。
  • 融合iBeacon和WiFi定位技術,雲加科技提供免費的線下場景感知軟體...
    利用iBeacon的近場感知提供位置感知服務,幫助B端用戶進行精準營銷,已經在大量的場景中進行了運用。市面上提供此類服務的公司包括鮮老虎、智慧圖、智石科技等。iBeacon的優勢在於定位比較精準,精度可達2米。
  • 無人車末端物流與服務全面普及應用還需要多久
    無人車末端物流解決方案由雲端智能運營管理系統構成,無人物流車實現無人自主運輸,雲端智能運營管理系統則提供遠程控制、數據分析等服務,有效提升管理效率及安全性。無人車末端物流場景除百度無人車以外(無人駕駛最高級別應用),主要應用在機場、高校園區、大型工廠、酒店賓館、社區、大型峰會、景區等。
  • 基於邊緣計算的自動駕駛高精地圖建圖與定位方法
    地平線基於邊緣計算的眾包高精度地圖解決方案是基於地平線自研晶片--徵程的快速處理及計算能力,在已量產自動駕駛計算平臺Matrix上,將強大的視覺感知和建圖能力結合在一起,從而在邊緣處利用SLAM技術實現高精度地圖的創建,並利用眾包技術實現地圖信息的實時更新。總的來說NavNet就是利用深度學習和同步建圖及定位技術結合實現高精建圖定位系統。
  • 發布雙目攝像頭深度版,小覓智能幫用戶尋找低成本定位導航互補方案
    可以幫助降低高精度的視覺SLAM算法和空間運動追蹤算法的研發周期。內置晶片:小覓雙目攝像頭深度版內置晶片,可以在設備端完成雙目深度計算,無需依賴終端的GPU/CPU,本身便可直接輸出雙目深度圖像。小覓雙目攝像頭深度版的應用領域包括三個方向:定位、識別、測量。
  • Apollo 5.5代碼 實現點到點城市自動駕駛能力
    繼在長沙首屆Apollo生態大會上首次面世後,目前,Apollo 5.5原始碼已在GitHub上正式發布,可以幫助開發者實現點到點城市自動駕駛技術能力。在Apollo 5.5的點到點城市自動駕駛能力中,新的前沿技術挑戰和新突破主要體現在複雜的道路、複雜的交通參與者、複雜的駕駛行為、良好的乘車體驗等方面,實現包括窄道併線、借道錯車、無紅綠燈管控路口、緊急停車等多種複雜城市路況自動駕駛。在Apollo 5.5中,11個模塊實現重點更新升級。
  • Apollo 安裝全過程
    >實現原理上圖簡要描述了Apollo客戶端的實現原理:客戶端和服務端保持了一個長連接-github.zip1、apollo-config主機:10.2.42.27創建apollo用戶:groupadd apollo && useradd -g apollo apollo配置configserver:cd /home/apollo/mkdir