大數據文摘出品
作者:寧靜、曹培信
7月4日舉辦的百度開發者大會上,李彥宏宣布百度L4級自動駕駛路測裡程破兩百萬公裡,百度的level4自動駕駛已經發展到了一個新的階段。
自動駕駛依賴高度精確的目標檢測能力,以應對路上可能出現的各種情況,而想訓練一個完善的目標檢測模型,則需要大量的車載傳感器提供的數據。所以說百度在自動駕駛方面取得的成就,基礎就是那兩百萬公裡的路測數據。
許多想嘗試做目標識別的機構或者個人,都苦於無法獲取足夠的數據而無法進行相關研究。
最近,Lyft公司專注於自動駕駛的Lyft level5團隊公開了一組他們採集的數據集,並且預計在12月舉辦一次基於該數據集的比賽,數據集一共將近60G,註冊一個帳戶即可下載。
數據來之不易
該數據集包括高質量的語義圖, 語義圖提供關於場景中車輛位置和移動方向的上下文推理,所有地圖元素都映射到基礎幾何圖,是數據集中所有場景的相同參照系。
提供的地圖有超過4000個車道段(2000個路段車道和約2000個車道),197個人行橫道,60個停車標誌,54個停車區,8X減速帶,11X減速帶。
所有數據均採集於福特Fusion車隊, 每輛車都配有以下傳感器:
雷射雷達:
一個安裝在車頂的40束雷射雷達和兩個安裝在保險槓的40束雷射雷達;每個雷達的方位角解析度為0.2度;所有三個雷射雷達共同產生約216,000個點,頻率為10赫茲;所有雷達的發射方向在任何給定時間都是相同的。
攝像頭:
六個寬視角(WFOV)攝像機均勻覆蓋360度視角(FOV), 每臺相機的解析度為1224x1024,FOV為70°x60°;一個長焦距攝像頭略微向上安裝,主要用於檢測交通信號燈,相機的解析度為2048x864,FOV為35°x15°;每個攝像機與雷達同步,使得當攝像機捕獲圖像時,雷達光束位於攝像機視野的中心。
數據格式
選用nuScenes format用於數據集,以確保與使用nuScenes數據集完成的現有工作兼容。
關於nuScenes format連結:
https://www.nuscenes.org/data-format
為了探索和使用數據集,下面提供nuScenes devkit的自定義版本以及如何使用它的教程:
通過下方連結登陸和下載數據集; https://level5.lyft.com/register/
下載Lyft版本的NuScenes SDK;按照README.md設置SDK並開始處理數據。
關於lyft level5
Lyft level5是Lyft公司下專注於開發自動駕駛的團隊,他們目前正在開發Level 4自動駕駛技術,目標是實現完全自主的自動駕駛技術。
他們通過Lyft公司駕駛服務的便利,每周可獲得1000萬輛次的駕駛數據用於模型訓練,同時還探索人類司機和自動駕駛共存的路面網絡架構。
Lyft level5團隊包括300多名工程師、應用研究人員、產品經理、運營經理等。其中不乏是世界上頂級的計算機視覺、機器人技術和機器學習專家,還有一些是參加過Kaggle的頂尖大師。
相關報導:
https://level5.lyft.com/dataset/