對於自動駕駛的視覺系統而言,「看」到路人是一個基礎工作,更重要的是,能否能像人類一樣,判斷出路人下一個動作將是什麼。來自密西根大學的團隊,便研究了一種改進算法,讓自動駕駛視覺系統能夠對路人的行為進行預測。
視覺系統,不僅是用來看的,還能預測「未來」!
密西根大學(University of Michigan)向來以自動駕駛汽車技術聞名,最近,他們又有了大動作——研究一種改進的算法,來預測路上行人的動作。
這種算法不僅考慮了行人在做什麼,還考慮了他們是如何做的。這種肢體語言對於預測一個人接下來要做什麼是至關重要的。
密西根大學團隊將研究成果發布在了Arxiv及IEEE中,有興趣的讀者可以訪問上方或者文末連結進行詳讀。
本文提出了一種基於生物力學的遞歸神經網絡(Bio-LSTM),該網絡可以在全局坐標系下預測行人的位置和三維關節體位姿,該網絡能夠同時預測多個行人的姿態和全局位置,以及距離攝像機45米以內的行人(城市交叉口規模)。
「看」到更細節的動作,預測路人行動
關注路上行人並預測他們將要做什麼是任何自動駕駛視覺系統的重要組成部分。
讓自動駕駛車輛理解路上行人的存在,並分析一些細節信息,會對車輛一下步如何操作產生巨大的影響。
有些公司宣稱其自動駕駛車輛的視覺系統,在這樣或那樣的範圍/條件下可以看到並標記「人」,但目前很少人提出,可以看到並標記像「手勢」或「姿勢」這樣更為細節的部分。
這種視覺算法可以(儘管現在不太可能)像識別一個人並觀察他在幾幀內移動了多少像素那樣簡單,然後從那個節點進行推斷。但人類的運動自然要比這複雜得多。
UM的新系統使用雷射雷達和立體攝像機系統,不僅可以估計一個人的軌跡,還可以估計他們的姿勢和步態:
例如,路人將頭轉向他們肩膀方向時,他們可能接下來會轉身,或者只是看了一眼肩膀然後繼續向前走;路人伸出手臂,他們可能在向某人(或車輛)發出停車信號。
這些額外的數據將有助於視覺系統對動作的預測,使得導航規劃和防止意外事件更加完備。
更重要的是,它只需要幾個框架就可以很好地完成工作——可能只需要包括單步和手臂的擺動。
這就足以做出一個輕鬆擊敗簡單模型的預測,這是一種關鍵的性能衡量指標。
來源:新智元
本文地址:https://www.d1ev.com/news/jishu/87147
返回第一電動網首頁 >
以上內容轉載自新智元,目的在於傳播更多信息,如有侵僅請聯繫admin#d1ev.com(#替換成@)刪除,轉載內容並不代表第一電動網(www.d1ev.com)立場。
文中圖片源自網際網路,如有侵權請聯繫admin#d1ev.com(#替換成@)刪除。