自動駕駛技術終迎重大突破,眼擎科技讓汽車具有PK人眼的視覺能力

2020-11-28 鎂客網

自動駕駛汽車產業的三座大山:算法、量產能力、關鍵技術。

1769年,當法國人N·J·居紐製作第一蒸汽驅動三輪汽車「卡布奧雷」時,他可能做夢也想不到,僅僅兩百多年後,汽車完成了從化石能源到電動能源,從機械時代到自動駕駛時代兩個維度上的時代跨越。

在中國,自動駕駛則是一派彎道超車的熱鬧景象,4月11日,三部委聯合印發了《智能網聯汽車道路測試管理規範(試行)》,標誌著自動駕駛一些行為今後有法可依,接著,阿里宣布了「蓄謀已久」自動駕駛進展,上來就是L4級以上的水平,自此BAT在自動駕駛領域已經悉數入局,更勿論國內數十家自動駕駛領域的創業公司風頭正勁,且看近期國內自動駕駛領域在立法、企業、資金、人才等方面相繼傳來的好消息,更不用提中國是全球最大的汽車市場,這些優勢為自動駕駛行業創造出了得天獨厚的發展環境,足以令其站在全球一線笑看雲捲雲舒。

問題如影隨行,是陣痛?還是技術天花板

視線轉到大洋彼岸,作為行業領頭羊的美國卻傳來了讓人高興不起來的消息,3月19日,Uber無人駕駛車在夜間行駛測試時撞死一位行人,成為有史以來最嚴重的交通事故,為自動駕駛前景蒙上一層寒霜。

雖然事故的原因目前依然眾說紛紜,但從公布的資料來看,問題還是聚焦在夜間行駛這個場景上,有美國的網友看過視頻後表示,在光線昏暗的情況下,攝像頭拍攝的圖像非常昏暗,不可能看到行人。國內專注做視覺成像晶片的眼擎科技CEO朱繼志,朱繼志則認為:」具體情況還不明了,但現場環境來看,不會那麼黑,因為傳統攝像頭比人眼能力差幾十倍,所以如果人來看的話,應該是可以看到行人。但對於汽車來說,第一、行人離車距離太近,車速過快,雷射雷達未必反應的過來。第二、當時行人是從暗部走向亮部,因為路燈的原因,光線明暗反差太大。在暗部的時候,汽車沒有監測到,等行人走到亮部的時候,距離太近已經太遲了。夜間道路光線環境太複雜,汽車攝像頭的動態範圍需要提升30倍以上,自動駕駛汽車才有上路的可能。

「然而,讓人驚訝的是,攝像頭能力並沒有我們想像中的那樣火眼金睛,傳統攝像頭廣受光照條件影響,在強光、弱光、逆光、反光等情況下,普遍無法保持正常工作,自動駕駛正常行駛的本質,打個比喻來形容,攝像頭就是眼睛,而雷射雷達是手,如果看不清楚只靠摸的話,終歸不是長久之計。

「過去三十年,以ISP為代表的傳統成像架構一直統治著成像能力的表現,即使現在AI發展了,發現傳統攝像頭能力不夠,效果也不可能有很大的提升,原因很簡單,三十年前的技術架構,人家不可能考慮未來人工智慧有什麼需求,以前圖像只考慮給人看,現在的圖像是給機器看,但傳統架構成形多年,積重難返。這就是技術架構的弊端,久而久之,大家沒看到視覺能夠突破,就形成了一種潛移默化,普遍認為視覺能力就是不可能有突破,這也是雷射雷達日後被叫好的一個原因,其實本質上,我們應該回到問題的源頭,視覺能力不夠,就研發新的成像引擎架構,做視覺成像專用的晶片,來提升汽車的視覺能力,這件事不好幹,我們為此專注做了4年,就是眼擎科技目前做的事情。」朱繼志的介紹中,大體解釋了自動駕駛視覺領域技術存在天花板的成因,也基本明白了為什麼大家都不願意去做,原創技術沒有經驗、耗時費力,「聰明人」都覺得不划算。

而當前最受車企青睞的雷射雷達,除了成本高、解析度低外,更無法獲取物體對象的顏色信息,更不善於實時地分辨物體。

一時之間,陷入僵局。

自動駕駛汽車產業的三座大山:算法、量產能力、關鍵技術

通過跟行業裡很多朋友溝通,記者了解到,汽車屬於長周期,重研發產業,雖然自動駕駛當前很多創新,標準未必都像傳統汽車業那樣嚴苛,但是也要比消費電子要求高几個甚至十幾個量級。

自動駕駛車企想要發展,必須要考慮三個問題:

第一就是自動駕駛算法層面的設計和優化,目前大部分廠商考慮接入百度Apollo,一部分則考慮自建團隊自力更生,這是人才和技術的「軍備競賽」,而這點網際網路公司和新興創業公司具有優勢。

第二是量產能力,近期特斯拉頻頻被行業人士抨擊,就是因為特斯拉汽車產能不足,前段時間威馬創始人沈暉接受採訪時也表示:「造車新勢力的窗口期只有三年,年銷量10萬量才能活下來,而期待靠其他車場代工解決量產能力,是一個美好的願望。」印證了汽車整體量產能力不亞於生死線,這點傳統車企有優勢。

第三則是「隱形實力」關鍵技術的儲備,不管是算法層面、數據層面、還是硬體技術層面的關鍵節點,都會成為持有者看不見的殺手鐧,其實這三座大山哪一座有突破,都有很大的機會。

專注成像引擎關鍵技術,為自動駕駛打造火眼金睛

眼擎科技是專注成像引擎技術的公司,今年1月份發布了全球首款成像專用晶片。之後公司一直保持低調,直到近期筆者聯繫時才知道眼擎科技要針對自動駕駛「發大招」,經過過去一年與汽車合作夥伴的深度調研和聯合研發,眼擎科技耗時6個月,準備推出一套專門為自動駕駛設計的成像解決方案,該方案使自動駕駛視覺能力提升到史無前例的120dB(達到超越人眼的視覺能力),並且整套系統符合車規標準,出色適應地庫、夜間道路、隧道等各種複雜光線環境,給算法端輸出高信噪比的視覺圖像。這家潛心4年專注於AI視覺成像引擎技術突破的公司,又用了近10個月專項研發自動駕駛視覺成像解決方案,這在業內實屬少見,我們期待眼擎科技能夠為自動駕駛行業帶來驚喜。

最後,記得關注微信公眾號:鎂客網(im2maker),更多乾貨在等你!

相關焦點

  • 直播課報名|眼擎科技CEO朱繼志:自動駕駛視覺成像系統解析
    在自動駕駛與輔助駕駛中,目標識別是核心任務之一,而現實中複雜的光線、路況等對自動駕駛的成像系統提出了很大的挑戰。這些視覺複雜光線產生的原因是什麼?會對成像系統產生怎樣的幹擾?該如何解決AI視覺在複雜光線下成像準確率低的問題?
  • 自動駕駛的視覺密碼丨科技說
    從工作原理來看,這項技術可以簡單理解成為汽車裝上眼睛,因此Shashua將其稱為「EyeQ」。誰也沒想到,20年之後的現在,Shashua和他的Mobileye將「EyeQ」一詞成功由醫學領域泛化至汽車領域。人們發現,這個原本用于衡量人眼+大腦視知覺能力、形象記憶能力以及閱讀能力的名詞,幾乎可以與攝像頭+計算晶片疊加而來的視覺感知能力無縫連結。
  • 受昆蟲眼啟發研人造複眼 提高自動駕駛汽車視覺能力
    (原標題:西安交通大學受昆蟲眼睛啟發研人造複眼 提高自動駕駛汽車視覺能力)
  • 眼擎科技eyemore相機領銜十大日常仿生技術
    人們研究生物體結構與功能的工作原理,並根據這些原理髮明出新的設備和工具,創造出適用於生產,學習和生活的先進技術。今天為大家帶來目前科技界十大日常仿生技術。 防菌圖層仿生對象:鯊魚用途:醫院及實驗室眼擎科技模仿對象:眼球用途:可視化設備
  • 視覺感知堪比人眼:這款突破性光學傳感器模仿人類視網膜,有望帶來...
    視覺、聽覺、嗅覺、味覺、觸覺是人類最基本的五種感覺,其中視覺極為關鍵,畢竟隨著物種進化,眼睛作為人類最為精細、複雜的器官,感知能力無與倫比。曾有神經科學、認知心理學研究表明,80% 以上的外界信息都是通過視覺進入了我們的大腦。技術代代革新之下,仿人眼的嘗試不斷湧現。
  • 計算機視覺下一個技術拐點?前端成像或將開啟「視覺2.0時代」
    在日前剛結束的2018 AWE現場,身為眼擎科技CEO的朱繼志,滿懷激動的下了這麼一個結論。首先是陣列計算相機技術,原理有點類似於蜻蜓、蒼蠅等多目昆蟲的複眼,通過數個、數十個甚至上百個相機組成的陣列,拍攝出擁有億級以上像素的動態圖像,為AI機器提供視覺支持。目前,這一技術尚在研發階段,受限於體積和供應鏈的制約,其產品也還處在落地的早期階段。第三種方案,即是眼擎科技所做的,AI視覺前端成像引擎晶片eyemore X42。
  • Uber自動駕駛撞人原因解析:一場原本可避免的災難
    地平線機器人創始人餘凱在接受媒體訪談時,分析猜測認為造成有可能是這輛自動駕駛汽車的預測判斷做的不好,出現了問題,沒能準確預判出障礙物的走向。  眼擎科技創始人朱繼志在其微博中表達了不同的看法。他認為,問題在於攝像頭,人從暗部走向亮部,因為路燈的原因,光線明暗反差太大。在暗部的時候,汽車沒有監測到,等行人走到亮部的時候,汽車雖然監測到,但已經太遲了。
  • 新型光學傳感器模仿人眼感知更逼真
    據《應用物理快報》近日報導,美國俄勒岡州立大學在新型光學傳感器研發上取得重大進展。他們開發出一種新型光學傳感器,可更逼真地模仿人眼感知物體變化的能力。這一成果有望帶來圖像識別、機器人技術和人工智慧等領域的重大突破。
  • 臥薪嘗膽四年 這家公司為AI機器打造超級視覺
    但圖像質量恰恰是其中的一個痛點——現有的攝像頭對光線環境的適應力太差,遠不如人眼,輸出的低質量圖像數據嚴重製約了AI算法的能力發揮。但在四年之前,就有一家公司成立,力圖解決這個問題。日前,智東西造訪眼擎科技,與GTIC 2018重磅嘉賓——眼擎科技創始人兼CEO朱繼志進行深度對話,了解了這家公司4年來在技術上的修行,以及其成像引擎將對AI應用所起到的價值。
  • 西安交通大學受昆蟲眼睛啟發研人造複眼 提高自動駕駛汽車視覺能力
    受昆蟲眼睛啟發,研究人員研發出人造複眼,旨在提升自動駕駛汽車的視覺能力,以及幫助推動機器人技術發展。 據外媒報導,受昆蟲眼睛啟發,研究人員研發出人造複眼,旨在提升自動駕駛汽車的視覺能力,以及幫助推動機器人技術發展。
  • 雷射雷達vs純計算機視覺 自動駕駛的兩大流派
    雷射雷達流派和純計算機視覺流派一直在自動駕駛技術中的感知層解決方案上喋喋不休。雷射雷達派認為純視覺算法在數據形式和精度上的不足;純視覺流派則認為雷射雷達不必要且過於昂貴。本文將對雷射雷達、攝像頭以及毫米波雷達等主流傳感器、各自動駕駛公司的解決方案以及傳感器市場格局作介紹。
  • 自動駕駛的未來,是雷射雷達還是視覺識別?
    除此之外,調查顯示特斯拉Model 3的視覺算法訓練數據存在局限性。 一般自動駕駛的視覺訓練邏輯只能識別到車輛後部、側面 和 頭部,顯然特斯拉的工程師沒有想到有一天系統需要識別貨車車箱的頂部。
  • 信息技術:中國自動駕駛產業發展動態|汽車|大數據|自動駕駛|智能網...
    2019年,隨著自動駕駛汽車特殊場景逐漸落地,相關標準的制定成為當前的迫切需求。自動駕駛汽車突破了原有汽車邊界,「人—車—路—網—雲」形成新的產業集群,新產業的湧入給自動駕駛汽車標準帶來了挑戰。2016年,工信部、國標委、交通部共同制定了智能網聯汽車標準體系,擬定到2020年,初步建立輔助駕駛及低級別自動駕駛的智能網聯汽車標準體系。
  • 中國科學家研發人造複眼可助力自動駕駛
    為了讓人們早日用上自動駕駛汽車日前,中國的科學家受到昆蟲眼睛的啟發,成功研發出低成本人造複眼,旨在提升自動駕駛汽車的視覺能力,並幫助推動機器人技術發展。眾所周知,自動駕駛汽車要想順利上路,離不開各種傳感器,尤其是視覺感知的高性能機器的輔助。如果能夠把人眼複製到汽車上,當然最完美不過。但是,要想複製人類視覺,目前還需要很長時間。科學家於是從昆蟲的複眼開始進行探索。
  • 理工睿行:專業毫米波雷達為無人駕駛汽車提供「智慧之眼」
    無人駕駛汽車已成為在汽車和科技領域非常熱門的話題。2019年底,一場由北京理工大學主辦的「智能傳感器及無人系統應用」 科技論壇再一次把相關領域的專家、學者、企業家們匯聚在一起,共同探討智能傳感器和智能無人平臺系統的研究發展狀況。論壇吸引了國家國防科技工業局、北京市科委、北京市新能源汽車促進中心等政府相關部門和國內多個行業領先的高校及企業參與,是一場高規格、高水準的學術討論,對於我國進一步發展無人駕駛汽車相關的產業具有相當深遠的影響。
  • 三星宣布將推出6億像素圖像傳感器:突破人眼極限
    【來源:快科技】藉助三星的ISOCELL HM1/HMX傳感器,部分手機已經率先搭載1億800萬像素攝像頭,給拍照/攝影帶來新的可能。此前有消息稱三星正在研發1億500萬像素Nonacell圖像傳感器,不過,三星LSI執行副總裁Yongin Park在官網刊登的最新文章中介紹,他們準備研製6億像素(600MP)傳感器產品,直接突破人眼極限(約5億像素)。類似於當前108MP傳感器的九合一技術,在600MP的尺度,三星也必然要藉助多像素合成技術來模擬大底,改善成片質量等,這可能需要新的材料等技術引入。
  • 仿照人眼機制等效20萬幀率,NTU終身教授要從源頭挑戰機器視覺
    有沒有可能從底層原理上顛覆這套技術方案,讓機器像人眼一樣在前端就直接到更有效、更簡潔的數據?」   採訪之初,芯侖 CEO 姚楷祥便拋出了一連串疑問和思考,他和陳守順試圖挖掘出更底層的方案來解決目前人工智慧應用過程中面臨的算力不足問題,尤其在機器視覺領域。
  • 小鵬汽車吳新宙:P7視角下的高級別自動駕駛背後的視覺感知技術
    本文為小鵬汽車自動駕駛副總裁吳新宙來稿,以小鵬P7視角從L2級感知需求、高級別感知需求、自動駕駛研發架構等方面,解讀了小鵬汽車自動駕駛背後的視覺感知技術。隨著 P7 的推出,我們的主要自動駕駛功能會在下半年通過 OTA 逐步向用戶釋放。作為小鵬自動駕駛的 「掌門人」,我也想在接下來的幾個月中逐步的向大家深度解析一下我們自動駕駛的核心能力,讓鵬友們在使用小鵬自動駕駛功能的同時,能夠了解一些 under the hood 的核心算法,同時也能對我們未來功能的演進和規劃有一個了解和期待。
  • 基於機器視覺的汽車智能駕駛系統
    此外一些工程車輛在作業時環境惡劣、勞動強度大,這些車輛的駕駛自動化是非常有必要的。為了使汽車駕駛操作簡單、安全、舒適,把人從繁重枯燥的汽車駕駛中解脫出來,當今世界各國都在積極研究開發自動駕駛技術。  德國、美國和日本等國在汽車自動駕駛領域開展了積極的研究並取得了很大的成績。
  • 未來自動駕駛的「眼睛」——InGaAs單光子探測陣列
    自動駕駛發展如火如荼,被認為是改變未來人類生活方式的重要技術之一。自動駕駛存在純計算機視覺和雷射雷達兩種不同方案。視覺方案以攝像頭為主導感知外界,以智能圖形識別作為控制的基礎;雷射雷達方案則以雷射發射和回波光探測為主導,以外界物體的距離和速度圖像作為判斷和控制的依據。