波士頓動力每出一款機器人你就說它要統治人類?還早著呢!

2020-12-06 雷鋒網

雷鋒網按:本文作者qqfly,上海交通大學機器人所博士生,本科畢業於清華大學機械工程系,主要研究方向機器視覺與運動規劃,會寫一些好玩的內容在微信公眾號:Nao(ID:qRobotics)。本文由雷鋒網(公眾號:雷鋒網)獨家首發。

相信前兩天大家的朋友圈都被 Boston Dynamics 的 Handle 機器人刷屏了:

估計這一幕會讓不少讀者回憶起被『終結者』所支配的恐懼:

↑ 圖片出自科幻電影《終結者》

然而,作為一個正奮鬥在機器人研究第一線的博士生,我可以負責任地告訴你:完全不用擔心!

與一般的技術不同,機器人涵蓋的技術領域更廣,波士頓動力只是在控制方面做出了逆天成績。現在的機器人領域還有很多技術問題沒有解決,所以我們暫時不可能造出科幻電影中的那種通用機器人。

下面,我就從機器人研究的幾個方面來說明為什麼我們不需要擔心機器人取代人類的事情發生。

(以下非本人熟悉領域的內容均為道聽途說,如有誤,歡迎在評論區指出)

一、硬體、機構:

感謝機械前輩們幾百年的積累,目前在硬體設計方面,實際機器人已經很不錯了。下面是幾個比較著名的真實機器人:

 ↑ (左)波士頓動力的Atlas,(中)日本產綜研的HPR-4C,(右)日本東京大學的Kenshiro

不論是外貌、自由度配置、驅動方式,實際的機器人均有了很不錯的成績。

但是,在能源方面,我們離實用化還有一段很大距離。現在的移動機器人基本上都需要攜帶一個巨大的電池,續航能力也不行。以這次的Handle為例,它的電池約為3.7KWh,充滿電能行駛約24km,所以這方面只能寄希望於新一代電池技術的發明了。

↑ 這次 Boston Dynamics 的 Handle 就背著巨大的電池

二、感知:

這個包括兩個部分:

傳感器:機器人需要能夠感知周圍環境和自身狀態,因此需要安裝不同的傳感器。為了對比,我們看看人體的幾個主要傳感器:聽覺傳感器(耳朵);視覺傳感器(眼睛);力矩傳感器;皮膚觸覺傳感器(可以感受到別人觸碰到自己)等。

首先是聽覺傳感器,這個似乎沒有什麼特殊的,現在的機器人都可以配備,普通麥克風即可。

其次,是視覺傳感器,現在機器人的視覺傳感器應該比人眼更高級:高精度相機、紅外相機、深度相機、雷射雷達等等。沒辦法,算法不夠,傳感器來湊嘛。

之後,是力矩傳感器,主要用於檢測關節力矩。有了精確的關節力矩才有可能部署一些控制算法、估計環境狀態。當然,現在這樣的傳感器也已經有了,但就是貴。

最後,也是唯一與人類有較大差距的地方,是皮膚觸覺傳感器:這個基本上還有很多路要走,不信的話看看下圖吧。這是去年RA-Letter上發表的一篇論文的工作: A Conformable Force/Tactile Skin for Physical Human-Robot Interaction。

信號處理算法:當然,這裡的信號處理是廣義的信號處理,包括普通的濾波、傅立葉變換等,也包括物體識別、語音識別等人工智慧算法。這個話題就太大了,而且實際機器人在這方面的研究距離實用的也還比較遠,我簡單列幾個:

物體識別/語音識別:當然,隨著近幾年深度學習的發展,我們在物體識別和語音處理方面的造詣已經非常厲害了,但是在實際機器人上部署的算法也還比較簡單(實際機器人不僅要識別物體、還要定位物體)。


↑ 這是 Boston Dynamics 之前發布的 atlas,依舊是採用二維碼進行識別

語義理解:前面的語音識別是指根據聲音識別出文字,這裡則是理解識別的文字內容。我們現在研究的最高水平,可以參考微軟小冰聊天機器人,基本還是比較笨的。PS:不要跟我說什麼機器人『嬌嬌』,那是後面有個人在遙控。

環境理解/地圖創建:這個簡單地說,就是機器人對環境建模的能力,包括地圖創建等。現在的機器人在這一塊還是比較弱的,即使配備了雷射傳感器等額外的設備(人僅靠兩隻眼睛),也只能在一些特定條件下完成地圖創建,而基於地圖的環境理解也只能算剛起步不久,如下面這個語義地圖。

↑ 真正的通用機器人不僅需要能『看到』環境,還應該能『理解』環境

當然,我覺得之後隨著深度學習技術在地圖創建等領域的應用,(考慮到深度學習對環境理解的能力),這個領域估計有可能在十年內出現可實用的技術。

三、規劃:

規劃是指根據任務和機器人當前狀態,計算出完成這個任務的方法。包括且不限於:

Boston Dynamics 的研究重點一直都是放在控制上,在規劃等領域並無成果(至少從他們放出的視頻中看不出有這方面研究)。

任務規劃:舉個例子,我們想讓機器人送瓶雪碧,那麼機器人會將這個大任務分解成幾個子任務(運動到冰箱前-->打開冰箱-->找到雪碧-->拿出雪碧-->關上冰箱-->送到人面前),當然,可以有更複雜的任務。目前,一般是採用MDP或POMDP模型來描述問題,然後用各種規划算法求解。總體上說,現在的任務規劃強烈依賴於任務描述方式(人工指定),而且在應對大規模、不完全可觀等複雜問題時,還沒有可靠的方法。

運動規劃:舉個例子,機器人面前有一杯水,讓機器人將手運動到杯子面前,同時不能碰到桌子等障礙物。這就是運動規劃,根據目標狀態點,生成一系列關節運動狀態。是的,現在就連讓機器人拿起面前的杯子這樣的問題也還沒有完全解決。簡而言之,我們一般是採用基於隨機採樣的算法進行運動規劃的。隨機採樣的意思就是:每次規劃的結果可能不同,更無法保證規劃出的路徑是最優的。因為自己就做這一塊,所以深知其中的坑。就我個人感覺,要解決運動規劃問題,需要一個方法論上的創新,拋棄現在這套方法(因為人肯定不是這樣規劃的啊)。

路徑規劃:其實跟運動規劃是一個問題,但由於路徑規劃一般是在地面上,問題維度低,可以採用一些奇奇怪怪的規劃方法(Dijkstra,A*等)。由於問題畢竟簡單,這塊的發展也比較好,例如各種掃地機器人就已經可以在室內環境中到處跑了。

↑ 小米的掃地機器人已能利用二維地圖進行路徑規劃

當然,這一塊需要解決的問題可能是:①動態環境;②擁擠環境;③複雜地形;④地圖不全的環境等。但是估計未來15年左右可以徹底解決,所以到那時候,無人駕駛車應該已經可以到處跑了。

四、控制:

控制就是具體執行規劃結果的過程了,從底層的電機控制到上層的機器人全身控制都屬於這個範疇。

機械臂控制:下圖是大約十年前 Sami Haddadin 做的機械臂碰撞檢測的demo,基本上已經非常厲害了。而且,由於機械臂控制屬於機器人自身動力學問題,所以目前看來,這一領域可以說已經是完全攻克了。

機械手操作:機械手的抓取操作問題就沒這麼簡單了,因為其中涉及實際物理環境的建模問題(摩擦力、形狀等),由於模型不精確,所以完全基於模型的方法很難解決這一問題。目前實際應用基本還是採用平行夾持器的方式。只有不少研究機構在進行靈巧手抓取方面的研究。

足式機器人控制:這是更難的地方了,因為機械臂和機械手都至少有個相對固定的基座。足式機器人的base是會隨著接觸而發生變化的。所以,我一直覺得能做足式機器人控制的人都是很厲害的人。

↑ Boston Dynamics 的各種足式機器人

再加上這次的 Handle 機器人,可以說,Boston Dynamics 以一己之力,將人類的足式機器人控制水平拉高了一個層次。

四、學習:

這個屬於另外一大塊內容,由於可以應用到其他領域(控制、規劃、感知等),所以有時候不能單獨列為一類。

機器學習分為監督學習、無監督學習和強化學習三類。目前,深度學習主要在監督學習方面得到了很好的應用;此外,對於強化學習,也逐漸以Deep Q Learning等形式出現;但無監督學習才是機器學習中的最高挑戰。

我們人類能夠舉一反三(超強的監督學習能力);能夠熟能生巧(超強的強化學習能力);能夠發明新事物(超強的無監督學習能力)。

當然,機器學習的坑還有很多。因為,正是不斷學習讓我們能夠面對不斷變化的環境。這方面可挖的東西太多了。

五、交互:

這個就是機器人與人交互的問題。包括識別人、與人交流、與人協作。在這個角度看,我們現在的機器人還很不盡如人意:

識別人:雖然人體識別在機器視覺中已經有了很多成果,但是在人機互動過程中,機器人不僅要識別到人的存在,還應該要能判斷人的動作、意圖,並作出相應反饋。

與人交流:這方面,我們現在的聊天機器人雖然也已經做得不錯了,但離通過『圖靈測試』還很遠,隨便一個普通人都能輕易判斷出對面是一個機器人。

與人協作:這個就不說了,我們真實的機器人還只能這樣:

六、容錯性:

這個就是說機器人的軟硬體發生故障後,依舊可以自適應地完成部分工作。

人類就不說了,有太多『身殘志堅』的例子了:

↑四川90後「無臂男孩」用腳趾夾筆答題 勇戰高考追逐大學夢

我們的機器人最強只能這樣:

這是2014年發表在Nature的成果,只是簡單的機構損壞、核心部件完好的情況下可以繼續完成簡單任務。

總結

綜上,要想做出能夠取代人類的通用機器人,我們還有非常非常非常遠的路要走。

當然,要想在十年內做出這樣的機器人也不是不可能,例如忽然來了一群奇怪的人說:『我看你骨骼驚奇,你跟我學做機器人吧!』


↑ 圖片出自科幻電影《降臨》

雷鋒網特約稿件,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 怕機器人統治人類?先讓機器人公司活下去吧
    前腳剛慶祝完得獎,後腳(4 月 29 日)就跟公司的員工說,自己活不下去了,要破產了……Anki 公司由卡耐基梅隆大學的博士們在 2010 年成立,早期推出過一款叫 Anki Drive 的汽車玩具,被蘋果 CEO 庫克稱為是「打造了一種全方位的玩具新體驗」而真正讓 Anki 大火的是他們在
  • 波士頓動力機器人組團跳舞 鬼步舞、芭蕾舞均得心應手
    波士頓動力機器人組團跳舞 鬼步舞、芭蕾舞均得心應手時間:2020-12-31 12:49   來源:今日頭條   責任編輯:毛青青 川北在線核心提示:原標題:波士頓動力機器人組團跳舞 鬼步舞、芭蕾舞均得心應手 新年馬上就要,易主後的明星機器人公司波士頓動力,帶著自家的三個明星單品,以一首《Do you love me》全新登場
  • 波士頓動力的困境,給優必選、高新興機器人上了什麼課?
    文 | 智能相對論,作者 | 離離前不久,一段機器人跳舞的視頻刷爆網絡:畫面中隨著音樂歡快舞動的,是波士頓動力公司(Boston Dynamics)的得意之作:雙足機器人Atlas、四足機器狗Spot Mini以及雙輪搬運機器人Handle。它們皆具備出色的平衡感與靈活的機動力 ,可說是集移動智慧機器人的最前沿技術於一身。
  • 未來機器人會統治人類嗎?
    但是機器不可能統治世界的 因為機器永遠是機器 沒有基因的個體是無法產生變異的 無法變異的東西就無法進化 無法進化表示違背了自然規律 這樣的東西只能滅絕 想想如果機器不為人所用 那麼就沒有存在的價值 所以如果沒有人類 機器就沒有存在的價值,你說他們活著為啥啊 他們不需要吃飯 不懂得享受 沒有任何情感 無須得到任何滿足,工作是需要動力的 沒有動力的機器就一廢鐵。
  • 波士頓動力的明星機器人:刷爆網絡的它們靠什麼圈粉
    憑藉它們超高的關注度,這些可能是第一批可以稱之為「網絡明星」的機器人。正如美國科技媒體The Verge所說的,不是每家機器人公司都像波士頓動力那樣在網上擁有大批粉絲——當然,也不是每家機器人公司都能製造出波士頓動力那樣的機器人。
  • 波士頓動力的「狗」,哈佛大學的「蟑螂」,機器人和動物的愛恨情仇
    此消息一出,機器人行業各個媒體都在爭相轉載,儘管這個機器人目前僅在美國發售,但是大家也都迫不及待想一睹為快,看看這隻價格堪比一輛特斯拉Model S的「大狗」究竟有什麼本領。   波士頓動力發售的這個明星產品機器狗,官方名字叫做spot,但是四條腿的可愛造型,所以一直被戲稱為「大狗機器人」。
  • Google放棄波士頓動力背後:多足機器人的路為什麼越走越艱難?
    雖然對于波士頓動力的出售與收購原因都眾說紛紜,但是在這些原因裡面均透露出了一絲絲對多足機器人無奈的意味,而這絲無奈正如我在文章《Google為何要放棄逆天的Atlas機器人?波士頓動力與谷歌背後的故事》中最後提到的——「多足機器人的困境也許才剛剛開始」。
  • 波士頓動力成團出道:全員機器人合舞,齊跳「Do You Love Me?」
    隨著更多機器人的出現,事情變得更加令人難以置信,以一種協調一致的舞蹈例行程序來回舞動。與2016年Atlas迭代的運動相比,新視頻看起來波士頓的功力又深厚了許多。1十年遛「狗」路1992年從麻省理工學院分家後,波士頓動力公司花了超過十年的時間,才從實驗室研發出了第一臺智慧機器人。
  • 波士頓動力機器人震驚馬斯克:鬼步舞、太空步,機器舞神組團來襲
    這已經不是波士頓動力公司第一次展示其機器人的舞蹈技巧了,在2018年,還它展示了一段 Spot 機器人在Uptown Funk中表演太空步的視頻。但是新發布的視頻將事情帶到了另一個層次,人形機器人Atlas在舞池中表現出嫻熟的舞蹈動作: 奔跑、跳躍、拖曳和旋轉。隨著越來越多的機器人出動,跳著協調的舞蹈,讓糟糕的人類舞蹈相形見絀,事情變得更加不可思議。
  • 波士頓動力機器人組團跳舞,跟真人沒差別……
    當地時間12月29日,美國波士頓動力公司(Boston Dynamics)在官方帳號上發布了一段機器人跳舞的視頻。這已經不是波士頓動力公司第一次展示其機器人的舞蹈技巧了,在2018年,還它展示了一段 Spot 機器人在Uptown Funk中表演太空步的視頻。但是新發布的視頻將事情帶到了另一個層次,人形機器人Atlas在舞池中表現出嫻熟的舞蹈動作: 奔跑、跳躍、拖曳和旋轉。馬斯克也轉發了推特,估計就連天天做火星夢的他也沒想到,這個視頻並不是CGI。
  • 機器人遛機器狗:波士頓動力對手Agility Robotics獲得800萬美元
    【新智元導讀】本周,機器人創業公司Agility Robotics獲得800萬美元A輪融資,「安卓之父」Andy Rubin創建的風投公司領投。Agility Robotics推出的雙足機器人最近跟波士頓動力的Spot來了一次親密接觸,將來,機器人遛機器狗可能真的要實現了。
  • 波士頓動力副總裁:機器人一天就學會了芭蕾舞,尚未使用機器學習
    在這段視頻的背後,還隱藏著哪些技術細節?最近IEEE Spectrum採訪到了波士頓動力工程副總裁、Atlas雙足機器人團隊負責人Aaron Saunders。  因此,它不是手動編寫的,而是有一個可以可以讓你設計各種動作的pipeline,你可以通過各種不同的輸入來描述,並把它們推送到機器人身上。  如何遷移人類動作  有沒有一些動作,特別難從人類遷移到Atlas機器人身上?還是Atlas可以做得比人類做得更好?
  • SpaceX星際飛船製造廠引入一臺波士頓動力四足機器人Spot
    【TechWeb】6月18日消息,據國外媒體報導,美國太空探索技術公司SpaceX位於博卡奇卡的星際飛船製造廠引入了一臺波士頓動力公司(Boston Dynamics)的四足機器人Spot。
  • 波士頓又出新搬磚機器人,讓工人惶恐不安,還好暫時無法量產
    喜歡科技的朋友,一定在朋友圈裡見過dynamic機器人,它們頂著機械的外表,很冷漠的遞給我們飲料瓶,等我們接過以後,卻發現它沒有撒手,帶著我們的飲料瓶要跑。你這樣大家看完不禁微微一笑,做這個的程式設計師很有冷幽默呀!
  • 【專利解密】波士頓動力 機器人自我回正方法
    集微網消息,2019年9月,波士頓動力發布了關於機器狗 Spot 的視頻,視頻中展示了機器狗在各種地形中的出色避障表現,並且不僅可以避開障礙物,而且還可以在極端的環境中保持平衡。
  • 波士頓動力機器人舞蹈大片火爆全球!工程 VP 揭秘:我們將經典和...
    點燃革命、顛覆現狀、重新定義舞蹈、表演或藝術是她們的理想,在此觀念的影響下,波士頓動力機器人的舞蹈動作才那麼獨特。當然,在一系列舞蹈動作背後,是更為複雜的技術原理,而這自然離不開波士頓動力的工程團隊。從起初的硬體工程副總裁一職,到隨後的工程副總裁一職,Aaron Saunders 在波士頓動力的工作年限已達到了 18 年,已然是一位元老級人物了。
  • 波士頓動力公司機器狗Spot首次上市,為什麼有錢也買不到?
    新聞:波士頓動力公司已經開始銷售他們的四足Spot機器人,但大部分消費者可能還買不到。該公司目前只打算將這款機器人賣給那些能夠將其投入實際使用的公司,並開發出可附在機器人背上的定製模塊,以幫助完成特定任務。
  • 波士頓動力命運顛簸,國內腳足機器人發展得怎麼樣了?
    對波士頓動力來說,2020 年最後一個月發生的事頗具戲劇性。12 月 29 日,波士頓動力發布了機器人跳舞視頻,其運動能力和穩定性讓業界和大眾驚嘆。在技術能力上,沒有人質疑波士頓動力的領先地位。而在 19 天前,據韓國經濟日報報導,波士頓動力的老東家軟銀以不到一萬億韓元(約 9.21 億美元),將其賣給了韓國現代集團。
  • 踹不倒、跑得快、大劈叉,波士頓機器人有多牛
    昨天聊了騰訊的四足機器人,今天來看看這個行業裡比較出色的美國波士頓四足機器人~Big Dog(大狗)「大狗」是波士頓動力公司在2005年推出來的一款四足機器人,是美國國防部為其軍隊開發的,後續幾次升級,使「大狗」做到了踹不倒、走得遠,最終應用在部隊裡,波士頓動力公司也因大狗而名聲大噪
  • 谷歌旗下這家公司製造了大量未來機器人,卻由於太超前,要被賣掉了!!
    差友們,能告訴小二今天真的是周一麼。。昨天小二還在工作,感覺自己過了個假周末。心疼自己一秒。話說,小二今天要介紹的東西,有點厲害了。差友們都應該聽說過下面這家公司吧?這個機器人聖殿曾研發出了眾多令人驚豔的機器人。。比如。。2013年,那個跑的比狗還快的機器人WildCat。