機器能思考嗎?
早在20世紀初,人類就開始想像機器像人類一樣思考的可能性。
如果說1900年出版的童話故事《綠野仙蹤》裡渴望有一顆心的鐵皮人還只是對這個話題的初步涉獵,那麼到了20世紀50年代,著名科幻小說作家艾薩克·阿西莫夫所創作的機器人系列科幻小說就已經鋪墊了史詩般的未來科幻世界架構,極大地豐富了機器人獨立思考能力的各種細節。阿西莫夫筆下的機器人,除了在能力上可以成為人類工作和日常生活的助手,它們隨著強大計算能力而衍生出的獨立思想也會帶來各種各樣的威脅。
在各種文學作品裡面我們看到的「思考的機器」,就是人工智慧的起源。
到了20世紀50年代,科學家和數學家們邁出了實現機器思考這個可能性的第一步。人工智慧(Articial Intelligencee,AI)這個概念被正式提出。英國科學家和數學家阿蘭·圖靈在1950年提出了這個問題:如果人類可以從已有信息進行推理和邏輯判斷來解決問題,那為什麼機器不可以這麼做呢?
「可以」,很多人都是這麼想的。
在之後的幾十年,發達國家的政府都在人工智慧上投入了大量的研究經費,還有世界頂尖的科學家耗費了巨大的心血和精力來證明「可以」這個答案。遺憾的是,這麼多的投入卻收效甚微。人工智慧技術儘管有所發展,但離實際的應用還是十分遙遠。
人工智慧是在進入21世紀後才得以繁盛發展起來的,這主要得益於機器學習方式,尤其是深度學習領域的突破、電腦硬體急速發展和信息爆發式增長,這三個條件缺一不可。機器學習(Machine Learning)的手段是讓電腦從大量的真實經驗、信息和案例中學習,然後會像人類一樣吃一塹長一智,在以後遇到同樣的問題時,電腦就有能力用學習到的經驗做出準確的判斷。網際網路的爆發讓大數據變成了可能,給機器學習提供了充足的原材料。同時,我們的電腦越來越強大,能夠存儲並處理這些龐大的數據。1970年,Intel 4004處理器每秒可以運行92,000條指令,而我們現在的普通手機能每秒處理10億條指令。
不斷湧現的成果向投資者和研究者證明了人工智慧是可以實現的,而且其應用能極大地提高商業利潤和社會生產力。人工智慧也在最近10年迎來了重要的發展,從實驗室研究全面走向商業應用,並且普及到我們日常生活中的很多細節:在購物網站可以看到根據個人瀏覽和購買記錄推薦的商品;智慧型手機的語音助手根據對話就能為人們提供天氣信息,找到最優的出行路線;我們的車可以實現「自動駕駛」。很多這些在10年前只存在於想像中的場景,現在都在人工智慧的推動下變成了人們生活中習以為常的事情。
2017年麥肯錫關於人工智慧的報告指出,人工智慧領域的投資仍在高速增長中,主要以Google(谷歌)和百度這樣的科技巨頭為主。全球範圍內,人工智慧領域2016年吸引的投資高達390億美元。其中科技巨頭佔了最大頭,投資預測在200億~300億美元,其中90%的投資是花費在研發上,而10%是用於人工智慧相關的收購。私募資金、風險投資和種子資金的增長也十分迅速,加起來雖然比不上大科技公司,但總體也達到相當龐大的60億~90億美元。機器學習作為人工智慧的主要技術手段,吸收了高達六成的投資份額[1] 。
除了企業和民間投資之外,各國政府也大力支持人工智慧的科研項目。美國政府2015年投資於人工智慧領域的研發高達10億美元。韓國政府宣布投資1萬億韓元(將近60億元人民幣)和其國內領先的聯合企業共同創建一個人工智慧研究中心。中國已將人工智慧列為重大科技項目[2] ,並於2017年建立了以百度為首的深度學習技術及應用國家工程實驗室。
人工智慧領域的相關技術在近五年頻繁入選《麻省理工科技評論》十大突破性技術。在2017年和2018年,全球十大突破性技術裡人工智慧領域連續兩年獨佔三項,可見人工智慧領域近幾年受到的關注之大。
人工智慧領域在過去10年來達到目前的發展高度,技術上最大的功臣無疑是深度學習(Deep Learning)。深度學習利用多層人工神經網絡,從極大的數據量中學習,對未來做出預測,讓機器變得更加聰明。
過去10年,深度學習是人工智慧領域裡絕對的王牌主力,被《麻省理工科技評論》評為十大突破性技術的其他重要人工智慧技術的發展都得益於深度學習的技術支持。深度學習的涵蓋範圍之大,對社會和科技發展的影響之深,使其無論是現在還是在未來10年都會是人工智慧領域裡最重要的課題之一。
除了深度學習之外,強化學習(Reinforcement Learning)也是近幾年來機器學習領域的熱門技術。強化學習能使計算機在沒有明確指導的情況下像人一樣自主學習。在達到足夠的學習量之後,強化學習的系統最後能夠預測正確的結果,從而做出正確的決定。強化學習和深度學習的整合,讓機器學習有了進一步的運用,衍生出深度強化學習(Deep Reinforcement Learning)。2016年,Google的圍棋軟體利用深度強化學習擊敗了世界圍棋冠軍,成為人工智慧的又一個裡程碑。雖然西洋棋、圍棋等腦力運動代表著人類智慧的堡壘,但是強化學習技術的「接地氣」的應用場景還不算多,目前也無法在產出的商業價值上與深度學習相媲美。這主要是受限於很多領域目前還無法提供強化學習系統訓練過程中所需的極大數據量。
無論是深度學習還是強化學習,在發展到一定程度之後都受到一個瓶頸的困擾:主要的機器學習手段還是來自蠻力計算,而且極其依賴大量的數據來訓練系統。Dueling Neural Networks,又稱為Generative Adversarial Networks(對抗性神經網絡,GAN),是近年來最有潛力解決這個困擾的重要機器學習模型,在2018年入選了十大突破性技術。GAN的原理是兩個人工智慧系統可以通過相互對抗來創造超級真實的原創圖像或聲音。GAN賦予了機器創造和想像的能力,也讓機器學習減少了對數據的依賴性,對於人工智慧是一大突破。
有了技術上的突破,人工智慧的商業應用也是全面開花。其中《麻省理工科技評論》認為最具突破性的應用,是利用人工智慧改進自動駕駛汽車的表現,如特斯拉自動駕駛儀(2016年)、自動駕駛貨車(2017年),還有圖像識別,如蘋果支付(2015年)、刷臉支付(2017年),以及語音識別,如巴別魚耳塞(2018年)。
深度學習,在某種意義上是「深層人工神經網絡」的重命名,從2006年開始在Geoffrey Hinton、Yann LeCun(楊立昆)、Yoshua Bengio、Andrew Ng(吳恩達)等教授以及學術界、工業界很多研究人員的推動下重新興起,並在語音(2010年)和圖像(2012年)識別領域取得了重大技術突破。
儘管在2013年才被列為全球十大突破性技術之一,但事實上,深度學習已經有幾十年的發展歷史了。
傳統機器學習系統主要是由一個輸入層和一個輸出層組成的淺層神經網。在神經網絡裡,程序繪製出一組虛擬神經元,然後給它們之間的連接分配隨機數值或稱「權重」,經由反覆的訓練來實現誤差最小化。但是早期的神經網絡只能模擬為數不多的神經元,所以不能識別太複雜的模式。
深度學習中的「深度」是一個術語,指的是一個神經網絡中的層的數量。顧名思義,深度學習網絡與更常見的單一隱藏層神經網絡的區別在於層數的深度,也就是數據在模式識別的多步流程中所經過的節點層數。淺層神經網絡有一個所謂的隱藏層,而深度神經網絡則不止一個隱藏層。多個隱藏層讓深度神經網絡能夠以分層的方式學習數據的特徵,因為簡單特徵(比如兩個像素)可逐層疊加,形成更為複雜的特徵(比如一條直線)。
在深度學習網絡中,每一個節點層在前一層輸出的基礎上學習識別一組特定的特徵。隨著神經網絡深度的增加,神經元節點所能識別的特徵也就越來越複雜,因為每一層會整合併重組前一層的特徵。第一層神經元學習初級特徵,例如分辨圖像邊緣或語音中的最小單元,方法是找到那些比隨機分布出現得更多的數位化像素或聲波的組合。一旦這一層神經元準確地識別了這些特徵,數據就會被輸送到下一層,並自我訓練以識別更複雜的特徵,例如語音的組合或者圖像中的一個角。這一過程會逐層重複,直到系統能夠可靠地識別出音素(根據語音的自然屬性劃分出來的最小語音單位)或物體為止。
一旦算法框架構建起來後,人工神經網絡就需要很多的「訓練」來達到誤差最小化。所以這也是深度學習的名字的由來,深度(多層的神經網絡)和學習(大量的數據訓練)都是必不可少的。機器學習有三種主要學習方式:監督學習、無監督學習和強化學習。每一種學習方式都可以用在深度人工神經網絡的訓練過程中。
發展至今,深度人工神經網絡的算法在圖像識別、聲音識別、推薦系統等重要問題上不斷刷新準確率紀錄。從沉寂了幾十年到火爆的熱門技術,有三個重要原因推動了深度學習的發展[3] 。
1.大數據
根據Cisco(思科)統計,全球網際網路流量在1992年的時候是每日100GB,而到了2015年的時候,流量已經達到了每秒20,235GB。現在全球九成的數據都是在過去兩年裡產生的。
這些大數據是訓練深度人工神經網絡裡上百萬的神經元和權重的前提。
用數據構建神經網絡的最好例子是Google X的一個項目。2012年6月,Google展示了當時最大的神經網絡之一,其擁有超過10億個連接,啟用了16,000個CPU。由史丹福大學計算機科學教授Andrew Ng和Google研究員Je Deann(傑夫·迪安) 帶領的團隊給這個系統展示了1,000萬張從YouTube視頻中隨機選擇的圖片。這種圖片數據量在十年前是無法想像的。
2.圖像處理器帶來的強大計算能力
讓人工神經網絡快速運行是很困難的,因為成千上萬的神經元要同時互動。取決於任務種類,有時候使用傳統的中央處理器(Central Processing Unit,CPU)運行神經網絡需要幾周才能出結果。然而用圖形處理器(Graphics Processing Unit,GPU),時間能大大節省,同樣的任務只需要幾天或者幾小時就可以出結果。
NVIDIA(英偉達)公司首先推出了GPU,主要用於處理遊戲中每秒產生的大量的幀數據。專家們發現,將GPU加入深度學習的架構中,賦予其訓練神經網絡的能力,可以有執行大量任務的並行計算能力,能更迅速地處理各種各樣的任務。GPU讓深度學習系統有能力完成幾年前計算機不可能完成的工作,比如房屋地址識別、照片分類和語音轉錄。前文所提到的有10億個連接的Google X項目,訓練人工神經網絡的時候使用了1,000臺電腦和16,000個CPU。然而在同等工作量和時間下,裝備了64個GPU的16臺電腦就可以運算出結果。
3.高級算法的改進
儘管神經網絡一直在不斷完善,但是Geoffrey Hinton和他的同事在2006年的發現被大部分人認為是深度學習的轉折點。
2006年,Hinton在Science 和相關期刊上發表了論文,首次提出了「深度信念網絡」的概念。與傳統的訓練方式不同,「深度信念網絡」有一個「預訓練」(pre-training)的過程,這可以方便地讓神經網絡中的權值找到一個接近最優解的值,之後再使用「微調」(ne-tuningg)技術來對整個網絡進行優化訓練。這種分階段兩部訓練技術的運用大幅度減少了訓練多層神經網絡的時間。
這種新的算法讓深度學習在真正意義上實現了「深度」,也將深度神經網絡帶入研究與應用的熱潮,將深度學習從邊緣課題變成了Google等網際網路巨頭仰賴的核心技術。
深度學習在過去五年處於爆發式增長狀態,在人工智慧領域佔據主導地位。據Gartner統計,深度學習的專家職位從2014年之後才開始出現,直到2018年,市面上大概有40,000多深度學習專家的職位空缺。這些需求大多來自Facebook(臉書)、Apple、Microso(微軟)、Google和百度等科技巨頭。大科技公司大量投資深度學習的項目,除了聘請專家以外,它們還大舉收購專攻深度學習的小公司。
深度學習的應用無處不在。網際網路廣告實時投放,在圖片中辨認和標記好友,把語音轉成文字或者將文字轉成語音,把網頁上的文字翻譯成不同的語言,還有無人駕駛,這些都有深度學習的支持。除此之外,很多我們沒有想到的地方也能找到深度學習的影子。信用卡公司用深度學習來做反欺詐測試,醫院和實驗室使用深度學習來測試、確診和治療疾病。自動化流程性能的改進、模式訓練和問題解決,這些應用中都有深度學習技術的支持。
儘管有了這麼多的進展,但並非每個人都認為深度學習能把人工智慧變成某種能與人類智慧相匹敵的東西。主要的批評者認為,深度學習就像一個黑盒子,無從得知其中發生了什麼,經驗過多,理論不足。還有一些人認為,深度學習還是以數據驅動的方式解決複雜模式識別問題,更傾向於蠻力計算。如何從少量的數據中生成良好的神經網絡,這也是深度學習前沿研究中的一個重要課題。
為深度學習奠定基石的Hinton認為,我們需要把這些包括他自己曾提出的突破性模型都推翻,徹底改變現在使用的神經元類型。他說:「我認為我們研究計算機視覺的方式是錯誤的。雖然它現在比其他任何東西都管用,但這並不意味著它是正確的。」2017年10月,Hinton發表了兩篇研究論文,交出了「膠囊網絡」(Capsule Networks)的研究成果。膠囊網絡是神經網絡的變體,目的是讓機器更好地通過圖像或視頻來了解世界。膠囊網絡旨在彌補當今機器學習系統大量依靠數據分析的缺陷。深度神經網絡支持下的圖像識別軟體需要大量的示例照片來學習。這是因為系統無法對新場景知識進行泛化,例如,從新的視角觀看相同的對象時準確地將其識別出來。舉例來說,教計算機從多個角度識別一隻貓,可能需要成千上萬張不同角度的照片;而人類孩童不需要如此明確和大量的訓練,就可以學會識別一隻家養寵物。儘管對於膠囊網絡目前還沒有大量數據和案例來證明其優越性,但這無疑是建立深度學習領域架構的第一人對自己的再一次革命性超越嘗試。
關於深度學習的未來,就算是被譽為深度學習始祖的Hinton也承認,自己也不知道人工智慧革命接下來會將我們帶向何處。他說:「在這個領域,很難預測五年以後的事情,畢竟事情往往並不會像你期待的那樣如期而至。」
不過可以確定的是,這僅僅只是開始。
如果說深度學習目前是人工智慧領域最火爆的技術,那麼強化學習的熱度也當仁不讓地緊隨其後。
機器學習的過程中通常會利用概率論、統計學、計算機科學等知識,從訓練數據中識別特徵模式、學習規律,以此對未來數據進行分類、預測。強化學習屬於機器學習的一種方式。
雖然在2017年被評為十大突破性技術,但強化學習實際上並不是新鮮產物,它已經有幾十年的歷史了。它的基本思想是,學習在不同環境和狀態下哪種行為能把預期利益最大化。然而,這種方法一直無法推廣到現實世界中的複雜問題上,其中最主要的原因是,現實中可能遇到的情況錯綜複雜,無法進行枚舉。不過,近年來隨著設備計算速度的提升,以及深度學習架構的興起,強化學習得到了真正意義上的成長。深度學習在解決複雜模式識別問題上有了突破性的進步。當深度學習與強化學習結合後,對現實情況的枚舉就換成了首先對現實情況做模式識別,然後對有限的模式進行枚舉,這就大大減少了計算量和存儲代價。這種學習方式也更接近人類思維的模糊判斷的特點,被認為是人工智慧領域接下來的幾年裡最值得關注的技術。
Google的DeepMind以圍棋高手AlphaGo一戰成名,Google也是最早將深度學習與強化學習進行結合的公司之一。DeepMind將深度學習、強化學習和蒙特卡洛樹搜索等方法相融合,開發了一個叫作AlphaGo的圍棋程序。2016年,AlphaGo以4:1大勝圍棋頂尖棋手李世石,受到全世界矚目,也讓深度強化學習走入人們的視野。
當時,主要的深度學習方法是監督式學習,也就是必須對訓練數據進行標註。這項工作通常需要人力完成,而深度學習所需的數據量又十分巨大,所以標註數據的獲得經常成為深度學習方法的一大瓶頸。強化學習在一定程度上避免了這個問題,因為它的學習過程不依賴於標註,而是由一個獎勵函數來主導。這和人類在大多數情況下的學習方式是一致的,因為多數時候人類的學習過程並沒有監督和標註,而是根據產生的結果好壞來調整,如嬰兒學習走路的過程。因此,學術界有不少人認為,強化學習是未來機器學習的發展方向。
但是,在目前的情況下,強化學習要達到深度學習的廣泛應用程度還有很大的距離。2017年,在舊金山舉行的人工智慧大會上,人工智慧著名專家Andrew Ng就公開表示,強化學習目前的熱度與它帶來的商業價值完全不成正比,更像是一種過分宣傳。強化學習是一種優勢和劣勢都十分明顯的技術。與深度學習的結合讓它在計算上優勢顯著,但是其劣勢也十分突出,就是所需要的數據比其他的機器學習方式都要大得多。
這種數據上的「饑渴」其實在很多領域都是難以滿足的。比如,在藥物研發的應用中,訓練數據的獲得往往涉及從大批人群中進行組織採樣,費用高、耗時長,進行一次算法訓練的代價是巨大的,而研發過程中還需要不斷地迭代訓練。在未來,如何將強化學習高效地應用於現實世界,訓練數據將會是研究者需要解決的重要問題。而在選擇強化學習的應用時,揚長避短才能最大限度地發揮它的商業價值。強化學習方法的工業應用目前還不算多,主要用於那些能夠提供大量數據的領域,例如自動生產機器人和自動駕駛汽車。
雖然還有自身限制的問題沒有得到解決,但強化學習已經嶄露頭角,熱度一直居高不下。更多以強化學習為主的創業公司和學術研究小組相繼湧現,業內不少人都很有信心。接下來的幾年我們就應該能看到強化學習的更多商業應用了。
不管是深度學習還是強化學習,目前主要的機器學習手段還是依賴大量的數據進行分析和系統訓練。這離人類的思考方式還是有很大區別。人類在思考時可以進行泛化,例如,嬰兒知道什麼是貓之後,再見到其他的貓就能馬上知道這是貓。但是通過深度學習進行圖片鑑別訓練後的系統,可能需要看了100萬張不同的貓的照片後,才能以高準確度來鑑別哪張圖片是貓。在人工智慧的應用和普及過程中,就算有網際網路大數據,還是有很多領域無法提供如此大的數據。機器無法進行泛化,這從另外一個方面也反映了機器學習一直只能通過大量數據分析模仿人類的邏輯分析能力,而一直難以實現人類大腦的另一強大功能——想像力。
直到2014年,當時還是蒙特婁大學博士生的Ian Goodfellow突然想到了這個問題的答案——「對抗性神經網絡」(GAN)。他構想的模型會使用兩個神經網絡(一種簡化的人腦數學模型,是現代機器學習的基石),然後讓這兩者在數字版的「貓捉老鼠」遊戲中相互拼殺。
這兩個網絡會使用同一個數據集進行訓練。其中一個神經網絡叫生成網絡,它的任務就是依照所見過的圖片來生成新的圖片,比如長了兩隻兔耳朵的貓。而另外一個神經網絡叫判別網絡,它的任務則是判斷它所見到的圖片是與訓練時的圖片相似,還是由生成網絡創造出來的「假貨」,比如,判斷那隻長著兔耳朵的貓有多大可能是真的。
兩個網絡互相進行對抗,這樣就建立起良好的競爭。每個網絡都在成千上萬的嘗試中不斷改善自己,而這一切都不需要人力幹擾。這樣,最終我們就能得到可以以假亂真的「贗品」,以及一個十分善於鑑別「贗品」的網絡。
慢慢地,生成網絡創造圖片的能力會強到無法被判別網絡識破的程度。基本上,經過訓練之後,生成網絡學會了識別並創造看起來十分真實的貓圖片。兩個系統可以通過相互對抗來創造超級真實的原創圖像或聲音,而在此之前,機器從未有這種能力。這給機器帶來一種類似想像力的能力。這項技術已經成為過去十年最具潛力的人工智慧突破,幫助機器產生甚至可以欺騙人類的成果。Facebook人工智慧研究的主管楊立昆認為,對抗性神經網絡是「深度學習過去20年來最酷的想法」。
NVIDIA於2017年在明星圖片資料庫的基礎上,用對抗性神經網絡製造出一組十分真實的高像素的假明星圖片。
2018年在Arxiv網站發表的一篇論文顯示,通過對抗性神經網絡,只需給系統輸入簡單的文字,系統就會生成圖片。
因為只有短短4年的歷史,GAN目前還處在研究舉證階段,還沒有得到廣泛的商業應用。目前GAN研究領域的主力還是Google,其聘請了GAN概念的創造者Ian Goodfellow來帶領其研究團隊。對於未來可能的應用,人工智慧三大奠基人之一的Yoshua Bengio認為,GAN特別適合運用在自動駕駛技術的研發上。目前自動駕駛系統的完善還是取決於大量的數據訓練,系統需要有所有駕駛時會產生的各種意外情況的數據才能避免交通意外。而GAN可以通過自動生成能力有效地解決這個數據問題。除此之外,業內專家認為,GAN在藥物研究上也能有效提高研發的效率並節省成本。
賦予機器「創造力」的GAN解決了一直困擾人工智慧領域的數據來源問題,可以說真正實現了不依賴人類的無監督學習。關於真正的爆發和廣泛的商業應用,相信被譽為「神來之筆」的GAN需要的只是更多的時間。
如前文所述,機器學習是人工智慧領域不斷取得突破的核心技術。如今,許多機器學習被廣泛地開發出各種商業用途,包括金融、醫療、汽車、製造業、機器人等。無人駕駛是機器學習衍生出的尖端技術應用之一。Tesla的自動駕駛儀及自動駕駛貨車分別在2016年和2017年入選十大突破性技術。
對於大部分人來說,在考取駕照之前,學車本身就要花好多時間。因為駕駛需要高度集中的注意力和對於突發狀況的快速應變能力,稍有疏忽,路上的交通意外就會頻頻發生。
那計算機如何能應對如此複雜的情況呢?簡單來說,計算機把駕駛本身細分成各種任務:道路、路標、行人、行駛的車輛等。無人駕駛需要針對每一項都建立一種機器學習方法,最後再整合起來。
即便如此,只建立一種任務的學習方法的難度也是十分可觀的。比如一個國家的交通標誌就有好幾百種,世界上所有國家的交通標誌加起來就更多了。能見度低以及交通標誌受到損壞等複雜狀況,使計算機辨認出交通標誌的難度進一步加大。這還僅僅是無人駕駛的其中一個任務,計算機同時還要辨認行人以及其他行駛的車輛,並做出相應的反應。
過去幾年,無人駕駛技術因為深度學習和強化學習的發展而取得了重要突破。在複雜的路況下,自動駕駛汽車已經能做到對路面情況的及時反應和對車輛的精確控制。如此飛躍性的表現,是自動駕駛汽車通過反反覆覆的深度強化學習實現的。在平時的訓練過程中,根據車輛在行駛中的表現,控制軟體會自動進行操作,嘗試對指令進行微調。在每一次操作成功後,系統都會加強對這些動作的偏好,以達到最終的理想效果。
無人駕駛的技術對於未來的科技和人類生活有十分重要的意義。Intel(英特爾)2017年發表的一份研究報告預測,無人駕駛在2035年能帶來8,000億美元的經濟價值,到2050年,這個數字將會翻倍到7兆美元。除了經濟價值之外,無人駕駛還能在2035~2045年避免585,000人次因為普通人力駕駛造成的交通意外死亡。無人駕駛的潛力之大,從Tesla自動駕駛儀(2016年)和無人駕駛貨車(2017年)在前後兩年入選《麻省理工科技評論》十大突破性技術可見一斑。
作為先驅者,Tesla在2014年推出一款在保險槓周圍及車身兩側裝有12個超聲波傳感器的轎車。再加4,250美元,客戶就能購買到一個通過傳感器、攝像頭、前置雷達以及數控剎車制動避免碰撞的「技術包」。這個技術包能使汽車接管操控並在碰撞之前停下來。但通常情況下,這些硬體只是處於待機狀態,最重要的任務是收集大量的數據。一年後,公司對當時已售出的6萬輛安裝了傳感器的汽車推送了軟體更新。官方將此次軟體更新命名為Tesla 7.0,但人們記住的是其暱稱——自動駕駛儀(Autopilot)。自動駕駛儀和飛行員在航行中所使用的軟體相似,汽車可自己控制速度,駕馭道內的行駛,甚至變道及自動停車。通過一夜之間的軟體更新,Tesla推動汽車行業向全自動駕駛邁出了巨大的一步,現在,其他的汽車公司,包括Mercedes-Benz(梅塞德斯)、BMW(寶馬)和GM(通用),還開發了自動平行泊車等功能。
目前Tesla的市場估值有500億美元,早已超過了老牌汽車廠商Ford(福特)的440億美元。要知道,Tesla 2017年只賣了10萬臺汽車,而Ford的銷售量達到了660萬臺。這種收入和估值的不成正比,與其說是虛高,倒不如說是反映了投資者對未來汽車產業的一種期望和信心。基於對無人汽車未來的展望,科技公司也紛紛投身於自動駕駛的研究之中。和汽車廠商銷售汽車的角度不一樣,科技公司在無人駕駛技術領域投資主要是因為看好「乘客經濟」(Passenger Economy)這塊市場。Intel在2017年花費150億美元收購了以色列的自動駕駛系統開發公司Mobileye,並計劃在2018年和2019年兩年投資2.5億美元開發自動駕駛技術。除了Intel,Google也不甘其後,其子公司Waymo開發的無人駕駛汽車已經處在頻頻測試之中。並且已經聯合美國的打車公司Ly開發業務,未來將會是Uber的有力競爭對手。
除了自動駕駛汽車,近年來自動駕駛貨車產業也得到了很多關注。乍一看,自動駕駛貨車所面臨的機遇和挑戰與一般的自動駕駛汽車沒有什麼不同,然而事實遠非如此——貨車不僅僅是「加長版」的汽車這麼簡單。使用自動駕駛貨車在經濟上的合理性可能更甚於普通的自動駕駛汽車。
2014年,自動駕駛貨車初創公司PelotonTechnology進行了一次測試。在這次測試中,該公司研發的自動駕駛系統被裝載在兩輛貨車上,前一輛貨車的司機正常駕駛,後一輛貨車在有些時段會由計算機操控,司機不必時刻擔負開車的任務。兩輛車一個在前一個在後,保持著10米的安全距離,只要前車司機踩了剎車,後車也會立即制動以避免撞車。這種將貨車組成「隊列」的方法可以減少貨車承受的風阻,由此達到節油的目的。據悉,前車、後車減少的用油量分別為4.5%和10%,一年下來能節省約10萬美元的油費。該技術成熟以後,將更多的貨車組成隊列會幫助貨運公司進一步削減成本。該公司稱,這套系統會為司機提供更多的路面信息,而且雷達可以在危急關頭自動啟動剎車——這無疑將提升貨車的安全性。使用自動駕駛貨車運送物資安全、節能,並能節省很多司機成本,有望在未來徹底顛覆傳統的運輸產業。
儘管已經取得很多突破性的進展,但是目前普遍的觀點都認為,自動駕駛技術還沒有完善到能完全取代人力駕駛,只能將其看作一種輔助司機的半自動駕駛。現在的法律監管一直強調司機必須留意路面狀況,雙手不能離開方向盤。但是在市場營銷的時候,各種廣告總會美化「自動駕駛」的強大,對消費者極有誤導性。例如,2017年Benz投放的E-Class汽車廣告裡就有司機雙手離開方向盤的畫面,廣告語也暗示了無人駕駛:「世界已經準備好迎接自動駕駛的汽車了嗎?不管如何,未來已經降臨了。」最後其被美國監管機構認為誤導性過強,畢竟新的Benz型號只是裝備了定速巡航的某些自動駕駛的功能,而不是真正的無人駕駛。特斯拉自動駕駛儀剛推向市場的時候,Tesla的用戶就上傳了不少在高速公路上的視頻:司機雙手脫離方向盤,看報紙、喝咖啡,甚至坐在車頂。這樣的行為很多是違法的。近年來自動駕駛汽車導致了幾宗致命的交通意外,每一次都引起廣泛關注和報導。其中一宗近至2018年3月,一輛Tesla的X系轎車在美國加州撞向路邊護欄,司機當場死亡。事後Tesla確認當時汽車是處於自動駕駛狀態,而現在調查仍然在繼續。同月,在美國的亞利桑那州,Uber的無人駕駛汽車在自動駕駛狀態下撞到了一個過馬路的行人,致其死亡。Uber因為這宗事故暫停了自動駕駛部門的運營。
面對諸如壞天氣、意外障礙、複雜的城市交通等情況,自動駕駛的傳感器與軟體很容易出錯,所以目前還無法完全離開人力操作。很多人相信,基於車對車通信(Vehicle-toVehicle,V2V)的車聯網技術能有效解決這一關鍵問題,這也是無人駕駛未來能全面推行的必要前提。
V2V通信系統由一套無線網絡構成,車輛之間通過它來傳遞信息,以實時了解其他車輛的動向。數據包括速度、位置、方向、剎車、穩定性等信息。V2V技術使用專用短程通信(Dedicated Short-Range Communications,DSRC),一種由聯邦通信委員會和國際標準化組織定義的通信技術標準。有時DSRC也被描述成一種Wi-Fi,因為它的工作頻率在5.9GHz,與Wi-Fi網絡類似。但準確地說,DSRC是一種「類Wi-Fi」制式,其覆蓋範圍約300米。
車對車通信可以把汽車的位置、速度、制動狀態等數據無線傳遞給百米範圍內的車輛,接收數據的車輛就可以對周圍的環境繪製一張詳細情況圖,從而避免車輛發生碰撞。即使司機再謹慎或者傳感器再靈敏,也總有力所不及的時候,而車對車通信卻可以眼觀六路、耳聽八方。在自動駕駛還不夠完善、技術也不夠成熟的情況下,用無線技術把汽車連接成通信網絡似乎能有效減少交通意外。該技術入選了2015年度《麻省理工科技評論》十大突破性技術。
美國政府曾提出法案提議,把強制要求所有新車都裝載車對車通信技術的計劃提上議程。美國交通部認為,V2V是智能交通系統的一個重要部分,智能交通系統將會利用V2V通信數據來提高交通治理水平,並且允許車輛與路邊設施如交通燈和警示牌通信。車對車通信技術可以有效輔助自動駕駛,讓車輛360度感知路面情況,以改善駕駛的安全程度。
德國汽車廠商目前是汽車產業內車對車通信技術的最大推動者。Benz在2016年的E-class系列和2018年上市的S系列上都裝上了車對車通信技術系統。2016年,包括BMW、Benz和Audie(奧迪)在內的汽車廠商聯合向Nokia(諾基亞)支付了31億美元,買下了Nokia Here的大部分股份,其地圖服務將會成為打造車聯網的平臺。這一廠商聯合認為,將高度準確的電子地圖與實時的車輛數據相結合能提高路面的安全性,而且只有這樣的支持系統才能讓全自動駕駛變為可能。基於Here地圖的技術平臺目前只有BMW、Benz和Audie可用,只有實現跨品牌車之間的互聯,才能真正地形成車聯網,V2V技術才能更有效地用於減少交通意外。
V2V通信目前還處在商業試用階段,近兩年的發展不如自動駕駛迅猛。儘管已經有品牌推出了具備車對車通信技術的新車,但車對車通信技術在未來10年內是否能成為主流,前景還不是十分明朗。首先,V2V的發展十分依賴於通信模塊的研發和商用,以及未來的通信技術。以現有的通信技術,要創建V2V通信網絡有不小的困難。車載計算機每秒至少要處理10次接收到的數據,才能準確判斷汽車發生碰撞的概率。清晰、可靠、極快的網絡,用以和其他車輛、基建設施及其他設備進行「對話」,是V2V通信的首要挑戰。其次,為了確保汽車接收信息的真實性,發射器要採用特定的無線頻譜。而在遲遲沒有統一的行業技術標準的情況下,原有保留給車對車通信技術的工作頻率受到了有線電視和網際網路公司的威脅。在一些國家,例如澳大利亞,車對車通信技術並沒有特定的工作頻率,為這項技術未來的推廣增加了不少困難。除了技術上的障礙,信息安全和個人隱私的保護也是V2V技術大規模商用需要面臨和解決的重要問題。早在2015年,就有實時聯網測試的汽車被黑客攻擊,被完全操縱,造成安全威脅。這暴露了汽車聯網的安全保護還十分弱。