圖片來源:網絡
機器學習已然無處不在。它藏身於很多智能設備中,一部智慧型手機、一個智能音響、線上購物娛樂的一個個APP裡……它像是虛擬世界和物理世界的「縫合者」,用算法和數據試圖「猜透」人心。
各大廠商對機器學習的熱情越來越高,對算法、算力和數據提出新的要求,尤其是對算力需求的激增,進一步催生相關晶片和專用設備的蓬勃創新,而在後摩爾時代,這種創新或將成為突破算力極限的關鍵。
數據「餵」大的機器智能
什麼是機器學習?簡單來說,機器學習使用算法在數據中發現模式,然後使用一個能識別這些模式的模型對新的數據進行預測。
由此可見,數據是讓一個算法從實驗室走到物理世界的關鍵。數據量、數據多樣性以及規模化的、成本可靠的數據來源渠道等都是影響最終結果的關鍵要素。其中,有一項關鍵的工作需要大量的人力參與——數據的社會化標註。「某種意義上,機器永遠離不開人類。」澳鵬(Appen)中國產品總監張童皓對集微網表示。澳洲公司Appen成立於1996年,多年來一直是AI產業鏈中比較靠前的數據節點來為客戶提供服務,業務涉及提供圖像、文本、語音、音頻、視頻及其他數據收集和標註服務。
眾所周知,神經網絡是當前人工智慧發展的基石技術。「神經網絡的專長就是在像素點裡面嘗試著取出一系列的關鍵點,而這些關鍵點是由人工標註出來的。」張童皓說,「如果你丟給機器一堆無規則的隨機圖片,它永遠都不知道這個圖片裡面有人。」
隨著AI應用要求的不斷提升,訓練的難度和對數據的要求也隨之提升。張童皓告訴集微網,他們曾經為配合一家手機客戶的一項算法訓練提供數據服務,拍攝全世界各地不同經度、不同緯度的月亮照片。「如果採用在一個國家的不同地方所觀察到的月亮,而不是在全球各個地方實地觀察,那麼其標註的數據一旦應用於全世界數據中,錯誤的數據將會給後續一系列應用帶來錯誤的結果。」目前Appen的平臺上有超過100萬名參與人工智慧數據收集、標註的人員,他們來自全球130個國家或地區的7萬多個地方,涵蓋180 多種語言和方言。
機器對數據的「胃口」越來越越大。以谷歌的BERT為例,這是該公司2018年建立並用於其搜尋引擎的AI語言模型,它具有超過3.5億個內部參數,使用33億個文字單詞進行了訓練,大部分來自在線的維基百科。而研究人員稱,如果可以用更大的數據量,比如300億個單詞訓練一個系統,那麼它的性能顯然將更好。而更多的數據意味著需要更多的計算能力來處理這一切。
算力需求激增 催生晶片創新
據《經濟學人》統計,從2012年到2018年,用於訓練大型模型的計算能力已增長了30萬倍,並且約每三個半月翻一番。值得注意的是,支持這一發展速度需要的遠不止摩爾定律所能實現的改進。更何況如今正值摩爾定律走向枯竭之際,如何不斷提升系統性能以滿足人工智慧訓練的需求?後摩爾時代的AI革命顯然需要新的顛覆——從計算架構開始,做算法、硬體和軟體的共同優化變得尤為關鍵。
對算力需求的激增,也進一步催生AI專用晶片和專用設備的蓬勃發展,並促使晶片層面的多種創新。
張童皓也觀察到了晶片技術和機器學習之前的相互影響。他指出,基於機器學習的晶片架構發展,已經從最初的硬體通用化到場景定製化服務,「很多AI行業的領頭羊在特定晶片模組上的投入,都是在服務AI場景化落地。」
比如,蘋果的自研晶片裡有一個專門用於機器學習的處理器——神經引擎,它和CPU、GPU一起處理機器學習所需要的大量的運算。據蘋果公司全球副總裁葛越在今年上海的世界人工智慧大會上透露,該神經引擎每秒鐘可以完成高達五萬億次的運算。此外,谷歌自行設計了TPU(張量處理單元)晶片,百度自行開發的AI晶片「崑崙」。英特爾則在去年12月以20億美元收購了以色列公司哈瓦那實驗室(Habana Labs),該公司的雲端AI推理晶片已經商用。成立於2016年的英國公司Graphcore則正在開發一種新型處理器——IPU(intelligent processing unit,智能處理器),可以幫助加速機器智能產品和服務的開發,該公司2019年的估值已達到20億美元。
此類創新將變得越來越重要,因為AI引發的計算能力需求的激增正值摩爾定律逐漸枯竭之際——在過去50年裡,傳統數字計算機的性能按照摩爾定律一路提升——集成電路(微晶片)的容量大約每18-24個月翻一番。如今,數字計算機性能的發展速度似乎正在放慢。
突破摩爾定律的嘗試
摩爾定律和馮諾依曼架構的瓶頸在算力需求激增之下日益凸顯。尋找新的替代方案突破蠻力計算變得尤為重要。
復旦大學信息學院研究員、新氦類腦智能首席科學家鄒卓教授指出,摩爾定律的挑戰在於——無法承受的能耗密度,原子尺度的尺寸、製程、器件的不穩定性和偏差,以及比例縮小並沒有帶來實質性的性能提升,高昂的研發和製造成本。與此同時,馮諾依曼計算架構不斷抵近極限,即內存的讀取速度和晶片的處理速度漸漸難以實現同步。
量子計算是一種解決方式——利用量子力學的反直覺特性來大幅加速某些類型的計算。比如,微軟研究院量子架構與計算小組負責人提出一種稱為葛洛沃算法(Grover's algorithm)的量子計算技術,該技術有望大大提高計算速度。因為關於機器學習的一種思考方式是將其視作優化問題,即計算機試圖在數百萬個變量之間折中取捨,以求出誤差儘可能小的解
另一種思路則是從生物學中得到啟發。這個領域以大腦的神經網絡架構為基礎開發下一代計算機。神經形態計算聚焦脈衝神經網絡(spiking neural network,SNN)被業界稱作第三代神經網絡
「生物是很高效的計算系統。」鄒卓指出,藉助類腦技術大規模並行、事件驅動、實施環境交互、感算存緊密耦合協同等特點,開發能夠如人腦般感知、傳遞、處理和運用信息的智能晶片與系統,有望突破摩爾定律以及馮諾依曼架構的瓶頸。
「像人腦一樣的存算一體,打破了傳統馮諾依曼架構存儲計算分離的架構,這是類腦計算的核心突破。」新氦類腦智能企業戰略總監程韞韻對集微網解釋,存算一體的模式,即把內存和計算單元兩者作為一個單元,不會因計算任務的架構複雜化而功耗激增,這也讓計算耗電和散熱兩大難題找到了新的方向。
Facebook內部做過一項統計,其AI負責人曾透露,該公司那些最大型的模型進行一輪訓練可能需要耗費數百萬美元的電力。相比之下,同樣的情況人腦消耗的能量可能僅需其千分之一。
看起來,這似乎在突破蠻力計算上充滿潛力,近年來不少科技公司也都涉足研究「神經形態」晶片。
2011年,IBM發布了TrueNorth晶片。2014年TrueNorth更新了第二代,功耗達到了平方釐米消耗20毫瓦,印證了類腦晶片的低功耗價值,也在一些AI任務上印證了類腦晶片的實際工作能力。緊隨其後的是英特爾。2017年,英特爾發布了類腦晶片Loihi,其擁有13萬個人造突觸。2019年7月,英特爾又發布了首個大規模神經形態計算系統Pohoiki Beach。該系統由64塊Loihi組合而成,可以在自動導航、陸續規劃等需要高效執行的AI任務中帶來高於GPU的功耗和處理能力。此外,高通也開發過名為Zeroth的類腦晶片。中國業界在該領域也加緊投入,如浙大的「達爾文」晶片、清華的「天機」晶片等都已在路上。其中清華的「天機」晶片作為全球首款異構融合類腦晶片去年登上了《自然》(Nature)雜誌封面。
但需要指出的是,這一切都尚未成熟。量子計算的應用落地還面臨很多工程設計問題。類腦智能層面,一方面科學家仍然不完全了解大腦究竟是怎麼工作的,另一方面適配類腦計算的架構、算法、編程方案等等也處在廣泛的空白期。
顯然,找到繞開比特編程和摩爾定律的替代方案,並使之從實驗室步入現實世界,還有很長的路要走。
(校對/零叄)