1956年的夏天,一場在美國達特茅斯(Dartmouth)大學召開的學術會議,多年以後被認定為全球人工智慧研究的起點。2016年的春天,一場AlphaGo與世界頂級圍棋高手李世石的人機世紀對戰,把全球推上了人工智慧浪潮的新高。
經歷了兩次起伏,人工智慧現在進入了全球爆發的前夜。僅在中國就有上億人直接或間接地觀看了AlphaGo與李世石的比賽,而在2016年初,還有IBM在全球大舉推廣基於IBM Watson的認知計算,Watson的前身就是1997年打敗了西洋棋大師卡斯帕羅夫的「深藍」。
中國有句古話叫做60年一輪迴。然而對於人工智慧來說,往後的60年並不僅是輪迴,而是新生。前60年的人工智慧歷程,可以用「無窮動」來形容;後60年的人工智慧發展,可以用「無窮大」來期許。
「無窮動」是一首義大利小提琴名曲,卡耐基·梅隆大學人工智慧教授邢波用這個名字命名自己研究小組研發的新一代分布式機器學習系統。「無窮動」又是一種寓意,代表了在過去60年間甚至到更遠的古代,人們對於智能機器永無止境的想像以及去實踐的衝動。
亞里斯多德曾說過,如果機器能幹很多活,豈不能讓人類解放出來。《星球大戰》《黑客帝國》《人工智慧》等科幻電影,激發了一代又一代學者和實業家,前伏後繼地投入到人工智慧的研究中。AlphaGo算法的主要發明人,就是受了「深藍」的影響而加入AI的行列。
在前60年的發展中,人工智慧研究也取得了階段性成果,特別是有監督深度學習在自然語言理解、語音識別、圖像識別等人工智慧基礎領域,都已經發展到了成熟階段。接下來,就是AlphaGo開創的無監督深度學習的未來——擺脫人類「監督」的增強學習。
實際上,隨著計算機的發明,人們一直在探討,這到底會導致什麼樣的人工智慧?一種預見是可以產生功能性的人工智慧,這就是今天有監督深度學習所廣泛取得的成果。還有一種觀點是人工智慧可以模仿人的思維和感情活動,這就是無監督深度學習將要開創的未來。
當智能機器可以自己張開眼睛看世界,通過自主探索世界來獲得智能的話,未來可能出現的變化就是「無窮大」了。從「無窮動」到「無窮大」,2016年註定是一個精彩之年。
人工智慧頭60年的發展,就是在起起伏伏、寒冬與新潮、失望與希望之間的無窮動韻律,尋找著理論與實踐的最佳結合點。
從清華大學畢業後,邢波到Rutgers大學和伯克利攻讀研究生,之後到卡耐基·梅隆大學成為一名人工智慧領域的教授。卡耐基·梅隆是全球重要的人工智慧研究基地,很多原創性成果都出自這所大學。
邢波在卡耐基·梅隆大學成立了一個人工智慧小組SAILING LAB,試圖在人工智慧各個方面產生突破,理論研究包括概率圖模型的最大似然和最大間隔學習、非參數空間高維推理、非穩態時間序列分析、非參數貝葉斯化推理等,應用研究包括計算生物學、群體遺傳學、基因組學、社交網絡和社交群體、網際網路級文本挖掘和自然語言處理、計算金融等。
2016年3月19日,在AlphaGo戰勝李世石後的第4天,邢波隨著《未來論壇》之理解未來系列講座走進了京東集團。邢波回顧了全球人工智慧歷程,人工智慧作為一個科學和工程領域,得益於20個世紀國際科學、計算機科學、資訊理論、控制論等很多科學發展的交匯點。人工智慧的研究基於一個很基本的假設,即認為人的思維活動可以用機械方式替代。
60年前的全球人工智慧大會
談到人工智慧,就不能不提到鼻祖式人物:圖靈。1936年,英國數學家、邏輯學家阿蘭·麥席森·圖靈(1912~1954)提出了一種抽象的計算模型——圖靈機(TuringMachine),用紙帶式機器來模擬人們進行數學運算的過程,圖靈本人被視為計算機科學之父。
1959年,圖靈發表了一篇劃時代的論文《計算機器與智能》,文中提出了人工智慧領域著名的圖靈測試——如果電腦能在5分鐘內回答由人類測試者提出的一系列問題,且其超過30%的回答讓測試者誤認為是人類所答,則電腦就通過測試並可下結論為機器具有智能。
圖靈測試的概念極大影響人工智慧對於功能的定義,在這個途徑上,卡耐基·梅隆兩位科學家A.Newell和H.Simon的「邏輯理論家」程序非常精妙地證明了羅素《數學原理》52道中的38道。Simon宣稱在10年之內,機器就可以達到和人類智能一樣的高度。
第一批人工智慧探索者找到共同的語言後,於整整60年前的1956年,在美國達特茅斯大學開了一次會,希望確立人工智慧作為一門科學的任務和完整路徑。與會者們也宣稱,人工智慧的特徵都可以被精準描述,精準描述後就可以用機器來模擬和實現。後來普遍認為,達特茅斯會議標誌著人工智慧的正式誕生。
人工智慧第一次浪潮和寒冬
達特茅斯會議推動了全球第一次人工智慧浪潮的出現,即為1956年到1974年。當時樂觀的氣氛瀰漫著整個學界,在算法方面出現了很多世界級的發明,其中包括一種叫做增強學習的雛形(即貝爾曼公式),增強學習就是谷歌AlphaGo算法核心思想內容。現在常聽到的深度學習模型,其雛形叫做感知器,也是在那幾年間發明的。
除了算法和方法論有了新的進展,在第一次浪潮中,科學家們還造出了聰明的機器。其中,有一臺叫做STUDENT(1964)的機器能證明應用題,還有一臺叫做ELIZA(1966)的機器可以實現簡單人機對話。於是,人工智慧界認為按照這樣的發展速度,人工智慧真的可以代替人類。
第一次人工智慧冬天出現在1974年到1980年。這是怎麼回事呢?因為人們發現邏輯證明器、感知器、增強學習等等只能做很簡單、非常專門且很窄的任務,稍微超出範圍就無法應對。這裡面存在兩方面局限:一方面,人工智慧所基於的數學模型和數學手段被發現有一定的缺陷;另一方面,有很多計算複雜度以指數程度增加,所以成為了不可能完成的計算任務。
先天缺陷導致人工智慧在早期發展過程中遇到瓶頸,所以第一次冬天很快到來,對人工智慧的資助相應也就被縮減或取消了。
現代PC「促成」第二次人工智慧寒冬
進入20世紀80年代,卡耐基·梅隆大學為DEC公司製造出了專家系統(1980),這個專家系統可幫助DEC公司每年節約4000萬美元左右的費用,特別是在決策方面能提供有價值的內容。受此鼓勵,很多國家包括日本、美國都再次投入巨資開發所謂第5代計算機(1982),當時叫做人工智慧計算機。
在80年代出現了人工智慧數學模型方面的重大發明,其中包括著名的多層神經網絡(1986)和BP反向傳播算法(1986)等,也出現了能與人類下象棋的高度智能機器(1989)。此外,其它成果包括能自動識別信封上郵政編碼的機器,就是通過人工智慧網絡來實現的,精度可達99%以上,已經超過普通人的水平。於是,大家又開始覺得人工智慧還是有戲。
然而,1987年到1993年現代PC的出現,讓人工智慧的寒冬再次降臨。當時蘋果、IBM開始推廣第一代臺式機,計算機開始走入個人家庭,其費用遠遠低於專家系統所使用的Symbolics和Lisp等機器。相比於現代PC,專家系統被認為古老陳舊而非常難以維護。於是,政府經費開始下降,寒冬又一次來臨。
那時,甚至學者們都不太好意思說是從事人工智慧研究的。人們開始思考人工智慧到底往何處走,到底要實現什麼樣的人工智慧。
現代AI的曙光:新工具、新理念和摩爾定律
如何在有限的資源下做有用的事情,這是人工智慧一直以來的挑戰。一個現實的途徑就是像人類造飛機一樣,從生物界獲得啟發後,以工程化方法對功能進行簡化、部署簡單的數學模型以及開發強大的飛機引擎。
現代AI的曙光發生在這個階段,出現了新的數學工具、新的理論和摩爾定律。人工智慧也在確定自己的方向,其中一個選擇就是要做實用性、功能性的人工智慧,這導致了一個新的人工智慧路徑。由於對於人工智慧任務的明確和簡化,帶來了新的繁榮。
在新的數學工具方面,原來已經存在於數學或者其他學科的文獻中的數學模型,被重新發掘或者發明出來。當時比較顯著幾個成果包括最近獲得圖靈獎的圖模型以及圖優化、深度學習網絡等,都是大約在15年前重新被提出來,重新開始研究。
在新的理論方面,由於數學模型對自然世界的簡化,有著非常明確的數理邏輯,使得理論分析和證明成為可能,可以分析出到底需要多少數據量和計算量來以得期望的結果,這對開發相應的計算系統非常有幫助。
在更重要的一方面,摩爾定律讓計算越來越強大,而強大計算機很少被用在人工智慧早期研究中,因為早期的人工智慧研究更多被定義為數學和算法研究。當更強大的計算能力被轉移到人工智慧研究後,顯著提高了人工智慧的研究效果。
由於這一系列的突破,人工智慧又產生了一個新的繁榮期。最早的結果即為1997年IBM深藍戰勝西洋棋大師。在更加通用型的功能性方面,機器在數學競賽、識別圖片的比賽中,也可以達到或者超過人類的標準。
人工智慧的繁榮也促進了機器人的進步,包括把人工智慧原理用在機器狗的設計上。無論是人工智慧狗還是無人車駕駛,都不是用編程方法寫出來,而是通過一套學習算法在模擬器中不斷的走路和開車,讓機器自己產生行為策略,這是人工智慧和原先控制論最不同的地方。
2011年,Facebook的挑戰
在2011年的時候,邢波迎來做教授的第一次學術休假,美國教授大概每6年可以做一次休假。邢波選擇去了一家很年輕的公司做客座教授,這就是當時的Facebook。那個時候只有500人的Facebook在史丹福大學的倉庫裡搭起了自己的實驗室,當時Facebook提出希望連接上億用戶,也希望能夠運用人工智慧投放有價值的廣告以增加公司收入。
Facebook當時的目標為在不久的將來把用戶從1億增長到10億,邢波的任務就是幫助Facebook實現這個願景。作為Facebook的第一個客座教授,他的第一個任務要把用戶在社交網絡裡連接起來,然後把這種連接投射到社交空間中,從而做社群檢測並把社群檢測用來實現用戶分組和特徵化。
這個任務並不難,可以通過混合成員隨機區塊模型來實現,這是2011年最好的處理網絡數據的AI算法。但其中有一個問題,即計算的複雜度呈平方級現象,即用戶數每增加10倍就需要100倍的CPU和存儲,因此單機最多處理1萬人,這是當時最大問題。
邢波於是通過研究算法模型實現計算加速,包括在社交網絡抽取比「邊」更強大的特徵叫做「三角形」,模型也從混合塊模型升級到混合三角模型。混合算法實現了顯著的革新,計算複雜度在不斷下降。當時的研究成果被用於全球電影明星網絡研究,大約在100萬人左右的網絡,可實時展示人們在模型驅動下不斷在社交空間找朋友並落入到不同的社交群。
100萬的網絡、幾億條邊、500多億特徵數,用10核單機在40分鐘內完成了模擬,這也是驚人的成果。
但問題來了,Facebook的目標用戶不是100萬,而是1億用戶。100萬用戶模擬只用了一臺筆記本電腦,而當時在Facebook的機房裡有1000臺主機,上面跑著可運行並行程序Hadoop系統。當時邢波把任務進行了並行化處理,希望能在0.6分鐘內處理1億用戶。可結果並不理想,一個星期後依然沒有結果。
AI對於傳統計算架構的挑戰
到底發生什麼事情呢?原來,用Hadoop進行並行計算的時候,其原理為把計算任務分解為若干子任務,然後在不同機器上運行不同的子任務,當每一個子任務都完成後再通過所有子任務之間的一次握手通信,宣告這次並行計算的結束。
Hadoop起源於1945年的馮·諾依曼架構,該架構也是現代計算機的原型,包括中央處理器、記憶存儲器、輸入和輸出等,通過硬體和軟體實現簡潔的橋接,而不用對每個電晶體和電子管做局部編程。在20世紀60年代就已經有人看到馮·諾依曼的局限,當有更大的任務或者速度有更高要求,需要讓很多臺機器一起執行同一個任務,於是就有了早期的並行計算系統。
後來,萊斯利·蘭伯特(LeslieLamport)創造了BSP橋接模型(1980~1990s),通過簡單抽象把計算和通信分成了兩個不重合的項,每個項只完成各自的計算或通信任務。Hadoop(2000s)就是這一思路的優秀代表,它可以用不同的機器以並行方式執行子任務,子任務完成後再通過握手通信完成計算。
Hadoop現在已經成為主流的運算平臺,對傳統計算程序像資料庫、統計數據歸納等都相當有效。BSP橋接模型的一個最近突破就是Spark(2010s),它與Hadoop的區別在於,Hadoop用硬碟作為存儲單元而Spark用內存作為存儲單元,但二者的通信原理是一樣的。
於是,在Hadoop機制下,整個並行計算的瓶頸出現在機群裡最慢的那臺機器。而在實際情況中,總會出現最慢的一臺機器。因為整個機群是共享計算資源,同期還有其它計算任務跑在機器上爭搶計算資源,此外甚至機房的溫度不均勻也會影響機器的速度。
裝了Hadoop的千臺機器很好地支持Facebook當時其他的業務,包括搜索業務和存儲業務。為什麼到了人工智慧業務就不行了呢?原因是人工智慧計算有它的獨特性,人工智慧是迭代式反覆讀取數據和刷新模型的方式,與傳統計算模式有很大的不同,這是人工智慧發展遇到的又一瓶頸。
從人工智慧角度來講,需要完成大型的計算任務,光有好的數學模型或算法還不夠,還需要強力計算引擎支持,而且這個計算引擎跟原來的不一樣。這就是當時邢波在Facebook機群上運行人工智慧程序,每一次迭代接近結束進入下一個迭代時,總會出現已經完成99%還有1%的計算沒有完成並且拖延一個星期的情況。
新的AI計算引擎
人工智慧採用了漸進迭代方式,迭代速度和迭代效率與數學方程難度有關。在大數據和複雜任務情況下,每一次計算中心都要把大數據遍歷刷一遍,1000次迭代就要刷1000遍。如果深度學習模型有幾十億參數,意味著每次迭代都要把所有參數刷新一遍。而當數據和模型同時放大時,這個任務就變得無比困難。
傳統計算架構下的BSP通信協議,就是先計算再通信、再計算再通信,這是實現計算一致性基本保障之一。理論上假設這樣的代價為零,但在工程實際系統中這並不是一個零代價的工程,各種問題使得機群不同步,要花很多時間等待計算的一致性。
邢波通過自己在Facebook的經歷,發現人工智慧運算和傳統計算非常不一樣,傳統計算由指令集構成,執行指令目的就是執行程序,執行的過程中不能出錯。這是傳統執行計算任務經典特徵,所有作業系統都是圍繞著這個目的來優化,包括容錯性和通信有效性等。
人工智慧的運算也是由指令集構成,但執行指令集的執行只是一個過程而不是目的,目的是優化算法。就像爬山一樣,目的是爬到山頂。傳統計算體系是嚴格設定登山路線,一步也不能出錯,但人工智慧則可以在中間出錯,只要能到山頂。
2012年,邢波及其同事設計了一種新的參數伺服器模型,這個框架下的核心概念,就是人工智慧的計算任務不再像傳統計算任務那樣以精準性為前提,而是像執行救火任務的機群那樣,其任務為「滅火」,至於如何達到火場只是一個手段。而且「撲火機群」還需要以機群為整體給上級一個簡單的指揮界面,具體飛行細節則由飛行員們自行協調,這是人工智慧的新觀點。
基於這樣一個目標,邢波及其同事開發了新的橋接模型——SSP有限異步模型。在有限異步模型下,運行機器服從中央指揮,但每個「戰隊」都有局限性自由度,總體目的是打贏仗。傳統並行計算,需要很精準的協調;而完全異步模型下,每個機器各自為政,大部分不能協調實現共同目標。於是,邢波選擇了第三條路線:有限異步模型。
邢波用有限異步橋接原理去構建參數伺服器的編程界面,是一個分享內存的大規模編程界面,程序運行速度和精度都有了巨大的提升。而且這個系統並不是為某一個特定人工智慧計算而設計的,更是一個公用的計算平臺模型,在設計時考慮了整個人工智慧程序的普遍共性。這個系統也有非常靈活的容錯及通訊管理機制,最後的結果就是系統功效的巨大提升。
2013年,邢波研究小組取得了另一個突破。當訓練巨大模型的時候,需要把模型分解到不同機器上,每個機器上完成一個子任務,子任務間必須有效通信,才能保證整體任務不失敗。於是就設計了一個動態調度器Strads,其原理像拉小提琴十個手指一樣,雖然很快速且每個手指執行異步異時的動作,但最終是為了同一首小提琴曲。
最後結果不僅可以保障大型模型程序在很細顆粒度下的正確性,有時候還能實現令人吃驚的加速收斂曲線效果,這是傳統的完全同步運行程序無法達到的結果。
人工智慧「無窮動」
到了2013年年底的時候,卡耐基·梅隆大學對這個分布式機器學習系統做了開源發布,並命名為Petuum。這個名字源於義大利小提琴帕格尼尼的著名小提琴曲Moto Perpetumm(無窮動)。這首以快著稱的小提琴曲,共3005個音符、演奏者手指起落平均每秒達16次之多,曲子優美而緊湊,表達了Petuum的設計思想。
Petuum從2013年12月發布0.1版本後,到2015年7月的1.1版本,一共發布了5個版本。現在Petuum解決了1億個網絡節點的挑戰,只用5臺Petuum機器就在37小時內處理完了1億個節點,而1000臺Hadoop機群預期可能要跑400個小時。
Petuum也在不斷的發展,包括多任務資源調配問題。如同交響樂隊讓不同樂器表現不同的節奏與聲音,Petuum開發了面向多任務的靈活資源配置系統。在AI人工智慧程序部署方面,Petuum以容器的方式對程序進行了封裝,可以在不同硬體環境中自如運行,這是即插即用的設計思路。整個Petuum系統為輕量級解決方法,輕便可用、方便調試、易於維護,可以說是新一代數據中心作業系統。此外,Petuum還可運行在AWS及谷歌公有雲中。
「Petuum就是一個交響樂隊,可以有不同的組合,根據需要演奏出不同的風格,一個好的作業系統應該有這樣的靈活性。」目前,系統Petuum處在多次發布中,有規律發布開源的軟體,包括平臺和工具庫,工具庫有很多常用人工智慧的軟體,包括深度學習、主題模型等等,可登陸Petuum.org。
Petuum是從軟體優化角度對Hadoop和Spark等分布式計算系統進行了優化,在另外一條線上還有其它的科研機構試圖從硬體角度徹底解決馮·諾依曼架構的瓶頸,這就是神經元晶片以及更遠期的量子計算。
總之,人工智慧頭60年的發展,就是在起起伏伏、寒冬與新潮、失望與希望之間的無窮動韻律,尋找著理論與實踐的最佳結合點。Petuum的出現,為頭60年劃上了一個相對完美的句號,在於Petuum是在軟體層面的革新,底層依然使用CPU和GPU組成的標準化伺服器機群,這在夢想與現實之間找到一個平衡點。
基於自身轉型的需求和龐大的企業經濟體量,IBM正在真正拉動全球第一次人工智慧商業化浪潮。
儘管人工智慧已經有了60年的歷史,但是人工智慧的規模化商業浪潮卻一直遲遲沒有到來。之前,儘管有微軟、谷歌、Facebook等大公司不斷投資人工智慧技術,但大多把研究成果用於自身業務的優化與效率提升。因此,可以說2016年IBM在全球範圍內傾全力推出的「認知商業」,才是真正意義上的人工智慧商業化第一波浪潮。
早在1960年4月25日,在一份給IBM管理者的備忘錄中,當時的執行長小沃森談及IBM面臨的問題是製造「會思考的機器」。從大型機到小型機、從PC到POWER伺服器、從「深藍」到「IBM Watson」,IBM對「會思考的機器」的思考從未停止過。尤其自20世紀90年代人工智慧研究陷入低潮以來,IBM是少數堅持投入人工智慧研究的企業。
作為世界上第一家百年IT企業,IBM堅持每年研發經費投入超過60億美元。自從近年來遭遇轉型困境後,人工智慧研究成果的商業化自然成為了IBM的首選。
新一代「IBM Watson」
2016年3月1日,IBM大中華區董事長陳黎明在IBM論壇2016上,宣布IBM公司105年的歷史上第3個代表商業戰略的品牌「認知商業」落地中國。此前早在1997年,IBM就描繪了「電子商務」的願景;2008年,IBM推出了「智慧的地球」。
「認知商業」基於IBM推出的認知計算,其核心為新一代IBM Watson技術及Watson APIs。這個命名實際上來自IBM創始人Thomas J.Watson老沃森的姓氏,而IBM Watson則是繼「深藍」之後的下一個超級認知計算平臺。提起「深藍」,可謂無人不知。1997年5月1日,西洋棋大師卡斯帕羅夫最終以25:35的比分輸給了IBM RS/6000SP「深藍」計算機,舉世震驚。
由於象棋是高度結構化遊戲,實際上「深藍」並不需要太高的學習能力。有關資料顯示,1997年版的「深藍」每秒鐘可以計算2億步,存儲了100多年來優秀棋手對局的200多萬棋局。在「深藍」成功後,IBM研究院進而挑戰人工智慧的深度問答(Deep Q&A),這是人工智慧的一個重要分支,具有極為廣闊的應用空間。
IBM Watson最早現身在2011年2月美國老牌益智節目「危險邊緣」(Jeopardy!),與節目史上最強的兩位答題高手一較高下,並最終以優異的表現打敗了人類選手。從2004年提出挑戰「Jeopardy!」的構想,到2011年IBM Watson真正打敗「Jeopardy!」,中間差不多經歷了6年的時間。為什麼會這麼困難?
Watson並不是簡單的機器學習系統,當IBM的研究員開始嘗試構造Watson時,發現傳統的機器學習算法行不通。傳統的機器學習算法先歸納知識,把知識形成規則,再讓機器根據規則進行響應。這不足以讓Watson在「Jeopardy!」節目中勝出,由於數據量過於龐大,IBM研究員意識到必須讓Watson能夠自行學習知識而儘量減少人工幹預。
經過學習和訓練,Watson的Deep Q&A系統能夠從原始信息中自動抽取知識,對知識進行分類並且能夠分析和理解自然語言。如此,Watson就能夠像人類一樣學習,並從已經發生的事件進行推理和總結經驗。由於這樣的任務已經超出了前代超級計算機的能力,IBM的研究員從頭設計了IBM Watson系統,包括軟體和硬體體系。
2011年打敗「Jeopardy!」的時候,IBM Watson是由10臺IBM商用伺服器Power750組成的計算系統。2014年初的時候,IBM Watson的體積已由1個臥室縮小到3個披薩盒子那麼大,運算速度是之前的24倍,智能水平是之前的24倍。
IBM Watson的商業化進程
在小沃森的備忘錄裡,強調「計算機永遠不會取代人的主動性,也不會取代人類的創造性思維。」計算機就是要把人類從無意義的、重複性的思維模式中解放出來。因此,在IBM Watson的商業化推廣中,IBM提出了「認知計算」,強調的人與機器共存。在認知計算時代,並不是機器取代人類,而是人機協作共同創造更好的結果。
2014年1月12日,IBM宣布將投資逾10億美元,創建一個新的IBM Watson業務集團,基於雲計算交付模式,實現認知計算技術的商業化,從這一點開始標誌著IBM又一次拉開了世紀轉型。
在創建IBM Watson業務集團的同時,IBM公布了幾項基於Watson的新功能:IBM Watson Discovery Advisor、IBM Watson Analytics以及IBM Watson Explorer等,分別用於大數據探索、基於自然語言的數據可視化分析和應用程式開發框架。目前Watson Analytics在全球已經擁有超過100萬註冊用戶,2016年3月在大中華區剛推出就獲得了近2萬個註冊用戶。
IBM Watson業務集團總部位於紐約的「矽巷」(Silicon Alley),總部大樓內為創業者提供了相關的孵化器,也為IBM客戶提供了客戶解決方案中心用於體驗認知技術,還有一個設計實驗室來幫助IBM客戶和合作夥伴持續提升認知應用及服務的用戶體驗。實際上,在宣布的10億美元投資中,還包括了1億美元的風險投資,用於構建IBM Watson生態圈。
為了擴展可用的Watson數據源,IBM Watson Content Marketplace結合了各種獨特且多樣化的第三方數據,其中的數據和信息可被IBM客戶、合作夥伴、開發者和其它機構用於Watson支持的應用和服務中。迄今為止,該市場接入了Wikivoyage、疾病控制中心、Cancer.gov、美國臨床腫瘤學會等多家醫療機構的合作內容,以及美聯社、Barchart.com、晨星機構(Morningstar)、RxWiki和WAND等新聞報導檔案、健康管理、金融服務、腫瘤學、醫藥、工程及其它領域的知識庫。IBM還與Twitter、Facebook、蘋果等公司建立戰略聯盟,以便能夠存取相關的數據。
IBM專門推出了AlchemyData,通過聚合超過7.5萬個來源的新聞和博客內容,利用自然語言處理(NLP)加以強化,讓Watson應用能夠採集市場信號、實現業務流程自動化和趨勢分析。IBM後來收購的AlchemyAPI,就是一家提供人工智慧文本和圖像分析服務的前沿公司。
2015年3月,IBM宣布將向物聯網投資超過30億美元。利用這一投資,在2015年10月IBM公司透露了收購The Weather Channel的B2B、移動和雲業務的計劃,並於2016年1月完成收購,IBM將向包括中國、印度、巴西、墨西哥和日本在內的5大新興市場擴展weather.com。氣象數據在業務運營、市場營銷、風險管理等商業領域,有著廣泛的價值。
2015年4月IBM成立Watson Health,加強在醫療和健康行業的布局,先後收購了包括Explorys(一家可以查看5000萬份美國患者病例的分析公司)、Phytel(處理各類健康數據及提供數據分析的雲軟體公司)、醫療影像公司Merge Healthcare公司。其中,Merge的技術平臺普遍應用在7500餘家美國醫院及全球眾多著名臨床研究機構和製藥公司。
2016年剛開年,IBM就宣布進行了郭士納以來一次大型的組織調整。這次調整涉及了IBM的三大部門——全球行業事業部門、整合認知解決方案部門以及雲計算部門,筆者認為其中的商業邏輯將會是全球行業事業部門梳理行業用戶需求、整合認知解決方案部門根據需求開發認知解決方案、雲計算部門提供平臺支持。
2016年3月1日,IBM向中國市場推出「認知商業」品牌,在中國市場展開了鋪天蓋地的宣傳推廣活動。3月15日,IBM宣布基於認知計算的IBM營銷雲落地中國,特別加入了對於微信的支持。
算法經濟時代的到來
IBM正在轉型為一家認知計算公司,其背後的大邏輯是全球正在進入一個算法經濟時代。自去年以來,Gartner就在多份報告中強調,算法連通了人、事物、業務及信息,將創造全新的商業價值。在未來,算法將成為企業的核心資產,代替企業把大數據轉化為商業洞察、自動化業務流程以及差異化產品與服務。一句話,算法將統治世界。
在一個算法經濟時代,人工智慧算法僅是眾多算法中的一種。IBM董事長Ginni Rometty在去年10月的Gartner全球峰會上說,Watson並不僅僅是人工智慧,人工智慧算法是Watson背後32個引擎中的一個。實際上在過去的幾年間,除了推動Watson認知計算的商業化之外,IBM一直在不餘遺力的收購商業算法公司,納入到IBM整體的算法體系。
IBM於2011年花費近4億美元收購了一家叫做Algorithmics的公司,其業務就是用商業算法來計量金融交易的風險。Algorithmics參與了國際巴寒爾協議的諮詢與建議,不斷跟蹤巴寒爾協議進展並把新的規範編入算法中,再把算法賣給各國的銀行用於金融風險監控。據有關統計,在收購Algorithmics之前,IBM就已經花費了140億美元用於收購25家分析公司。
當然,在整個IBM算法體系中,Watson認知計算是「皇冠上的明珠」。IBM Watson業務集團高級副總裁Michael Rhodin說:「在IBM 100年的歷史上,Watson是我們最重要的創新之一。」IBM董事長Ginni Rometty在去年10月的Gartner全球峰會上說,推動全球邁向「認知商業」時代,「這是我們的登月工程。」
在已經推出的Watson API中,包括:文本轉語音API,歷經12年的研發,最新加入的情商功能讓文本轉語音的時候能適應語境與情緒;語調分析器API,可對文本中的語調進行分析,獲得更好的觀察;情緒分析API,通過複雜的自然語言處理,感知外部環境中用戶情緒的變化;視覺識別API,可以定製化適應不同企業的圖像識別需求等等。據統計,Watson API每月被調用高達13億次,並且還在快速增長。
目前已經有36個國家、17個行業的企業在使用Watson的認知技術,全球超過7.7萬名開發者在使用Watson Developer Cloud平臺,超過350家生態系統中合作夥伴及企業內部創新團隊正在構建基於認知技術的應用、產品和服務,其中100家企業已將產品推向市場。
可以說,基於自身轉型的需求和龐大的企業經濟體量,IBM正在真正拉動全球第一次人工智慧商業化浪潮。而在這次大浪潮之下,首先受益的將是商業智能算法公司,包括IBM、SAS、QLIK、Tableau等商業智能軟體公司將迎來黃金時代。
增強學習算法更接近生物學習的行為特徵,具有探索未知世界的能力。AlphaGo對增強學習算法的探索,打開了「無窮大」的大門。
AlphaGo戰勝人類圍棋高手李世石的事件,正好發生在60年這個時間節點上,可以說是全球人工智慧界承上啟下的裡程碑式事件。簡單說,AlphaGo的算法是前60年人工智慧研究都很少觸及的領域:增強學習,即無監督的深度學習,而前60年的主流算法為有監督的深度學習。
而在60年這個節點上,經過了1980年和2000年兩次寒冬,全球人工智慧界又迎來了第三次浪潮。這一次,隨著前60年有監督深度學習算法的理論研究和工程化的成熟,以及硬體計算能力的大幅提升和成本的飛速降低,在雲計算、大數據和移動網際網路的融合推動下,人工智慧在很多方面都有了突破性進展。
更為重要的是,除了微軟、IBM等大公司外,谷歌、Facebook、百度等網際網路巨頭紛紛向人工智慧領域投巨資進行研發,各國政府也開始意識到人工智慧是未來社會的戰略制高點,甚至人工智慧有可能成為未來社會的一部分。
承上啟下的AlphaGo
當AlphaGo戰勝李世石的消息傳來,深藍之父Murray Campbell就此評價說:「這是人工智慧一個時代的結束。」
兩次人機大戰時隔20年,這其中最重要的差別在於象棋與圍棋的複雜度差異巨大。人工智慧之所以能夠先戰勝西洋棋冠軍,在於西洋棋可以窮盡接近所有可能的棋局,而圍棋就不一樣了。圍棋棋局究竟有多少種變化?普林斯頓的研究人員給出了一個最小的數字:19x19格圍棋的合法棋局數為10的171次方,這個數字接近無窮大。
根據美國Wired網站長期跟蹤谷歌的記者Cade Metz的報導,AlphaGo前期通過一個已知職業棋手的3000萬步資料庫進行訓練,在獲得相當的熟練度後,AlphaGo開始用增強學習算法與另一個AlphaGo程序相互博弈,探索未知的但與取勝有關的棋局,用以培養自己的「智能」。圍棋對於人工智慧來說,相當於是求解一個開放式的問題。
機器學習算法大致可以分為3種:監督學習(如回歸、分類)、非監督學習(如聚類、降維)和增強學習。人工智慧前60年,主要通過有監督的深度學習算法,解決語音識別、圖像識別、自然語言理解等總樣本量有上限的相對「有窮大」問題。
增強學習算法主要從任意初始狀態開始,機器與外部環境持續交互,通過不斷試錯和累積回報來「學習」最佳策略,在這個過程中外界不給予直接指導(監督),只給予間接的或是遠距離的回報(Reward)。舉例來說,訓練室內機器人完成某個任務,在這個過程中人類並不幹涉,只有當機器人接近完成任務時才給予正反饋。
換句話說,增強學習算法更接近生物學習的行為特徵,具有探索未知世界的能力。AlphaGo對增強學習算法的探索,打開了「無窮大」的大門。
語音識別走下神壇
微軟是人工智慧領域的另一巨頭。微軟人工智慧首席科學家、美國IEEE電氣和電子工程師協會院士鄧力長期投身於語音識別研究,在自動語音與說話者識別、口語識別與理解、語音-語音翻譯、機器翻譯、圖像和多模態信息處理等領域做出了重大貢獻,憑藉在深度學習與自動語音識別方向的傑出貢獻,獲得了2015年度IEEE信號處理技術成就獎。
鄧力表示,有監督的深度神經網絡已歷經了研究與確認,被認為是能夠解決語音和圖像識別的最有效的工具。基本上到2012年的時候,有監督深度神經網絡用於語音識別就已經成功取得突破。當時,微軟研究院全球院長Rick Rashid在天津成功演示了一個全自動同聲翻譯系統,實時把英文演講翻譯成中文並以中文語音輸出。
Rick Rashid演示中的語音識別部分採用了有監督學習的深度神經網絡工具,最先由鄧力和他的微軟同事於2009~2010間與多倫多大學的Geoffrey Hinton教授合作開發。如今,微軟的語音識別技術已經工程化並廣泛用於微軟的多個產品中。
作為中國的國家隊,科大訊飛在智能語音技術領域有著長期的研究積累,並在語音合成、語音識別、口語評測、自然語言處理等多項技術上有著國際領先的成果。2008年6月,科大訊飛參加NIST(美國標準技術研究院)舉辦的說話人識別SRE大賽,就在3項關鍵指標中,獲得兩項第一、一項第三、綜合評比第一的好成績。
科大訊飛是中國唯一以語音技術為產業化方向的「國家863計劃成果產業化基地」、「國家規劃布局內重點軟體企業」、「國家高技術產業化示範工程」,並被原信息產業部確定為中文語音交互技術標準工作組組長單位,牽頭制定中文語音技術標準。
基於自主智慧財產權的智能語音技術,科大訊飛已推出從大型電信級應用到小型嵌入式應用,從電信、金融等行業到企業和消費者用戶,從手機到車載、從家電到玩具等不同應用場景的多種產品,還發布了「訊飛語音雲」平臺。目前,科大訊飛已佔有中文語音技術市場70%以上市場份額,開發夥伴超過5000家,以訊飛為核心的中文語音產業鏈已初具規模。
計算機視覺逼近拐點
視覺識別是人工智慧的一個重要研究領域,沒有視覺識別能力的機器人無法真正與外界交互。2015年,在微軟等大公司的推動下,計算機視覺已經逼近全面突破的拐點。
ImageNet是全球頂級的計算機視覺挑戰賽,挑戰賽項目之一是對1000類、120萬張網際網路圖片進行分類,每張圖片人工標註5個相關類別,計算機識別的結果只要有一個和人工標註類別相同就算對。對於該圖片集,人眼辨識錯誤率大概為5.1%,目前只有谷歌和微軟等個別參賽團隊的算法能夠達到低於5%的結果。
2015年12月10日,微軟亞洲研究院視覺計算組在ImageNet計算機識別挑戰賽中再次打破紀錄,獲得圖像分類、圖像定位以及圖像檢測全部三個主要項目的冠軍,將系統錯誤率降低至3.57%。在計算機視覺識別領域,卷積神經網絡(即為有監督的深度學習)是主要的算法。微軟亞洲研究院視覺計算組首席研究員孫劍介紹說,他所帶領的研究團隊使用了高達152層的深層卷積神經網絡算法,比以往任何成功的算法層數多達5倍以上。
而在另一方面,微軟亞洲研究院硬體計算組與清華大學電子工程系一直在硬體加速領域合作了,從2013年開始雙方一起研究怎樣把深層卷積神經網絡與智能硬體結合起來,其成果就是基於FPGA(可編程晶片)技術的A-Eye視覺晶片。微軟的研究表明,高端GPU的圖像處理能力是FPGA的2到3倍,但FPGA的功耗約是高端GPU的1/10,多個FPGA結合能以低功耗達到GPU的處理能力。
據微軟亞洲研究院硬體計算組主管研究員徐寧儀介紹,A-Eye視覺晶片包括了一個基於軟體的壓縮算法和基於FPGA晶片的硬體實現,其本質上是通過軟體壓縮和定製的硬體加速,讓計算機視覺識別算法適用於普通的智能終端。基於A-Eye技術的高性能智能視覺晶片,可以廣泛用於智能安防、嬰兒和老人看護、無人汽車和無人機等各種需要計算機視覺的領域。
目前卷積神經網絡的圖像識別能力有賴於輸入的原始數據集,例如用花卉圖像集訓練出來的算法就只能識別花卉。基於Bing搜尋引擎的大數據,接下來微軟正在探索通用型視覺識別算法和工程化實現。一旦工程化實現了通用型視覺識別技術,智能機器張眼看世界的那一天就不遠了。
開始探索情感算法
整個人工智慧研究的起源,在於一個基本的假設,即能夠用機械的方式模仿人類的思維。人工智慧前60年,就在這個方向上不斷地探索。但是,能否用機械的方式模仿人類的感情呢?
情感的表達遠非「0」或「1」那麼簡單,就像人類的愛情絕非對與錯那樣絕對。如何讓機器理解人類的情感,又如何把情感與知識進一步結合,發展出全新的計算架構?情感計算前進之路更加艱難,直到微軟「小冰」的出現。
最開始作為一個聊天機器人,微軟小冰由微軟亞洲網際網路工程院開發,2014年5月29日,一代小冰開始了微信公測,在3天內贏得了超過150萬個微信群、逾千萬用戶的喜歡。2015年8月20日,第三代微軟小冰正式發布。2015年11月小冰發布了計算視覺功能,從此,小冰還能根據圖片和視頻與用戶聊天。
然而,微軟小冰的意義絕不僅僅是聊天機器人。微軟全球執行副總裁沈向洋說,希望小冰成為一個慢慢融入人類社會的機器人、每一個用戶的個人助手,而且是一個真正通過情感計算,理解用戶、能夠交流、能夠溝通的人工智慧機器人。在更深層上,微軟小冰正在成為整個微軟的人工智慧基礎設施,小冰的研究成果正擴散到微軟產品與服務的方方面面。
初步統計,僅在微軟亞洲研究院就有將近15個研究團隊與負責小冰的算法研究,而包括以色列、紐約、休斯頓總部的微軟研究院也正為小冰提供技術支持,涉及包括大數據、自然語言互動、計算機視覺、SR(語音識別)、TTS(文字到語音轉換)、IoT等十幾個領域。
想像一下,未來的家庭裡將出現智能手錶、智能音箱、智能電視機、智能冰箱、智能燃氣表、智能玩具等多種智能設備,人們無法再通過一個個APP與這些智能設備溝通,就必須出現一個超級APP來管控所有的智能設備,微軟小冰就有望成為這樣的超級人機互動界面。
從底層晶片突破人工智慧
2016年3月24日,在ARM公司與重慶市的戰略合作籤約儀式上,重慶市長黃奇帆在致辭中表示「一切人工智慧的源頭,集中在晶片上」。
黃奇帆市長可能沒有意識到,這個論斷也是未來60年人工智慧發展的重要主題之一。在人工智慧前60年的發展中,馮·諾依曼架構的瓶頸已經成為共識,在接下來的60年裡,如何打破馮·諾依曼架構的瓶頸,已經成為各大公司和各國政府戰略級的研究項目。
2014年8月,IBM研究院在《科學》雜誌上介紹了一款名為「TrueNorth」神經元晶片,它從底層模仿了人腦結構而且用普通半導體材料就能製造出來。TrueNorth表面上看起來和普通處理器沒有太大區別,它的核心區域內擠滿了4096個處理核心,用來模擬超過百萬個人腦神經元和2.56億個神經突觸。
2008年初,IBM TrueNorth研究項目獲得了美國五角大樓高級計劃研究局(DARPA)的5300萬美元資助,DARPA認為這項研究有助於突破馮·諾伊曼計算機體系。TrueNorth由三星代工生產,具備量產的基礎。基於TrueNorth晶片,IBM已經研發出了神經元計算機原型機,能夠以低功耗實現更高準確率的圖像識別、視頻處理等人工智慧關鍵性功能。
2015年4月,IBM研究院Mark Ritter在他的一篇博客中,介紹了IBM在量子計算機方面的研究突破。IBM的T.J.沃森研究實驗室的一組科學家和工程師,正處於開發首臺真正量子計算機的前沿。2015年4月,這個團隊在科學雜誌《Nature Communications》(《自然通訊》)上發布了一篇重要的論文,介紹了在實現可行性量子計算機中的兩個關鍵性進展。
1981年在MIT召開的首屆量子計算會議上,諾貝爾獎獲得者Feynman挑戰科學家們研究量子計算機。與現代計算科學的方式方法截然不同,在量子計算前提下,整個計算基礎設施必須被重新想像與重構。除了IBM外,谷歌與微軟也集合了科學家與高校的力量投入量子計算的研究。Mark Ritter認為,IBM有望首先實現量子計算機,而當前正在進入量子計算研究的黃金時代。
除了遠期的神經元晶片和量子計算機外,NVIDIA、Intel、ARM等公司通過改進現有的晶片設計,把人工智慧推進到底層晶片中。NVIDIA的GPU被用於數據中心的大規模分布式機器學習環境,區別於傳統CPU的Intel Xeon Phi更強調與CPU協同工作的GPU技術,而在移動網際網路時代遙遙領先的ARM則在智能汽車、可穿戴設備、智能家電、物聯網、工業裝置等領域圍繞未來人工智慧場景來思考一代又一代的晶片設計。
ARM全球CEO Simon Segars在接受採訪時表示,必須以更具成本效益的方式實現人工智慧應用,只有當AI的成本和價格是普通人都能夠承擔時,AI才是真正達到了人們期望的目標。2016年3月,ARM宣布與臺積電合作展開7nm晶片的研究,能以更高性價比廣泛應用於智能終端和數據中心,預計在2017~2019年量產。目前,其它晶片公司還停留在10nm晶片的競爭。此外,ARM還加入了由Facebook發起的開源硬體項目OCP,該項目邀請開源硬體社區共同設計下一代數據中心的硬體設備,ARM就在與Paypal聯合開發低功耗的定製化晶片。
創業者把AI擴散到社會的每一個角落
隨著AlphaGo在全社會引起了巨大的反響,新一輪人工智慧創業潮正在醞釀中。2016年3月26日,科大汛飛與專注天使輪投資的阿爾法公社宣布了AI領域聯合天使投資計劃,未來將在AI領域展開批量投資。科大訊飛高級副總裁江濤表示,在未來社會裡AI將成為水和電一樣的基礎性資源,創業者們將把AI擴散到社會的方方面面。
為什麼說AI將成為基礎性社會資源?原因很簡單,今天的網際網路已經成為了基礎性的社會資源。而在萬物網際網路時代,物聯網的規模遠遠大於今天的網際網路。除了接入現有的網際網路設備外,未來的物聯網還將接入大量機器對機器(M2M)網絡。在一個更為複雜和龐大的物聯網前提下,人工智慧就必須成為整個物聯網的關鍵組成部分,進而成為基礎性資源。
如果說過去的人工智慧創業必須要在基礎科研層面有所突破,如今這個壁壘已經被打破。谷歌、微軟、Facebook等大公司以及卡耐基·梅隆大學、NYU等高校紛紛開源核心的機器學習算法,谷歌的TensorFlow、微軟的DMTK、Facebook的Torch、卡耐基·梅隆大學的Petuum、加州伯克利分校的Caffe等,都提供了成熟的人工智慧和深度學習算法模塊。而IBM Watson認知計算雲服務,本身就是以低價格向全社會大規模輸出人工智慧的能力。
值得注意的是,大公司開源出來的機器學習算法並不是簡單的宣傳「噱頭」,而是貨真價實的「乾貨」。微軟開源版DMTK包含了目前世界上最大規模的主題模型和分布式詞向量模型,DMTK還是分布式機器學習工具,讓創業者很簡單就在多機環境甚至是集群系統中部署大規模機器學習算法,大幅降低了機器學習創業的門檻。為什麼這麼多大公司都紛紛開源自己的核心機器學習算法呢?原因很簡單:爭奪下一個生態。
當然,也有人擔心大公司將壟斷未來的人工智慧社會。2015年12月12日,特斯拉CEO Elon Musk在Twitter上宣布正式啟動非盈利人工智慧項目OpenAI。OpenAI是一個非營利性的人工智慧研究公司,目標是「推動數字智能的發展,同時不被財務回報所限制,從而造福整個人類」。OpenAI籌措了10億美元作為經費,從谷歌等公司挖來了人工智慧專家,專門研究人工智慧技術並答應無償公開。顯然,OpenAI是人工智慧創業的又一劑強心針。
另一方面,人工智慧創業迎來黃金期,還有另一個時代背景。微軟亞洲研究院人工智慧研究組首席研究員、卡耐基·梅隆大學博士生導師劉鐵巖告訴記者,近年來全球機器學習領域的三大趨勢包括更大規模的機器學習、更深度的機器學習以及更強交互性的機器學習,這些都是基於大數據與雲計算的興起。正是因為廉價的雲計算和大數據技術,人工智慧才有可能擴散到社會的每一個角落。
近年來,人工智慧正快速滲透到安防行業的各個環節,安防也是目前AI公司爭戰的主戰場。緊跟「新科技、新理念、新政策」,億歐高度重視人工智慧在安防行業的應用落地,並推出《安防創新百人會》欄目。
我們將採訪100家安防產業鏈上下遊企業,同時,億歐將於2018年5月25日在北京舉辦「億歐GIIS·安防AI創新千人峰會」,本欄目所採訪企業也將是大會重要參與方。
如果您有合適的企業推薦,或者想加入「億歐安防AI創新學習群」(餘凱、孫劍、徐立、浦世亮、陳寧等行業大咖都在群裡),均可聯繫億歐記者李論(微信:lilun18846810390)。
本文經授權發布,版權歸原作者所有;內容為作者獨立觀點,不代表億歐立場。如需轉載請聯繫原作者。