雷鋒網 AI科技評論按,2017年11月25日,由中國中文信息學會主辦,哈爾濱工業大學(深圳)承辦的中國中文信息學會2017學術年會暨理事會在深圳大梅沙雅蘭斯麗比迪酒店隆重召開,雷鋒網 AI科技評論也趕赴現場為大家帶來報導。
此次會議邀請到學界和業界的多位知名專家,會議首日,美國伊利諾伊大學香檳分校(UIUC)計算機系教授翟成祥、中國科學院心理研究所所長傅小蘭、京東矽谷研究院主任研究員李維、清華大學醫學院生物醫學工程系宋森、今日頭條人工智慧實驗室主任李航為大家帶來了五場精彩紛呈的特邀報告,橫跨心理學、計算機科學、神經科學等多個領域。
對於為什麼涵蓋這麼多的領域,中國中文信息學會理事長方濱興院士表示,中文信息處理能擴展到各種信息處理方面,如語音處理等,這種寬泛性表示了一種跨領域的屬性,往往為創新提供了更多契機。
翟成祥教授:TextScope: Enhance Human Perception via Text Mining
在上午的第一場特邀報告上,翟成祥教授帶來了題為《TextScope: Enhance Human Perception via Text Mining》的主題報告,報告伊始,他表示,TextScope是一個形象的比喻,他將從大數據的角度分析文本數據存在的價值。「文本數據到處都有,這可以看作人對世界感知以後的數據,和傳感器、溫度計等沒有很大的區別,這些都是對世界的感知和觀察。 通過對文本數據的分析,既可以觀察到觀察者眼中的世界,也可以分析到觀察者的想法,這是帶給我們的機遇。」他如是說道。
之後,他強調了利用文本數據可以進行的相關研究,如從文本數據考察語言知識,用來預測現實世界的幾乎所有變量,將來的趨勢等。「文本數據包含了世界的很多知識,另外,利用文本數據在分析文本時能提供語境。」
對於如何讓文本產生更大的價值,他提出了如下觀點:多個文本數據拼湊在一起會產生極大的價值,將非文本與文本結合在一起,也有很多進行研究的空間。
在演講中,他做了一個形象的比喻,將顯微鏡和望遠鏡結合在一起,可以擴寬我們的感知,讓人看到更多的東西,TextScope是一個採用文本數據作為支持,用自然語言理解、信息檢索、數據挖掘、機器學習來構造的交互式系統,也可以擴寬我們對世界的感知,與顯微鏡和望遠鏡相比,它能讓我們看到更為複雜的知識和內在動向。
他們希望能構造文本分析、機器決策的通用工具,在主題分析方面可以滿足個性化的需求。對於具體應用,他首先提到了醫院的醫療系統,如預測、診斷、治療等,系統會通過數據挖掘,研究藥物的副作用,進而提供給醫學研究人員作進一步考察。此外還有商業智能方面的用途,可以通過用戶對產品的評論來進行分析,分析評論者是對價格更看重還是對服務更看重,從而進一步細化分值,對用戶進行個性化推薦。最後他提到股市預測,通過分析股票新聞與文本新聞之間的關係,挖掘出有用信息。
他強調,在這一過程中,人和機器的合作很重要。他表示,TextScope只是一個設想,這個系統前景很大,最終目標是研究人和計算機如何優化合作,將來的方向有通用系統、決策系統、預測系統等 。他也說到,目前的系統如chatbot等只能從與人的對話中學習,不能超越人類,而將來的系統都是向智能agent方向發展 ,要能學會探索。在未來,也存在很多很大的挑戰,例如怎麼讓人機合作(心理學部分很重要),如何解決系統的操作,如何應對魯棒挑戰等。
傅小蘭研究員:感知、記憶和判斷的認知計算模型(PMJ模型)
在翟成祥教授的報告結束之後,傅小蘭研究員帶來了題為《感知、記憶和判斷的認知計算模型(PMJ模型)》的報告。對於為什麼要提出PMJ模型,她表示,「認知即計算」已成為認知科學的主流觀念,計算機科學不僅關注數值計算,更重視解決現實世界的問題 ,人類作為智能生物對複雜環境信息的高效加工方式,值得計算機科學借鑑。她進一步闡述了什麼是認知計算,「認知計算是以人為中心的計算,要解決計算問題,更要解決認知問題,要利用認知神經科學成果對計算模型提出生物學意義的具體約束,要利用腦功能連接組學成果對大腦神經網絡進行建模和仿真。」
那麼PMJ模型的核心思想是什麼呢?傅小蘭研究員提到如下三點:一是認知加工過程主要由感知、記憶和判斷組成 ;二是認知加工通路大致分為快速加工、精細加工和反饋加工 ;三是認知過程的感知、記憶和判斷對應於計算流程的分析、建模和決策。接下來,她還進一步解釋了三種不同的加工通路,「快速加工通路類比於大細胞通路及其關聯的皮層通路,這是一種「快而糙」的算法,精細加工通路類比於小細胞通路及其關聯的皮層通路,則是一種「慢而精」的算法 ,而反饋通路是指自上而下的反饋。」
之後,她細緻描述了PMJ模型中的五個假設以及這五個假設的指導意義。這五個假設分別是:1) PMJ各階段的輸入輸出可量化計算;2) PMJ各通路協同完成認知加工;3) 視覺顯著特徵自動捕獲注意;4) 意圖和先驗知識自上而下地引導注意;5) 判斷的輸出可預測感知輸入。
除此之外,她也介紹了大量相關的研究工作,如基於PMJ的圖像情感預測和圖像顏色修改。
在報告的最後,她說道,「在網絡化、雲計算和大數據時代,隨著智慧型手機和穿戴式終端的普及、智能家居和物聯網的興起,智能計算必將逐漸滲透到當今社會的每個角落,為人們更方便、更舒適、更健康地生活和工作提供全方位服務。」
而在她的報告結束之後,對於這一研究領域,大家也進行了踴躍的提問,諸如目前是否有方法能追蹤人腦思維信號,心理學與計算機科學之間的聯繫等。
李維博士:Deep-Parsing Chinese
傅小蘭研究員的演講結束之後,李維博士作為上午最後一位演講嘉賓,一出場就引發了一陣拍照狂潮。他的報告主題是《Deep-Parsing Chinese》,主要為現場觀眾帶來了如下四個方面的知識,一是自然語言處理的架構解析,二是中文語言解析的挑戰和迷失,三是如何應對這些挑戰,四是如何落地和應用。
演講伊始,他拋出了自己的核心觀點:自然語言的核心是怎麼去理解它,怎麼去進行深度解析,他為大家展示了一張自然語言處理框架圖。「我們需要把碎片化的情報進一步挖掘,然後再延伸到應用層。淺層工作做完之後,需要研究怎麼深入到深層去,深度解析是自然語言的核武器。」
他表示,深度解析實際上已經到了比較成熟的領域,自然語言雖然很難,但從大數據的角度來看,目前到了足以提供應用的階段。自然語言的深度解析現在已經達到robust,可以處理混雜的語言對象,傳統指標F-score已經達到接近人的程度。
他也提出漢語句法分析時常見的問題,比如說我喜歡烤紅薯,那麼到底是喜歡烤,還是喜歡紅薯呢?另外還有其他常見的問題,比如不用標點符號、出現錯別字、省略很多小詞、詞序混亂等。很多人認為漢語詞序是固定的,對於這種看法,他提出了不同意見,他表示,詞序並不固定的,例如「我雞吃了」和「雞我吃了」這兩句話。
提到中文語言解析的挑戰和迷失,他表示一共有三點:第一點是在很多大會上都會有人說中文很獨特,有很多難點,事實上不是這樣的,每種語言都需要tokenization;第二是POS tagging,從理論上說沒有必要去做POS tagging,另外對於深度解析,不要去用別人的POS tagging,這樣做之後,後續會永無止境的需要調節。第三個迷失是不應該認為自然語言的本質是循環,他認為Chomsky的思想割裂了漢語的兩面性。
如何突破Chomsky的圍牆,他表示,CFG的典型算法是把東西一鍋燴去做句法分析器,現在主張用 軟體工程的辦法把任務一層一層變小,FSA解決了recursion的問題,不過可能有人批判會出現錯誤放大。
至此,上午的主題報告結束。
宋森教授:語義處理的神經機制及神經符號主義系統
下午的報告有兩場,第一場是宋森教授帶來的《語義處理的神經機制及神經符號主義系統》,宋森教授開場提到了深度學習面臨的問題:大自然是複雜的系統,自然界的很多現象都呈現長尾分布,在大數據條件下,深度學習做得不錯,但面對小數據時,深度學習經常犯致命錯誤,這時候應該怎麼辦?人會採取推理、類比的方法,這時候我們可以從大腦中得到很多啟發。他為現場聽眾細緻描述了大腦的全局連結結構,他表示,不同的任務會激活不同腦區,連接結構也不同,過去的十年人們才開始搞清楚這些網絡。他提到最近用計算機科學知識幫助神經科學研究的最新文章,也提到2016年發表在nature上的一篇比較有代表性的文章,對細節進行了分析。
接下來他細緻描述了局部編碼。「大腦的一個最基本特徵就是高度並行,用空間換時間。比如要表徵8這個數字,在計算機中可能用二進位編碼;在外周神經,可能是單個神經元發放8個spike,採用頻率編碼;而在中樞神經,採取8個神經元,其中一個神經元發放一個spike就可以了。」
對於稀疏編碼理論,他表示這與計算機有很多結合點。他提到做過的一系列實驗:給受試的小組看不同的短片,觀察細胞對事件的反應。之後他也提到對大腦的更多分析:大腦中存在hub腦區,這些腦區的時鐘比較慢,而其他腦區的變化比較快,尤其是管感知的腦區。
而對於語義理解中的神經符號系統,他表示有兩條路徑,第一是神經網絡-符號系統的對偶,在這裡神經網絡和符號系統完成同樣的功能,但是互相交流和借鑑,從而加速學習;第二是神經網絡-符號系統的協作,神經網絡和符號系統完成不同的功能,成為複雜系統相互協作的模塊。
在他的演講結束之後,大家也提出了各種各樣的疑問,諸如動物的語義系統和人的語義系統的區別,怎麼理解人在理解語言是大腦的工作,實驗中受試者是否分類等。
李航研究員:人工智慧的未來—記憶、知識與語言
最後一位帶來分享的特邀講者是李航研究員,他的演講主題是《人工智慧的未來—記憶、知識與語言》。在演講伊始,他先是描述了記憶對我們的重要性,他舉了英國音樂家 Clive Wearing 的例子,Clive患了失憶症中最嚴重的一種,不能去記新的東西,過去的記憶也有很多缺失,只有瞬間記憶。他藉此引出了人腦的結構,其中的重要器官是海馬體。之後李航博士引用了Frank Longo的大腦功能模型,為我們進行了詳細的解讀,他表示大腦的短期記憶能持續18-30s,而長期記憶的特點是對信息進行了壓縮處理。
說完人腦之後,他提到了人工智慧系統。「這些系統沒有長期記憶,比如AlphaGo、自動駕駛等,這些都是通過機器學習事先學好,調用不同模型。這是目前人工智慧系統的主要模式。」
那麼未來會是什麼樣的呢,如何構建出智能的問答系統?他為我們講解了這樣的系統的框架,其中包括語言處理模塊、短期記憶、長期記憶等,和大腦功能模型的圖基本一致。他表示,假設系統能不斷讀數據,那麼能不能構建一個非常好的語言處理模塊,將數據進行壓縮表示之後放到長期記憶裡。「這樣是一個進步,不僅有AI系統,有意識,有長期記憶,還能做自然語言問答,這是現在的願景。」
而想要實現這個願景也存在很多挑戰,在自然語言處理的過程中,經常會遇到歧義性、多樣性,另外,語義是一個非常模糊的東西,一個詞的語義可以發生各種擴展,另外還存在知識概念的模糊性,有名的例子就是bachelor的概念。
那麼有什麼好的解決手段呢?他表示,將神經處理和符號化處理結合進行互補是個好辦法,用神經符號的方法實現智能問答系統,沿用深度學習概念,將符號表示和向量表示結合。其實這樣的工作業界也有在做,比如Nell系統。此外他也提到可以借鑑深度學習的方法做端到端學習。他表示FaceBook提出的memory networks系統根據描述做簡單問答,其核心也是長期記憶。而最近最接近的工作是谷歌的neural symbolic machines模型,可以從知識庫自動找到答案,這個模型有大量訓練數據,可以把自然語言轉換到命令,連接到符號處理。之後,他也介紹了之前的相關工作。他的願景是希望在未來能實現AI系統的長期記憶,通過神經符號處理的技術,把神級網絡和符號處理結合起來,把自然語言推到另一個高度。
至此,五位嘉賓帶來的精彩報告全部結束。
短暫的茶歇之後,迎來了學會2017年技術評測工作回顧,由學會副理事長黃河燕教授主持並進行了學會評測工作介紹。本年度開展了評測工作的7個專業委員會的代表分別就各專委會開展的評測工作做簡要報告,報告內容如下:
信息檢索專委會:郭嘉豐研究員,「面向智能問答的偏正排序評測報告」
知識與語義計算專委會:韓先培副研究員,「全國知識圖譜與語義計算大會技術評測工作回顧」
社會媒體處理專委會:蔣盛益教授,「SMP技術評測的實踐與思考」
計算語言學專委會:車萬翔副教授,「首屆中文機器閱讀理解評測介紹」
少數民族語言專委會:趙小兵教授,「民族語言自動分詞評測MLWS2017」
機器翻譯專委會:黃書劍助理研究員,「CWMT2017機器翻譯評測介紹」
搜狗:許靜芳研究員,「CIPS-SOGOU 問答評測比賽情況介紹」
至此大會第一天的活動全部結束,雖然活動已經結束,但精彩內容還在繼續,雷鋒網 AI科技評論後續也將整理出部分嘉賓的精彩演講內容,敬請期待。