澳門大學陳俊龍:顛覆縱向的「深度」學習,寬度學習系統如何用橫向...

2020-12-12 雷鋒網

雷鋒網 AI 科技評論按:想必各位讀者對深度神經網絡及深度學習都不會感到陌生,不論是在數據處理或是應用層面,都取得了斐然的成績。但囿於結構的複雜性及超參數的數量巨大,一方面帶來了訓練時間過多的困擾,另一方面,為了追求精度,深度模型需要持續增加層數及參數,反過來又給深度學習帶來了進一步的訓練難度。如何在保證效果的前提下極大地縮短神經網絡系統的訓練時間?學者們也做出了不少探索和嘗試。

澳門大學講座教授陳俊龍教授在近年來致力於解決這一問題。結合他在早期所做的單隱層網絡的相關研究,陳俊龍教授提出了一個名為「寬度學習系統」(Broad Learning System,BLS)的網絡結構,並從去年開始在多個場合提及這一概念。

今年年初,陳俊龍教授團隊的相關論作「Broad Learning System: An Eective and Ecient Incremental Learning System Without the Need for Deep Architecture」也將在 IEEE Transactions on Neural Networks and Learning Systems, pp. 10-24, Vol. 29, Issue 1, 2018 發表。

為此,雷鋒網 AI 科技評論與陳俊龍教授進行了一次交流,深度探討了他關於 BLS 的研究體會,藉此得以從論文作者的角度一窺 BLS 的研究思路。

(陳俊龍教授簡介於文末。)

圖片由受訪者提供

寬度學習系統(BLS)是作為一種「深度學習網絡的替代方法」被提出的,它基於將映射特徵作為 RVFLNN(隨機向量函數連結神經網絡,random vector functional link neural network)輸入的思想而設計。

上世紀 80 年代,早期的神經網絡工作主要集中於解決調參與層次結構問題,特別是梯度下降參數的求解。當時還在美國攻讀學位的陳俊龍就已經涉足神經網絡、模糊系統及遺傳算法的研究。在 90 年代末期,陳俊龍教授基於包約翰教授提出的 RVFLNN 進行了單隱層神經網絡的研究,在增量學習上做出了一些成熟探索。但限於當時的時代條件,對大數據及訓練時間的需求並不迫切,利用 Kernel 的概念及相關應用也尚未流行起來,因此這一理念並沒有得以延續。

而在近年,陳俊龍教授與學生們也做了一些模糊神經網絡結構對等以及模糊波斯曼機的深度神經網絡的相關研究。儘管系統在精度上得到了提升,但在訓練時間耗時過多的特性依然不盡人意。陳俊龍教授聯想到自己往期所做的相關工作,開始規劃設計一個「又快又準的算法和結構」。

BLS 最重要的特點在於它的單隱層結構,具有兩個重要的優勢,一個是「橫向擴展」,另一個則為「增量學習」。與深度神經網絡不同之處在於,BLS 不採用深度的結構,基於單隱層神經網絡而構建,可以用「易懂的數學推導來做增量學習」。

以往在精度不夠準確時,深度神經網絡會採用增加層數或調整參數個數的方式來達到這一目的,而 BLS 可以採用橫向擴展的方式,利用輸入映射的特徵作為網絡的「特徵節點」,再增強為隨機生成權重的「增強節點」,並將映射特徵與增強節點直接連接到輸出端,對應的輸出係數可以通過快遞的 Pseudo 偽逆得出這樣一來,新加入的神經節點,包括新加入的特徵節點,BLS 並不需要從頭開始學習,只需要調節與新增節點有關的權重,也可以對新加入的輸入同時做增量學習。

這兩點可以讓系統「在很短的時間內找到非常高效的結果」,論文中的「eective」 和「ecient」由此而來。

陳俊龍教授告訴雷鋒網 AI 科技評論,BLS 最重要的部分在於「從輸入值映射到特徵值」,「這概念有點像 SVM 裡頭的 Kernel 轉換。或者是 CNN 裡頭的卷積運算。經過轉換的新數組,我們可以稱為『特徵值』。這轉換可以隨機產生,也可以微調,並由最後一層的權重再做最優值。」

而在 MNIST 與 NORB 資料庫上的表現可以看到,雖然 BLS 的測試準確度並非是最高的,但相對而言,在伺服器上的訓練速度要明顯快於其它深度結構神經網絡系統。寬度學習算法能夠逐步更新建模系統,而不需要從頭開始重新訓練。「對於結構改變或輸入變化是而不需要從頭開始訓練學習。因為學習時間非常快,也可以利用網格搜索很快速地找到一個優化的 BLS 結構。」陳俊龍教授告訴雷鋒網 AI 科技評論。

作為一個「無需深度結構的高效增量學習系統」,BLS 實際上也存在著難點與挑戰。在訓練過程中,如果要經由稀疏的映射而對增強節點做比較好的組合,從輸入的非線性的稀疏轉換是一個比較重要的關鍵點。

此外,陳俊龍教授向雷鋒網 AI 科技評論表示,如果輸入過多時,(如 20 萬個輸入樣本,每個樣本至少有兩三千維度時,)偽逆的算法所用的內存就對計算機提出了比較高的要求。「雖然可以通過做樣本輸入的增量學習來達成,但是在每一步的更新後,計算機總是會有微小的誤差。如果能夠把經由輸入的增量學習找出來的最終權重,跟把所有輸入收集一起做 batch mode 的偽逆所得的權重是一樣的話,方能解決內存的問題。」

還有一個難點在於新加入節點會帶來浪費的可能性:基於新加入節點增量學習的前提,無從保證新節點與原有節點是否構成線性獨立。而如果要做一些算法處理(如 orthogonal projection)來構成線性獨立,則可能會額外增加訓練時間,這又與寬度學習的初衷相悖。

雖然目前還存在一些優化空間,但陳俊龍教授認為,BLS 逼近性優、算法快的特性能夠使其很快成為主流訓練方法。「在智能控制方面,類似 BLS 單隱層的神經網絡已非常的流行。」這一點在大數據時代下顯得較為實用:當系統收集到新輸入數據時,在短時間內可以直接對節點進行更新,保證了系統的完整性。

「如果在一個在應用的場景裡,在準確度可以被接受的前提下,能用最短的時間來完成任務,這何嘗不是兩全其美的事情?」在智能控制方面,大部分的系統因為有反饋的迴路,所以寬度學習網絡可以很快速地來做包括系統確定、微調、及輸入的更新在內的工作。另一個重要的思路在於,寬度學習可以很容易地置於客戶端來執行,而不需要依賴遠程的雲端計算,得以很快地做實時的更新,不用高大上的超算機。陳俊龍教授也表示,BLS 的主要應用場景集中在智能控制的環境中進行實時更新學習,譬如在智能家居的環境中更新語音識別、人物識別、物體識別的相關系統,那麼 BLS 也能在其中發揮它的重要優勢,甚至成為主流。

陳俊龍教授在未來會將工作重心放在 BLS 的算法優化和穩定上,除此之外,尋找應用的行業與場景也成為了陳俊龍教授接下來一段時間的工作要點。在理論知識的基礎上不忘找尋應用場景,是陳俊龍教授治學的基本理念。

回憶起在普度大學的博士就學經歷,陳俊龍教授之所以會把這段經歷評價為「整個事業生涯的一個重要裡程碑」,正是在於普度大學非常看重工程背後的理論知識,強調理論與實際應用的結合。當時陳俊龍教授所在的智能製造團隊的 Intelligent manufacturing,下屬傅京孫教授在普度大學建立的「美國工程研究中心」的子團隊,有著不少工程理論的訓練。

陳俊龍教授也正是秉承博士導師贈予的箴言「always try your best」,一直潛心學問,筆耕不綴,共有 31 篇高被引論文(在 ISI 排名前 1%)。在問及如何做論文選題時,陳俊龍教授也不忘首先感謝論文工作的合作者們,隨後再開始談自己的觀點。他認為,要做選題之前,要先對學科研究進行細細分析,判斷是做增量式研究還是大的概念突破,其次,也要對學科研究進行細讀分析。「其實老師們都有出科研文章的壓力。學生得畢業,有時候就不得不出增量式的改良文章(我有時也這樣),但是要時時的提醒自己在一段時間內,還是要想想哪些文章是重要的,會有突破的。」

在採訪期間,陳俊龍教授向雷鋒網 AI 科技評論提及了兩個促使他「跳出舒適感」的節點。一個是 2010 年,在美國長駐 28 年,擔任教職 23 年後,陳俊龍教授決定回國,擔任澳門大學的科技學院院長與講座教授,後續又擔任了自動化學會的副理事長。

「在美國的日子比較單純,經過了奮鬥期拿到了終身教授教職時,不論是在工作和生活上都很愜意,它的舒適感比較高,但是晉升到高層的機會相當就比較少。還有最重要的一點,應該是我個人的觀點,當一件事情沒有挑戰感時,就可能是要跳出那舒適感的時候了。回國來澳門大學是我人生治學生涯中的一個重要分水嶺,它有挑戰感。」在任內,陳俊龍教授推動澳門大學的工程學科及計算機學科獲得國際工程組織(華盛頓協議跟首爾協議)的認證。

作為留美多年的學者,陳俊龍教授在訪談中一方面肯定了美國在 AI 研究上的多層面深入,在基礎理論、技術層面及行業應用的都有著深厚的積累;另一方面也肯定了國內對科研的支持力度(包括澳門、內地),「我國人工智慧技術攻關和產業應用雖然起步較晚,但在國家多項政策和科研基金的支持與鼓勵下,近年來發展勢頭迅猛。在算法上,我國也可以媲美。雖然中國在人工智慧的論文數量方面超過美國,但中國學者的研究影響力目前尚不及美國或英國同行。這也是我們這一行應該側重的。同時我認為 AI 方面的科研應該要有應用市場及對一般民眾的有感(軍事的應用另外談)。之前的中國科協的九大會議裡的萬眾創新就是這種思維。」

而第二個節點則是最近,陳俊龍教授剛剛結束了他作為澳門大學科技學院院長的任期,也提及他正在思考與企業合作的切入點以及「跳出舒適感」,坦承「這是很不簡單的」。陳俊龍教授認為,相對而言,在學術界的研究還是相對自由,可以「自己給自己出很困難的題目,然後想辦法去解決它」,這種成就感讓陳俊龍教授覺得欲罷不能。但企業的研究有時間的急迫性,也有市場、經濟財務的壓力。因此陳俊龍教授認為,要「跳」到企業界不僅有它的難度,也同樣有機緣巧合的因素。

附陳俊龍教授簡介:

陳俊龍,澳門大學講座教授及科技學院前院長,博士生導師,國家千人學者,自動化學會副理事長,IEEE Transactions on Systems, Man, and Cybernetics: Systems 期刊主編。1985 年獲美國密西根大學碩士學位,1988 年獲美國普度大學博士學位。曾在美國德州大學工學院任終身教授、工學院副院長及電機計算機系主任。曾任 IEEE Systems, Man, and Cybernetics Society (SMCS) 學會國際總主席(2012-2013),現任資深主席(2016-2017)。陳教授是 IEEE Fellow、AAAS Fellow、CAA Fellow、國際系統及控制論科學院院士(IASCYS)、香港工程師學會 Fellow,擔任多個 IEEE 期刊副主編。科研方向包括:系統及智能算法理論與工程,數據分析及挖掘,物理建模及智能控制。

陳教授近五年主持與參與的各類國家科技計劃包括:國家基金委、科技部 973 物聯網計劃子課題和澳門科學基金會。曾承接美國基金委,美國航天局,美國空軍科研實驗室,海軍研究實驗室科研計劃。兩次獲澳門自然科學獎,2016 年獲母校美國普度大學傑出電機與計算機工程獎。

相關焦點

  • MIC2020 | 專訪華南理工大學計算機學院院長、歐洲科學院院士陳俊龍
    以下為大會專訪實錄:   主持人:今天我們邀請到了歐洲科學院院士、歐洲科學與藝術院院士、華南理工大學計算機學院院長、講座教授 陳俊龍教授,陳教授您好!在網際網路大數據時代,數據收集跟分析方面大部分人依然是按照傳統的統計方式來進行搜集,您在業界率先提出了「寬度學習系統」(Broad Learning System)這一創新理念。可以簡單跟我們分享一下這裡邊的邏輯思維以及換算方法嗎?
  • MIC2020丨專訪華南理工大學計算機學院院長、歐洲科學院院士陳俊龍
    以下為大會專訪實錄:主持人:今天我們邀請到了歐洲科學院院士、歐洲科學與藝術院院士、華南理工大學計算機學院院長、講座教授 陳俊龍教授,陳教授您好!在網際網路大數據時代,數據收集跟分析方面大部分人依然是按照傳統的統計方式來進行搜集,您在業界率先提出了「寬度學習系統」(Broad Learning System)這一創新理念。可以簡單跟我們分享一下這裡邊的邏輯思維以及換算方法嗎?
  • 從「有用」到「有趣」,知乎「新知大學」顛覆場景營銷
    再如比如另類的「知識補給站」,提供有關於各個領域話題的熱門書籍,之所以叫做補給,顧名思義,是補充現有知識體系中欠缺的東西,比如學習技巧、就業方向、個人情感等方面的問題,旨在用書本上學不到的知識解決校園生活中方方面面的問題。
  • 「熊貓」變「長臂猿」,「烏龜」變「來復槍」,深度學習模型被攻擊...
    圖:研究人員在 3D 列印的烏龜上添加一些顏色,AI 的識別結果為「來復槍」。研究人員已經展示了如何通過細緻地在停車標誌的某些位置上貼上貼紙以此愚弄人工智慧系統,使其對停車標誌產生誤讀[1]。此外,他們還通過在眼鏡或帽子上貼印刷圖案來欺騙人臉識別系統,並且通過在音頻中插入白噪聲模式,讓語音識別系統聽取虛假短語以實現欺騙系統的目的。
  • 深度學習平臺飛槳獲「創新之星」;通過網絡解剖解釋深層視覺表徵
    【今日資訊頭條 | 百度斬獲首屆多媒體信息識別技術競賽3項A級大獎,飛槳獲頒「創新之星」】來源:機器之心百度飛槳獲頒「創新之星」8 月 9 日,「中國人工智慧高峰論壇」在廈門召開,首屆「中國人工智慧·多媒體信息識別技術競賽」成果也在會上進行頒獎。
  • ...之父」親筆萬字長文,只為向世人證明:深度學習不是在母語為英語...
    到 2020 年,我們將慶祝這場革命背後早在 30 年前就在不到 12 個月的時間裡相繼發表出來的許多基本思想,那一年正是 1990-1991 年,是深度學習在慕尼黑工業大學誕生的「奇蹟之年」!換句話說,神經序列組塊會學著壓縮數據流,從而減緩「深度學習問題」,使其能夠通過標準的反向傳播方法求解。儘管那時的計算機要比現在同等價位的計算機運算得慢一百萬倍,但是截止到 1993 年,我的方法可以解決之前無法解決的、深度大於 1000[UN2] 的「非常深的深度學習」(需要超過 1000 個後續的計算步驟,步驟越多則學習的深度越深)。
  • 如何實現高速卷積?深度學習庫使用了這些「黑魔法」
    2019年,即使是智慧型手機也能在不到半秒內運行「重量級」CNN模型。而當我自己做了一個簡單的卷積層實現,發現這一個層的運行時間竟然超過2秒時,我非常震驚。大家都知道,現代深度學習庫對大部分運算具備高度優化的生產級實現。但是這些庫使用了哪些人類不具備的「黑魔法」呢?它們如何將性能提升100倍?當它們「優化」或加速神經網絡運算時,它們在做什麼?
  • 全額獎學金機會,阿爾伯塔大學、澳科大、西蒙菲沙大學碩博招生中
    在國家發展戰略「粵港澳大灣區」建設正式啟動的大背景下,澳門與廣州、深圳、香港四大中心城市作為區域發展的核心引擎,將迎來新的發展機遇。戰略的實施,將有力推動澳門深度參與國家發展戰略,通過深化與內地的合作,更好的作為連接中國與世界的橋梁,實現以科技驅動的產業升級。澳科大也將在這一戰略規劃中獲得加速發展。
  • 一文看懂縱向電晶體與橫向電晶體的原理及區別
    縱向電晶體與橫向電晶體的原理及區別   (1)縱向PNP管:   縱向PNP管也稱襯底管,由於結構的關係,內部的載流子沿著縱向運動。這種管子的特點是,管子的基區寬度WB可以準確地控制,而且做得很薄。因此,縱向PNP管的β很大。超β管的β值在2000一5000(α=0.995-0.9998)。   是以P型襯底作為集電極,因此只有集成元器件之間採用PN結隔離槽的集成電路才能製作這種結構的管子。由於這種結構管子的載流子是沿著電晶體斷面的垂直方向運動的,故稱為縱向PNP管。
  • 張亞勤:深度學習更近一步,如何突破香農、馮諾依曼和摩爾瓶頸?
    張亞勤表示,數位化的 3.0 時期已經到來,數位化的範圍已從內容、社交和企業服務領域向物理和生物世界進行延伸,將我們熟悉的城市、工廠、電網、家庭向智慧交通、工業網際網路、智慧醫療等方向進行升級,為了完成物理世界的「數位化」,數據需要更清晰地讓數字世界和現實世界一一對應,通過深度學習,計算機不斷加深著對於人類世界的認知。
  • ...個性化學習平臺「符號樹」用AI技術深度解構知識和能力模型
    36氪近日獲悉,人工智慧個性化學習平臺「符號樹」科技宣布獲得數百萬元人民幣天使輪融資,此輪融資由達晨創投投資。本輪融資將用於進一步加強智能系統的技術研發、教研、人才引進和市場推廣。符號樹科技的產品核心是一個擁有優質教學資源的專家系統,針對不同學生不同的認知水平、學習特點和學習需求等進行深度分析和精確診斷,生成針對不同學生的「個性化學習方案」,讓專家系統為學生匹配最優的AI老師對學生進行一對一的輔導。這套邏輯對於教育創新前沿的人來說,並不陌生。
  • 孩子不想學習的幾個原因!孩子的「英語學習時間」應如何規劃?
    (感謝大家閱讀我的作品,大家有什麼好的建議可以在下方做出評論,每天會為大家更新不同的育兒知識,歡迎轉載與分享)三、學的知識有什麼用?學什麼知識,歸根結底都是在學習歷史。在學習人類文明發展到今天留給我們的財富。學好用好這筆富才會為自己描繪一條清晰的人生道路。而像那些科學家、藝術家等等,他們在做的已經是創造歷史了。
  • 德克薩斯A&M大學在讀博士遊宇寧:自監督學習在圖卷積網絡中的研究...
    作為圖神經網絡中的重要分支,GCNs解決了CNNs無法處理非歐幾裡德結構數據(如社交網絡、推薦系統上抽取的圖譜等)的問題,能從拓撲結構網絡中有效提取空間特徵。因此,GCNs成為了當前機器學習領域的研究熱點之一。近年的研究重點多聚焦於GCNs的半監督學習算法,而如何在圖卷積網絡中引入自監督學習,來解決圖卷積模型自身的問題,仍然十分值得探索。
  • 深度| 超越DQN和A3C:深度強化學習領域近期新進展概覽
    FeUdal 網絡是一種更早的相關研究(https://arxiv.org/pdf/1703.01161.pdf),其使用了一個學習到的「目標」表徵而不是原始的狀態觀察。實際上,研究中的很多變體都源自學習有用的低層子策略的不同方法;很多論文都使用了輔助的或「代理的」獎勵,還有一些其它研究實驗了預訓練或多任務訓練。
  • 深度強化學習+啟發人類的決策智能,專訪一家有願景的中國企業...
    「啟元世界」,他們憑藉自己的核心技術深度強化學習和決策智能平臺,在 NeurIPS 2018 多智能體競賽「炸彈人團隊賽」中獲得了 Learning 組冠軍。啟元世界是一家 2017 年成立的以認知決策智能技術為核心的公司,由前阿里、Netflix、IBM 的科學家和高管發起,多位名牌大學的博士和碩士加入,並擁有伯克利、CMU 等知名機構的特聘顧問。啟元世界的願景是「打造決策智能、構建平行世界、激發人類潛能」,團隊核心能力以深度學習、強化學習、超大規模並行計算為基礎,擁有網際網路、遊戲等眾多領域的成功經驗,受到國內外一流投資人的青睞。
  • Linux系統推薦學習的程式語言以及經驗
    ,各種信息繁雜冗多,我們的學習的寬度自然是沒有任何問題的,但是學習的深度呢,怕是遠遠不及,所以我們學習就像撩妹,你不但要知道她的寬度,更多是要知道她的深度。說說我在這一年了解了什麼吧,matlab,c,c++,linux,kali linux,大數據下的oracle,hadoop,gonldgate,html,....但是真真了解怕是沒有多少,所以作為一名資深的小白,我用親身經歷告訴你,切忌!!!學習繁雜,一定要精,在平時胡亂研究這些,反而什麼都沒學到,還丟掉了學習,成為了一名學校的學渣。
  • 普林、DeepMind新研究:結合深度學習和符號回歸,從深度模型中看見...
    符號模型緊湊,具備可解釋性和良好的泛化能力,但很難處理高維機器學習問題;深度模型擅長在高維空間中學習,但泛化性和可解釋性卻很差。那麼有沒有什麼辦法可以取二者之所長呢?這項研究做到了。如何將深度模型轉換為符號方程?來自普林斯頓、DeepMind 等機構的研究人員提出了一種解決方案:結合深度學習和符號回歸實現這一目標。
  • 如何利用 TVM 優化深度學習GPU op?教你用幾十行Python代碼實現2-3...
    歡迎對於深度學習,編譯原理,高性能計算,硬體加速有興趣的同學一起加入 dmlc 推動領導開源項目社區 。」據雷鋒網(公眾號:雷鋒網)AI科技評論了解,大多數現有系統針對窄範圍的伺服器級 GPU 進行優化,且需要在包括手機、IOT 設備及專用加速器上部署大量工作。而 TVM 是一種將深度學習工作負載部署到硬體的端到端 IR(中間表示)堆棧。
  • 深度學習:Caffe實戰
    舉一個簡單的事例,以便不那麼熟悉深度學習的朋友更好地了解這項技術究竟是用來做什麼的。     在AlphaGo引發的全球熱議時,在對這一「人工智慧的裡程碑」讚譽之外,還有一個疑惑:谷歌用機器學習,或者說用深度學習要來做什麼?
  • RecSys提前看|深度學習在推薦系統中的最新應用
    作為推薦系統的頂會,RecSys 一如既往受到了業界的廣泛關注。與其他機器學習會議相比,RecSys 一向重視解決實際的問題,即結合在實際應用場景中推薦系統性能提升、效果提高等問題提出設計策略和算法解決方案等。隨著深度學習研究的進一步深入,深度學習在推薦系統中的應用依然是研究熱點之一,本次會議中圖神經網絡(Graph Neural Network,GNN)、經典深度學習模型都有所應用及改進。