今天,為大家帶來一篇自詡神奇的文章,也可能是一種發文的思路??
用蓋樓的方式構建深度模糊模型:從盲人摸象開始?一、歷史回顧 1991年,多層模糊系統(hierarchical fuzzy systems),由Raju, Zhou和Kisner提出,而LeCun提出多層卷積神經網絡(deep convolutional neural networks --支撐當下AI泡沫的主力模型)是在1990年,兩者幾乎同時。在之後的十幾年中,兩者的命運差不多:一直有人在做,但形成不了主流。Raju的原始論文在google scholar上至今只有451次引用,LeCun的原始論文在最初的十幾年也很少被引用。直到2006年Hinton的新算法發表,人們才對多層神經網絡深入探討,結果一發不可收拾,形成了現在的AI泡沫。二、方法簡介用蓋樓的方式構建深度模糊模型:從盲人摸象開始?其實,作者的思路很簡單:對於高維的輸入空間(想像成一頭大象),採取盲人摸象的方式,每個模糊子系統相當於一個盲人,在高維空間中只選擇少數幾個輸入變量作為其輸入,然後將其輸出(盲人對大象的理解)交給第二層的盲人(模糊子系統),這樣第一層盲人的任務就完成了;第二層盲人的工作方式和第一層的盲人一樣:每個第二層盲人選擇少數幾個第一層盲人的輸出作為其輸入,對其進行總結歸納,形成自己的輸出(對大象的理解),交給第三層的盲人,這樣第二層盲人的任務也就完成了;以此類推,想建多少層就建多少層,直到最後一層(單個盲人),給出最終的結論。 這裡的關鍵是:每一層模糊子系統建好以後就不再改變了,像蓋樓一樣,第一層蓋好後就不變了,在其上面蓋第二層,建造方法和第一層一樣;第二層蓋好後也就不變了,在其上面蓋第三層,用同樣的建造方法;…;以此類推。由於每個模糊子系統只有少數幾個輸入變量,可以用WM方法快速設計,整個深度模糊系統也就快速的建成了。三、與深度神經網絡比較眾所周知,支撐當下AI泡沫的深度神經網絡有兩大缺陷:(1)計算量龐大,因為有大量的參數需要循環迭代,不知道算多久才能收斂,所以將訓練好的模型封裝到用戶端還可以,但如果有新的數據需要學習,用戶端的簡單設備就做不到了;(2)模型不可解釋,知其然不知其所以然,用起來心裡沒譜;對於像自動駕駛這樣人命關天的應用場景,出事不可怕,可怕的是不知道如何改進,保證下一次不犯同樣的錯誤,因為模型不可解釋,誰也不知道問題出在哪裡。本文的深度模糊系統及其快速學習算法恰恰克服了這兩大缺陷:(1)由於WM方法只需要數據一次過,不用循環迭代,計算量很小,十幾層的深度模糊系統,構建起來非常迅速,在用戶端的簡單設備上(比如手機)也可以進行新數據的不斷學習;(2)深度模糊系統由簡單的模糊子系統串聯而成,每個模糊子系統就是一些簡單的IF-THEN規則,所以深度模糊系統就是這些簡單IF-THEN規則的首尾相接,一環套一環,非常容易理解,可解釋性很強;如果系統出錯,可以很容易查出是哪一條IF-THEN規則鏈出了問題,予以修正。四、應用於恒生指數的預測作者說:賺錢才是硬道理!然後,結合股票搞一下~~然後,成功了!
點擊閱讀原文,即可下載論文原文。
說實話,到底我也沒看出跟深度卷積有什麼關係?不過學科知識結合到位,有點意思,可以轉行,發文就完了...