雷鋒網按:為了方便讀者學習和收藏,雷鋒網(公眾號:雷鋒網)特地把吳恩達教授在NIPS 2016大會中的PPT做為中文版,由三川和亞峰聯合編譯並製作。
今日,在第 30 屆神經信息處理系統大會(NIPS 2016)中,百度首席科學家吳恩達教授發表演講:《利用深度學習開發人工智慧應用的基本要點(Nuts and Bolts of Building Applications using Deep Learning)》。
此外,吳恩達教授曾在今年 9 月 24/25 日也發表過同為《Nuts and Bolts of Applying Deep Learning》的演講(1小時20分鐘),以下是 YouTube 連結:
https://www.youtube.com/watch?v=F1ka6a13S9I
一、深度學習為何崛起吳恩達在開場提到:深度學習為何這麼火?
答案很簡單:
第一是因為規模正在推動深度學習的進步。
從傳統算法到小型神經網絡、中型神經網絡最後演化為現在的大型神經網絡。
第二:端到端學習的崛起
從下圖中的上半部分可以看出,傳統端到端學習是把實體數據表達成數字數據,輸出數字值作為結果。如退昂識別最後以整數標籤輸出為結果。
而現在的端對端學習更為直接純粹,如機器翻譯:輸入英語文本,輸出法語文本;語音識別:輸入音頻,輸出文本。但端對端學習需要大量的訓練集。
吳恩達先講述了常見的深度學習模型,然後再著分析端到端學習的具體應用。
二、主要的深度學習模型
普通神經網絡
順序模型 (1D 順序) RNN, GRU, LSTM, CTC, 注意力模型
圖像模型 2D 和 3D 卷積神經網絡
先進/未來 技術:無監督學習(稀疏編碼 ICA, SFA,)增強學習
三、端到端學習應用案例傳統模型:語音→運算特徵—(人工設計的 MFCC 特徵)→音素識別器—(音素識別)→最終識別器→輸出。
端到端學習:音頻→學習算法→轉錄結果;在給定了足夠的有標註數據(音頻、轉錄結果)時,這種方法的效果會很好。
傳統模型:攝像頭圖像→檢測汽車+檢測行人→路徑規劃→方向控制。
端到端學習:攝像頭圖像→學習算法→方向控制。
自動駕駛對安全有極高要求,因此需要極高的精確度。採取純粹的端到端學習十分有挑戰性。只在有足夠(x,y)的數據,來學習足夠複雜的函數的情況下,端到端學習才有效果。
四、機器學習策略你經常有很多改進 AI 系統的主意,應該怎麼做?好的戰略能避免浪費數月精力做無用的事。
以語音識別為例,可以把原語音數據分割成:
這裡面普及幾個概念:
人類水平的誤差與訓練集的誤差之間的差距是可避免的偏差,這部分誤差可以通過進一步的學習/模型調整優化來避免。
訓練集和開發集之間的差距稱為方差,其因為跑了不同的數據從而導致誤差率變化。
上述兩種偏差合在一起,就是偏差-方差權衡(bias-variance trade-off)。
自動數據合成示例不同訓練、測試集的分布假設你想要為一個汽車後視鏡產品,開發語音識別系統。你有 5000 小時的普通語音數據,還有 10 小時的車內數據。你怎麼對數據分組呢?這是一個不恰當的方式:
更好的方式:讓開發和測試集來自同樣的分配機制。
五、機器學習新方案當機器學習在處理某項任務上比人類表現還差時,你經常會看到最快的進步。
機器學習超越人後,很快就會靠近貝葉斯最優誤差線。
可以依靠人類的直覺:(i)人類提供加標籤的數據。(ii)進行錯誤分析,來理解人是怎麼對樣本正確處理的(iii)預估偏差/方差。比如,一項圖像識別任務的訓練誤差 8%, 開發誤差 10%,你應該怎麼處理?
新的監督DL算法的存在,意味著對使用 DL開發應用的團隊合作,我們在重新思考工作流程。產品經理能幫助 AI 團隊,優先進行最出成果的機器學習任務。比如,對於汽車噪音、咖啡館的談話聲、低帶寬音頻、帶口音的語音,你是應該提高語音效果呢,還是改善延遲,縮小二進位,還是做別的什麼?
今天的人工智慧能做什麼呢?這裡給產品經理一些啟發:
如果一個普通人完成一項智力任務只需不到一秒的思考時間,我們很可能現在,或者不遠的將來,用 AI 把該任務自動化。
對於我們觀察到的具體的、重複性的事件(比如用戶點擊廣告;快遞花費的時間),我們可以合理地預測下一個事件的結果(用戶是否點擊下一個此類廣告)。
七、吳恩達新書推薦雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。