日前,2017全國雙創活動周在上海拉開帷幕,百度創始人李彥宏作為「雙創」領袖代表在啟動儀式上致辭。在發言中,「人工智慧忠實粉絲」的他除了介紹了AI技術對於創新創業的推動作用外,還提到了一些神秘字符——
技術在人工智慧時代起到的作用非常大,而且技術進步的速度也很快……過去幾年,深度學習從DNN,到RNN,到CNN,再到GAN,不停地在升級換代,觸發新的創新。
掐指一算,這段話裡一共出現了7個N。人工智慧技術雖然現在已經不是新概念,但這些N究竟是怎麼意思?DNN(深度神經網絡)、RNN(循環神經網絡)、CNN(卷積神經網絡)、GAN(生成式對抗網絡)究竟代表了什麼技術,為何最近人工智慧技術會飛速發展,結合到人工智慧的未來又將會如何呢?
一、李彥宏說的幾組N是啥意思
李彥宏說到DNN(深度神經網絡),RNN(循環神經網絡),CNN(卷積神經網絡),GAN(生成式對抗網絡)其實都是深度學習的內容。這些名詞聽上去高深莫測。其實道理並不複雜。
(一)DNN是啥
所謂神經網絡其實這個詞是後來的,最早這個東西叫感知機,就是有一個輸入層,一個隱含層,一個輸出層。通過算法迭代完成一個解。
但是只有一層是處理不了複雜函數的,於是後來就發明了多層感知機,有多個隱含層,然後有算法讓各個層的各個節點互相聯通。
這種聯通很像人體中的神經,於是這種多層的感知機就有了名字叫神經網絡。
理論上,隱含層當然是越多越好,但是科學家在使用中發現層數多了往往是局部最優。
就好比你下象棋,多層數的神經網絡,算了很多步,計算怎麼把對方的馬吃了,然後選了最佳一步棋。但是下棋是殺死對方的帥啊,吃掉馬能佔據子力優勢,但是並不一定贏啊。
為了吃掉對方馬的最優步,不一定是贏棋的最優步,這個問題不解決,層數多了反而不好用。
同時層數多了,訓練數據的有效性就弱了,整體學習的效率也就不行了。
這個難題一直到2006年才解決,然後DNN(深度神經網絡)就流行了。
(二)DNN引出的CNN
DNN已經可以實用,但是DNN的問題是參數太多,每個點連接產生的數據量太大,雖然有算法改良還是容易陷入局部最優,而現實中有些東西是固定,不需要一層層地去學習計算。
於是,科學家就提出一個叫「卷積核」的東西,用這個東西來降低參數量,參數量少了,計算效率就提升了,而且陷入局部最優解的概率也就下來了,深度計算就好用了。
(三)時間問題引出的RNN
全部連接的DNN存在一個問題,就是沒法按照時間序列的變化建立模型。但是人工智慧深度學習的東西可不是靜態的。
語音識別是動態的,手寫也是動態的,需要解決時間序列的問題,於是就有了RNN(循環神經網絡)。在DNN的基礎上發展出時間戳,發展出長短時記憶單元,可以有解決時間序列的應用,這就是RNN。
(四)以假亂真的GAN
GAN(生成式對抗網絡)是給生成模型用的,機器出來的語言,圖像能夠以假亂真,需要一個標準,需要一個判定模型。譬如要模擬生成一張畫,就有一個生成畫的模型,有一張事實存在的畫,有一個判定生成的畫,與事實存在的畫差異的模型。
首先固定生成模型,反覆訓練判斷模型,讓判斷模型學會判斷,判斷模型學習好了,就可以訓練生成模型,最終讓生成模型生成的東西能以假亂真。
我們聽到百度度秘能模仿人說話,就是這種技術在起作用。
二、人工智慧會如何改變我們的未來
最近幾年,人工智慧發展實際上是計算能力,算法,數據的發展。
算法進步第一部分已經說明,不在此重複。
計算能力進步是最近這些年雲計算興起,異構計算興起,計算能力廉價,能夠讓深度學習實用化。
而數據要感謝網際網路和移動網際網路,以及各種傳感器和電子技術的進步,人類掌握了空前的大數據,使得深度學習有了充分的學習資料,從而變得越來越實用化。
在人工智慧實際應用中,李彥宏說的DNN、CNN、RNN、GAN是混在一起用的。度秘看到你,識別你的面孔需要CNN,聽取你的語音需要RNN,回答你生成語言需要GAN。
而在人工智慧技術發展起來之後,現代社會中簡單的勞動都可以讓人工智慧來做。
農業採摘可以讓機器視覺替代人類,結合機械來完成。採礦可以讓人工智慧替代人類來自動完成,運輸可以由無人駕駛技術完成,銷售與客服可以由人工智慧的語音識別和多輪對話來替代……
人工智慧的應用將大幅度提升勞動生產率,加快物質財富的製造速度。
無樂趣的艱苦體力勞動將被人工智慧替代,我們將有更多的時間娛樂,創造,每個人都將從人工智慧時代中受益。我們將有更美好的未來。