Pedro Domingos深度解析機器學習五大流派中主算法精髓

2020-12-05 雷鋒網

本文聯合編譯:Blake, 高斐

Pedro Domingos是華盛頓大學計算機科學與工程學教授,也是國際機器學習協會的聯合創始人之一。他曾在IST Lisbon獲得電子工程和計算科學的碩士學位,在加州大學Irvine分校獲得信息與計算科學博士學位。而後在IST作為助理教授工作了兩年,於1999年加入華盛頓大學。他還是SIGKDD創新獎獲得者(數據科學領域中最高獎項),也是AAAI Fellow之一。雷鋒網(公眾號:雷鋒網)註:本文是Pedro Domingos在Google所作的機器學習演講內容整理。

讓我們首先從一個簡單的問題開始,知識到底是從哪裡來的?以前已知的三個來源有

1. 進化——來自於你的DNA

2. 經驗——來自於你的神經

3.文化——這些知識來自於與他人交流,讀書學習等

我們日常生活中幾乎每件事都是來自於這三個方面的知識,最近出現了第四個來源,那就是計算機。現在有越來越多的知識是來自於計算機(這些知識也是被計算機發現的)。

計算機來源的出現對於前三個來說是非常大的改變,進化天然就存在於地球上。經驗是將我們與動物以及蟲類分類開的原因,文化則是使得我們之所以為人的根本。

這四種中每一種與前者的差別都是數量級的差異,後者也能發現更多的知識。計算機比之前三種要快幾個數量級,且能與其他幾種實現共存。

Yann Lecun——Facebook AI研究組主任

未來世界上大多數知識都將被機器提取,且將留存在機器中。

所以,機器學習不但對於計算機科學家來說是一個大的改變,對於普通人來說也是他們需要理解的一件事。

那麼計算機到底是如何發現新的知識的呢?

1. 填補現有知識的空白

和科學家工作的方式很像,觀察——做出假設——通過理論來進行解釋——成功(或失敗,嘗試新的)等

2.大腦仿真

世界上最偉大的學習機器就是人的大腦,因此讓我們對它進行逆向工程。

3.模擬進化過程

進化過程,從某種角度來說甚至比人類的大腦更偉大(因為它造就了你的大腦,你的軀體,還有其他地球上的一切生命),所以來說這個過程值得好好弄清楚並且使用計算機來進行運算。

4.系統地減少不確定性

你學到的知識不一定正確,當從數據中獲得什麼東西時,你對它卻不能完全確定。所以使用概率來量化這個不確定性,當你看到更多的證據時,不同的假設的概率能夠進一步完善。還可以使用貝葉斯理論來進行這個工作。

5.注意新舊知識之間的相似性

通過類比來進行推理,在心理學上有證據說人類經常這樣做。當你面臨一個情境時,你在以往的經驗中尋找相似的情境,然後將這兩者連接起來。

機器學習五大流派(主要算法)

相信填補現有知識的空白的

希望從大腦運行方式得到啟發

遺傳算法

  • 貝葉斯派——統計學——概率推理

  • 行為類推主義——心理學——機器內核(支持向量機) 

符號主義代表人物:

Tom Mitchell、Steve Muggleton、Ross Quinlan 

逆向演繹

Tom Mitchell、Steve Muggleton、Ross Quinlan等認為學習是一個逆向演繹的過程,推理是從通用規則推導至特定事實,歸納剛好相反,從特定事實總結出通用準則。我們可以由減法和加法的相反關係來推倒出推理的原理。

逆向演理示例:

蘇格拉底是人類+人類是凡人= 蘇格拉底是凡人

(但是計算機現在還不能理解自然語言)

找出圖中的生物學家

其實是那臺機器,圖中的機器是一名完整的、自動的生物學家,它也是從分子生物學中的DNA、蛋白質、RNA開始學習的。使用逆向演繹來進行假設,設計實驗來測試這些假設是否成立(在沒有人類的幫助下)。然後它給出結果,提煉假設(或者提出新的假設)。

聯結主義代表人物有:

Geoff Hinton、Yann Lecun、Yoshua Bengio

單一神經元

神經元是一種非常有趣的細胞,看起來像樹一樣。神經元是具有長突觸(軸突)的細胞,它由細胞體和細胞突起構成。在長的軸突上套有一層鞘,組成神經纖維,它的末端的細小分支叫做神經末梢。細胞突起是由細胞體延伸出來的細長部分,又可分為樹突和軸突。每個神經元可以有一或多個樹突,可以接受刺激並將興奮傳入細胞體。每個神經元只有一個軸突,可以把興奮從胞體傳送到另一個神經元或其他組織,如肌肉或腺體。神經元之間是互相連接的,這樣形成了一個大的神經網絡。人類所學會的知識幾乎都存在神經元之間的突觸中,整個學習過程基本上是出現在一個神經元幫助另一個神經元發射信號的過程。

人工神經元模型

人工神經元的工作過程:將輸入加權組合,

例如:每個輸入都是像素,每個都進行加權組合,當其超過閾值時會得到輸出為1的結果,否則得到的就是0的結果。

再如輸入是貓,當所有的加權組合起來超過了閾值,神經元就能識別出來:這是只貓。

反向傳播

問題一:你如何訓練這些神經元的網絡?

神經網絡擁有一大堆神經元,需要通過一層一層計算才能得到輸出。

問題二:如果運算中出現錯誤了怎麼辦?如何在整個大型、紊亂的神經網絡中進行調整,來得出正確的答案?

當出現錯誤,神經元本應該發射信號時,實際上卻不會。出現問題的神經元可能是整個網絡中的任一一個,但是想要找出它來卻十分困難。這就是反向傳播能解決的問題,當人們在20世紀60年代設想出神經網絡時,他們並沒有想到這個反向傳播的方法,它最終是在19世紀80年代由David Rumelhart等人提出的。

反向傳播的基本理念是十分直觀的,舉例來說,理想輸出應該是1,但是實際輸出確是0.2,需要將其增大。

問題三:怎樣調整權重才能讓其增大?

通過後續的神經元向前序神經元進行反饋,一層一層向後直到得到的值接近真實值,這就是反向傳播算法(也是深度學習的核心所在)。

近期以來深度學習被用於各種領域中,證券市場預測、搜索、廣告、視頻識別、語義識別等。不過對於大眾來說,最有名的應該是Google推出的能識別貓的神經網絡——在當時,它是有史以來最大型的神經網絡(可能超過10億參數)。

進化主義代表人物:John Holland、John Koza、Hop Lipson

進化理論認為反向傳播只是在模型中調整權重而已,而沒有整個弄明白大腦的真正來源是什麼。所以要搞清楚整個進化過程是如何進行的,然後在計算機上模擬同樣的過程。

遺傳算法是如何工作的?

遺傳算法(Genetic Algorithm)是模擬達爾文生物進化論的自然選擇和遺傳學機理的生物進化過程的計算模型,是一種通過模擬自然進化過程搜索最優解的方法。遺傳算法是從代表問題可能潛在的解集的一個種群(population)開始的,而一個種群則由經過基因(gene)編碼的一定數目的個體(individual)組成。每個個體實際上是染色體(chromosome)帶有特徵的實體。染色體作為遺傳物質的主要載體,即多個基因的集合,其內部表現(即基因型)是某種基因組合,它決定了個體的形狀的外部表現,如黑頭髮的特徵是由染色體中控制這一特徵的某種基因組合決定的。因此,在一開始需要實現從表現型到基因型的映射即編碼工作。不同的人是通過他們的基因進行區分的,但是與人類不同,計算機的構成單元只是比特符(0和1)。遺傳算法(Genetic Algorithm)是一類借鑑生物界的進化規律(適者生存,優勝劣汰遺傳機制)演化而來的隨機化搜索方法。它是由美國的J.Holland教授1975年首先提出,其主要特點是直接對結構對象進行操作,不存在求導和函數連續性的限定;具有內在的隱並行性和更好的全局尋優能力;採用概率化的尋優方法,能自動獲取和指導優化的搜索空間,自適應地調整搜索方向,不需要確定的規則。遺傳算法的這些性質,已被人們廣泛地應用於組合優化、機器學習、信號處理、自適應控制和人工生命等領域。它是現代有關智能計算中的關鍵技術。

遺傳操作是模擬生物基因遺傳的做法。在遺傳算法中,通過編碼組成初始群體後,遺傳操作的任務就是對群體的個體按照它們對環境適應度(適應度評估)施加一定的操作,從而實現優勝劣汰的進化過程。

遺傳編碼

由於仿照基因編碼的工作很複雜,我們往往進行簡化,如二進位編碼,初代種群產生之後,按照適者生存和優勝劣汰的原理,逐代(generation)演化產生出越來越好的近似解,在每一代,根據問題域中個體的適應度(fitness)大小選擇(selection)個體,並藉助於自然遺傳學的遺傳算子(genetic operators)進行組合交叉(crossover)和變異(mutation),產生出代表新的解集的種群。這個過程將導致種群像自然進化一樣的後生代種群比前代更加適應於環境,末代種群中的最優個體經過解碼(decoding),可以作為問題近似最優解。

當下,遺傳算法專家已經不滿足於在電腦上進行模擬了,他們將自己的技術也帶到了真實世界中——機器人技術。他們最開始用的是普通的機器人模式,當他們訓練到足夠好時,通過3D列印技術將整個機器人列印出來,列印出來的機器人真的能夠進行爬行走動等動作。(hod lipson實驗室)雖然這些機器人現在還不夠好,但是相比它們剛起步的時候,已經發展的相當迅速了。

貝葉斯派代表人物:David Heckerman Judea pearl Micheal Jordan

貝葉斯一直以來都是小眾領域,其中Judea pearl是圖靈獎獲得者。

貝葉斯理論

貝葉斯定理是概率論中的一個定理,它跟隨機變量的條件概率以及邊緣概率分布有關。在有些關於概率的解說中,貝葉斯定理能夠告知我們如何利用新證據修改已有的看法。

其中P(A|B)是在B發生的情況下A發生的可能性。

在貝葉斯定理中,每個名詞都有約定俗成的名稱:

P(A|B)是已知B發生後A的條件概率,也由於得自B的取值而被稱作A的後驗概率。

P(B|A)是已知A發生後B的條件概率,也由於得自A的取值而被稱作B的後驗概率。

P(A)是A的先驗概率或(或邊緣概率)。之所以稱為"先驗"是因為它不考慮任何B方面的因素。

P(B)是B的先驗概率或邊緣概率。

後驗概率 = (相似度*先驗概率)/標準化常量

也就是說,後驗概率與先驗概率和相似度的乘積成正比。

另外,比例P(B|A)/P(B)也有時被稱作標準相似度(standardised likelihood),貝葉斯定理可表述為:

後驗概率 = 標準相似度*先驗概率

 貝葉斯學習機制已經被應用於許多領域。例如,自動駕駛車輛的「大腦」中就配有貝葉斯學習機制。因而,在某種程度上,貝葉斯定理在幫助駕駛車輛或者幫助車輛學習如何駕駛方面起到重大作用。

貝葉斯學習機制應用——垃圾郵件過濾器

不過,大概人人都熟悉的一項貝葉斯學習機制應用為垃圾郵件過濾器。首個垃圾郵件過濾器是由David Heckerman及其同事共同設計的。他們僅僅運用一個非常建議的貝葉斯學習機,即初級(naive)貝葉斯分類器。下面是該分類器的工作原理:其基於的假設為——一封郵件是垃圾郵件或一封郵件不是垃圾郵件,當然這種假設是在我們檢測郵件內容之前提出的。其中蘊含的先驗概率為:當你判斷一封郵件為垃圾郵件的先驗概率為90%,99%,99.999%時,你的假設即為正確的。證明這一假設正確與否的證據在於郵件的真實內容。例如,當郵件內容含有「萬艾可」一詞,這封郵件將在極大程度上被判定為垃圾郵件;當郵件內容含有大寫全拼「FREE」一詞,這封郵件將在極大程度上被判定為垃圾郵件;當「FREE」一詞後面出現四個感嘆號,這封郵件將在極大程度上被判定為垃圾郵件。當郵件署名出現你最好朋友的名字,這將降低這封郵件被判定為垃圾郵件的概率。因而,初級貝葉斯分類器就包含了這些「證據」。在一天結束時,該分類器將計算出一封郵件為垃圾郵件或非垃圾郵件的概率,基於計算得出的概率,分類器決定是否將該郵件過濾掉或將其發送給用戶。垃圾郵件過濾器使我們能夠有效管理自己的郵箱。

當下,各種不同的算法被應用於垃圾郵件過濾器。但是,貝葉斯學習機制是首個應用於垃圾過濾的算法,並在其他眾多垃圾郵件過濾過濾器中得到應用。

行為類比推理法

最後,正如我提到的,行為類比主義者所持的基本觀點為:我們所做的一切,所學習的一切,都是通過類比法推理得出的。所謂的類比推理法,即觀察我們需要作出決定的新情景和我們已經熟悉的情景之間的相似度。早期行為類比主義的先驅之一為Peter Hart。他證實了,有些事物是與最佳臨近算法相連的,這種算法是首個基於相似度的算法,稍後將對此詳細講解。Vladimir Vapnik發明了支持向量機,內核機,成為當時運用最廣,最成功的基於相似度學習機。這些都是最原始的類比推理形式。人們,例如Douglas Hofstadter,也致力於研究許多複雜高端的學習機。Douglas Hofstadter不僅是著名的量化研究科學家和計算機科學家,也是「哥德爾,埃舍爾,巴赫」一書的作者。其最著名的書有500頁,書中的觀點是一切智能都只是類比。他強烈主張類比是主算法。

最佳鄰近算法

內核機

理解類比推理法的實例,最佳鄰近算法及內核機

下面是一個用於理解這一觀點的一個謎題。假設給出兩個國家,由於所給出的是積極的例子和消極的例子,我賦予它們富有想像力的名字「Posistan」和「Negaland」。在圖中,我將不給出兩個國家的邊界線,只給出兩個國家的主要城市的位置。Posistan的主要城市用加號標出,Positiveville為首都,Negaland的主要城市也用同樣的方式標出。所給出的問題是:倘若我給出主要的城市,你能告訴我邊界線的位置嗎?當然,你並不能給出確定的答案,因為這些城市並不能決定邊界線的位置。但是,這也是機器學習的問題所在。我們得學會概括。

最佳鄰近算法能夠為這一問題提供簡單的答案。即如果地圖上的一點臨近某一個積極地城市或任何一個消極城市,那麼我們可以假定這一個點位於Posistan。該假設將產生如下效果,即將地圖劃分為這個城市的鄰近城市,如此一來,Posistan將成為這些積極城市鄰近區域的聯合國家。一個城市的鄰近城市由那些離其最近的點構成。因而,便可得到一條鋸齒狀的邊界線。儘管最佳鄰近算法是如此簡單,但是在學習階段,這種算法甚至於不能起到任何作用,這一點是令人驚奇的。這個問題中所涉及的一些推理過程不是理想化的,其中之一便是,所得出得這條邊界線可能不是最正確的,因為真正的邊界線可能更為平滑。第二,倘若你仔細觀察這幅地圖,你可能捨棄一些城市,但是這一舉動不會對最終結果產生太大影響。倘若捨棄這個城市,它將併入其他兩個城市,最終的邊界線不會發生變化。唯一需要保留的是那些界定邊界線的城市,即所謂的「支持向量」,通常,這些向量存在於超空間內。因此,通常情況下,可以捨棄大量的城市,而不會對最終結果產生任何影響。不過,在大數據集中,捨棄大量數據將對最終輸出值產生影響。支持向量機,或簡稱為內核機,將解決這一問題。存在一種學習程序,能夠捨棄對界定邊界線來講沒有必要的例子,保留必要的例子,如此一來,能夠得到一條平滑的邊界線。在確定邊界線的過程中,支持向量機將使得邊界線與其最鄰近的城市之間的距離達到最大。這邊是支持向量機的工作原理。

推薦系統

在深度學習盛行之前,支持向量機可能是應用最強健地學習算法。人們從20世紀50年代便開始運用這種基於類比的學習算法,因此這種學習算法基本上適用於地球上的一切事物。我們都體驗過這種學習算法的應用實例,儘管可能沒有意識到應用到了基於類比的學習算法。這便是推薦系統。例如,我想弄清楚推薦給你什麼類型的電影比較合適,當然民俗電影已經有20年的歷史了,也是一種非常簡單的電影形式。我將不用電影的類別進行推薦,因為人們的興趣複雜多變,這在很大程度上將是一個難題。我將採用一種「協同過濾」方法,即找到一些品味興趣與你相似的五個人,這意味著你和他們一樣給某部電影五個星,給另一部電影一個星。倘若他們對一部你沒有看過的電影五顆星,我便可以通過類比推理法假定,你也會喜歡那部電影,這樣我便可以向你推薦這部電影。這種運用類比推理的「協同過濾」方法取得了極好的成效。事實上,Netflix四分之三的業務得益於這種推薦系統。亞馬遜也運用了這種推薦系統,這種系統為其業務的發展帶來了三分之一的成效。這些時間以來,人們運用各種學習算法來實現這一推薦系統,但是最佳鄰近算法是最早應用於研究這一系統的學習算法,也是最優的算法之一。

機器學習五大流派,其中存在的問題及解決方案

再返回來,我們之前講到機器學習的五大流派,我們發現每個流派都存在各自能夠更好解決的一個問題。每一個流派都有一種特定的主算法,這種算法可以解決出現的問題。例如,只有象徵主義者能夠解決的問題是學習那些可以用不同形式組構的知識,他們用逆向推理的方法學習這些知識。聯結主義者運用反向傳播算法來解決信用分配問題。進化論者解決學習結構問題。聯結主義者僅從一個固定的結構開始,進而調整權重值。進化論者知道如何運用遺傳程序提出一種學習結構。貝葉斯學習機制均是研究不確定的事物,他們知道如何就處理所有不確定的事物,他們參考大量數據便可以知道如何提高假說發生的概率。他們使用概率推理法,這種方法在算法上是非常有效的,能夠將貝葉斯原理應用於超大的假說集中。最終,行為類比主義者運用事物之間的相似度進行推理。他們能夠從一兩個例子中概括推理。當時最好的類比算法當屬核心機。但是,我想指出的是,因為每一個出現的問題都是真式且重要的,沒有一種單一算法能夠解決這些問題。我們真正需要的是一種能夠同時解決這五個問題的單一算法。這樣的話, 我們便需要一種機器學習大統一理論。事實上,我們已經朝向這個目標做出了很多努力,並取得了一定成就,但是我們仍然任重道遠。


如何將五種算法化零為整

下面我將給大家呈現我們當前所處的研究狀態。我們擁有五種算法或五種類型的學習方法,關鍵在於如何將其統一起來。看起來,這是一個難題,甚至有人聲稱,這是一個難以實現的目標。這一目標之所以看似難以企及是因為這五種算法之間看起來是不同的。但是,仔細觀察,這五種算法之間還是存在想通之處,它們都由三個相同成分構成,即表徵,評估,優化。

我們將分析每一個成分具體指代什麼,以實現五種算法的統一。表徵指學習者如何表示正在學習的知識,模型和編程。學習者將用於編寫算法的程式語言不是Java,或c++,或類似的任何語言,而應當是一介邏輯語言。因此,我們的首要任務是統一這些表徵方法。最自然的做法是運用象徵主義者的表徵方法,這裡我們運用的是一階邏輯的變體形式,而貝葉斯用到的表徵方法是圖像模型。這些表徵方法已經得到極其普遍的運用。倘若能夠將這兩種表徵方法相結合,我們可以用來表達任何一種事物。例如,任何一種計算機編程都可以運用一階邏輯來表達。任何用於處理不確定事物或權衡證據的方法都可以用圖像模型來表徵。現在我們確實已經實現將這兩種表徵方法結合在一起的目標。事實上,我們已經發展形成各種形式的概率邏輯。應用最廣泛的是Markov 邏輯網絡,該網絡實際上是邏輯網絡和Markov網絡的結合體。該網絡是一種非常簡單的模型,由公式和一階邏輯開始,然後賦予每一個規則於權重值。

接下來,任何一種學習算法的組成成分是評估。評估是一個分數函數,這個函數會顯示一個候選模型的性能優劣。例如,該候選模型是否與數據,與我的目的一致。事實上,每一種學習問題在於能否找到實現評估函數值最大化的編程。一個比較明顯的候選模型是貝葉斯使用的後驗概率。通常來講,評估不應當成為算法的一部分,評估結果應當由用戶提供,用戶來決定學習者應當優化的內容。

最後一個組成成分是優化,即找到實現函數值最大化的模型。因而,這裡便有遺傳編程與反向傳播算法的自然結合,即去發現我們能夠運用遺傳編程的公式。在一階邏輯中,每一個公式是一個樹,我們可以穿越這些樹,應用遺傳過程來提出能夠更好的公式。我擁有一個涉及到許多不同公式,事實,和不同步驟的推理鏈,所有的公式,事實,和不同的步驟都被賦予一定的權重值,我可以運用反向傳播算法來學習這些權重。我們在這一塊兒做出很多努力,但是還未成功。但是,有些人認為實現將五種算法統一為一種單一算法這一目標,僅僅是時間問題。我卻不是特別樂觀。我個人認為,即使我們成功地實現這五種範式的統一,在此過程中仍會出現一些主要思想的丟失,還可能存在我們尚未擁有的想法,沒有了這些想法,我們將不能擁有一種真正意義上的全面的學習機制。

淺論主算法的未來影響

我將針對主算法的未來影響稍作討論,以此結束我們今天的演講。在這裡我提出四個術語,第一個術語為家庭機器人。我們都希望擁有一臺家庭機器人能夠為我們做飯,鋪床,等等便利服務,但是,為何至今我們都沒能實現這一目標?首先,要實現這一目標不能離開機器學習,現今還沒有任何一種程序能夠使得機器人做任何其想要做的一切事物。其次,我們現有的學習算法還有待優化。因為家庭機器人在一天的工作任務中將會遇到所有這五種問題,這將要求其能夠解決所有的問題。因此,在主算法發展過程中,我們還需多做努力。

第二個術語為網絡大腦。每一個人, 包括谷歌在內,都試圖將網絡轉變為一個知識庫。我希望問問題並得到答案,而非查詢關鍵字再返回到網頁。但是,這便要求網絡中所有的知識都要以計算機能夠推理的方式表徵出來,例如,一階邏輯。另一方面,網絡中到處充斥著衝突,噪音,差異,其他等等因素,因此我需要應用概率來解決這一問題。因而,需要統一這五種學習算法,以便能夠從網絡中提取知識。

第三個術語為癌症治療。關於人體健康,治療癌症可能是最重要的。可是,為什麼我們還未找到治療癌症的有效方法?問題在於癌症不是一種單一的疾病,每個人的癌症病症都是不同的。事實上,病人病情發展過程中,同一種癌症都會發生變異,因此,一種藥物是不太可能治癒所有的癌症。癌症的一種真正治療方法,或至少越來越多的癌症研究者認為,將依靠一種學習算法項目,這種項目能夠包含病人的基因組信息,病史,腫瘤細胞的變異,以此來預測使用哪一種藥物能夠殺死這種腫瘤細胞,而不會對病人的正常細胞產生危害,或者使用一系列藥物,或多種藥物聯合治療,或者針對某一病人設計特定的藥物。在某種程度上,這與向人們推薦書目或電影的推薦系統相似,只不過,這裡需要推薦一種藥物。當然,這裡涉及的問題比如何推薦一種藥物,書目,電影更為複雜,你要理解細胞的工作原理,基因與及細胞形成的蛋白質是如何交互作用的。好的消息是,我們擁有大量的數據來實現這一目標,如微陣列,序列等等。但是,基於我們現有的學習算法,我們還無法實現這一目標,而,擁有主算法,這一目標將得以實現。

第四個術語為360度推薦系統。就推薦系統而言,作為一名消費者,我希望能夠有一種關於我自己的一個完備的360度推薦模型,這種模型能夠學習我產生的所有數據,這一模型比任何小型模型都更了解我,因而能夠為我提供更好地推薦服務,不僅能夠推薦一些細枝末節的事物,也能夠為我推薦工作,房子,專業等。擁有這樣一個推薦系統,好比擁有一個生命中的摯友,能夠為你生活中的每一步提供寶貴意見。為了達到這一目標,我們不僅僅需要不斷增長的數據,還需要強大的算法來學習人類這一豐富多彩的模型。

PS : 本文由雷鋒網編譯,未經許可拒絕轉載!

via Pedro Domingos

雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 乾貨丨Pedro Domingos深度解析機器學習五大流派中主算法精髓
    這四種中每一種與前者的差別都是數量級的差異,後者也能發現更多的知識。計算機比之前三種要快幾個數量級,且能與其他幾種實現共存。Yann Lecun——Facebook AI研究組主任未來世界上大多數知識都將被機器提取,且將留存在機器中。
  • 三張圖讀懂機器學習:基本概念、五大流派與九種常見算法
    什麼是機器學習? 機器通過分析大量數據來進行學習。比如說,不需要通過編程來識別貓或人臉,它們可以通過使用圖片來進行訓練,從而歸納和識別特定的目標。 2. 機器學習和人工智慧的關係 機器學習是一種重在尋找數據中的模式並使用這些模式來做出預測的研究和算法的門類。機器學習是人工智慧領域的一部分,並且和知識發現與數據挖掘有所交集。
  • 離散優化代替反向傳播:Pedro Domingos提出深度學習新方向
    Friesen & Pedro Domingos機器之心編譯在改革深度學習、拋棄反向傳播的道路上我們不僅看到了 Geoffrey Hinton 的努力。近日,《終極算法》一書作者,華盛頓大學計算機科學教授 Pedro Domingos 也提出了自己的方法——離散優化。神經分類的原始方法是學習單層模型,比如感知機(Rosenblatt, 1958)。
  • ARXIV:深度學習在金融領域中的應用 | 唧唧堂論文解析
    :R&F;審校編輯 | 悠悠 本文是針對《Deep Learning for Financial Applications : A Survey(深度學習在金融領域中的應用)》的一篇論文解析,其作者為Ahmet Murat Ozbayoglua, Mehmet Ugur Gudeleka和Omer Berat Sezer。
  • 推薦算法系統/人臉識別/深度學習對話機器人高級實戰課
    包含了推薦算法系統實戰、深度學習人臉識別實戰、深度學習對話機器人實戰等高級前沿的精品課程,下面分別介紹下各個實戰項目:1、推薦算法系統實戰首先推薦系統不等於推薦算法,更不等於協同過濾。這麼來說,雖然算法是核心,但離不開每個子系統的配合,另外就是不同算法可以嵌入到各個子系統中,算法可以貫穿到每個子系統。從開發人員角色上來講,推薦系統不僅僅只有算法工程師角色的人就能完成整個系統,需要各個角色的工程師相配合才行。
  • 深度學習在NLP中的運用?從分詞、詞性到機器翻譯、對話系統
    》中,我們已經講到,2016 年是深度學習大潮衝擊 NLP 的一年,通過去年一年的努力,深度學習在 NLP 領域已經站穩了腳跟。其中,對話交互系統已經成為一個重要的應用研究領域,2017 年的自然語言對話系統,將開創一個新的人機互動時代。
  • 機器學習時代的哈希算法,將如何更高效地索引數據
    哈希算法一直是索引中最為經典的方法,它們能高效地儲存與檢索數據。但在去年 12 月,Jeff Dean 與 MIT 等研究者將索引視為模型,探索了深度學習模型學習的索引優於傳統索引結構的條件。本文首先將介紹什麼是索引以及哈希算法,並描述在機器學習與深度學習時代中,如何將索引視為模型學習比哈希算法更高效的表徵。
  • 從星際2深度學習環境到神經機器翻譯,上手機器學習這些開源項目必...
    雖然研究者們在機器學習領域取得了讓人興奮的成果,不過我們仍然處於機器學習發展的早期階段。對於剛接觸機器學習的開發者來講,想要理解什麼是機器學習,首先要搞懂三個部分:輸入、算法、輸出。由於我們需要這些數據來訓練機器學習算法,所以獲取高質量的數據集是如今機器學習領域的最大挑戰之一。算法:如何處理和分析數據機器學習算法可利用數據執行特定的任務,最常見的機器學習算法有如下幾種:1.監督學習。
  • 人工智慧(AI) 機器學習(ML) 深度學習(DL),到底他們哥仨是什麼關係?
    原標題:人工智慧(AI) 機器學習(ML) 深度學習(DL),到底他們哥仨是什麼關係? 機器學習強調「學習」而不是程序本身,通過複雜的算法來分析大量的數據,識別數據中的模式,並做出一個預測--不需要特定的代碼。在樣本的數量不斷增加的同時,自我糾正完善「學習目的」,可以從自身的錯誤中學習,提高識別能力。
  • 對話《主算法》作者:圖靈測試是個壞主意 | AI英雄
    你能給不熟悉它的聽眾,概述一下什麼是主算法嗎?我們在尋找的是什麼?【Pedro Domingos】:當然可以。對於普通讀者來說,這本書基本上是一本機器學習入門。它的受眾不僅僅是那些專業人員,還有商人、政策制定者、公民和那些有好奇心的人。這本書中談到了機器學習在世界上已經產生的影響。很多人認為這些都是科幻小說,但其實這已經在他們的生活中存在了,他們只是不知道而已。
  • 聽說你了解深度學習最常用的學習算法:Adam優化算法?
    By蔣思源2017年7月12日  深度學習常常需要大量的時間和機算資源進行訓練,這也是困擾深度學習算法開發的重大原因。雖然我們可以採用分布式並行訓練加速模型的學習,但所需的計算資源並沒有絲毫減少。而唯有需要資源更少、令模型收斂更快的最優化算法,才能從根本上加速機器的學習速度和效果,Adam算法正為此而生!
  • 深度解析:一文看懂CVPR 2017五大研究前沿
    由於此目標函數不可微,論文中借鑑基礎的強化學習算法REINFORCE 來訓練網絡。 該文提出了一個新的算法SCST(Self-critical Sequence Training),將貪婪搜索(Greedy Search )結果作為 REINFORCE 算法中的基線(Baseline),而不需要用另一個網絡來估計基線的值。這樣的基線設置會迫使採樣結果能接近貪婪搜索結果。
  • 機器學習算法盤點:人工神經網絡、深度學習
    機器學習算法盤點:人工神經網絡、深度學習 佚名 發表於 2016-08-01 16:26:33   機器學習無疑是當前數據分析領域的一個熱點內容。很多人在平時的工作中都或多或少會用到機器學習的算法。
  • 專訪騰訊雲機器學習平臺技術負責人:揭秘騰訊深度學習平臺DI-X背後...
    為此,雷鋒網採訪了騰訊T4專家、騰訊雲機器學習平臺技術負責人Andy。騰訊雲深度學習平臺DI-X誕生的背景雷鋒網:深度學習平臺項目是什麼時候開始啟動的?做DI-X的初衷是什麼?騰訊內部有一個機器學習平臺,從2015年的10月份就開始啟動了。
  • 算法之「算法」:所有機器學習算法都可以表示為神經網絡
    隨後出現了一個又一個新算法,從邏輯回歸到支持向量機。但是眾所周知,神經網絡是算法的算法及機器學習的巔峰。我們可以說,神經網絡是對機器學習的普遍概括,而不是僅僅一次嘗試。基於樹的算法會更加複雜一些,如決策樹算法。至於如何構建此類神經網絡,在於它如何劃分自己的特徵空間。當一個訓練點穿過一系列分割節點時,特徵空間被分割成幾個超立方體;在二維空間示例中,垂直線和水平線構成了正方形。
  • 行業前沿:結合邏輯和神經網絡的ILP,具備了兩大流派的優點
    人工智慧研究者佩德羅·多明戈斯在其著作《大師算法》(The Master Algorithm)一書中提出了單一算法的概念,該算法可以結合機器學習的主要流派。毫無疑問,這個想法非常雄心勃勃,但我們已經看到過很多類似的想法。
  • 普林、DeepMind新研究:結合深度學習和符號回歸,從深度模型中看見...
    符號模型緊湊,具備可解釋性和良好的泛化能力,但很難處理高維機器學習問題;深度模型擅長在高維空間中學習,但泛化性和可解釋性卻很差。那麼有沒有什麼辦法可以取二者之所長呢?這項研究做到了。如何將深度模型轉換為符號方程?來自普林斯頓、DeepMind 等機構的研究人員提出了一種解決方案:結合深度學習和符號回歸實現這一目標。
  • 戴瓊海:深度學習遭遇瓶頸,全腦觀測啟發下一代AI算法
    在大會上,中國工程院院士戴瓊海做了主題為《人工智慧:算法·算力·交互》的特邀報告,從算力、算法與人機互動三方面展開了分享,指出光電智能計算是未來算力發展的一大候選,深度學習遭遇算力和算法瓶頸,全腦觀測對於啟發下一代AI算法至關重要,在人機互動的發展中,我們要謹記圖靈的教誨,完善AI倫理,並且機器視覺、觸覺的協同是一大技術重點。
  • 深度學習技術和卷積神經網絡(CNN)讓機器視覺識別更智能
    隨著人工智慧技術的進步,深度學習技術(DL)和卷積神經網絡技術(CNN)領域的人工智慧(AI)被引入到機器視覺圖像處理系統的應用中來,從而幫助機器學習和機器檢測缺陷更加高效,使機器視覺識別的過程更加精確。也讓使用這些技術的企業可以從智能化中獲得更高的生產經營效益。
  • 聚焦快速機器學習訓練算法,UC伯克利尤洋189頁博士論文公布
    機器之心報導編輯:蛋醬、小舟這份 189 頁的博士學位論文,凝結了尤洋在快速機器學習訓練算法領域的研究心血。過去十年,深度學習應用領域的數據量迅速增長,使得深度神經網絡(DNN)的訓練時間拉長。而這已經成為機器學習開發者和研究者面臨的瓶頸問題。