模式識別與機器學習(教學大綱)|向量|貝葉斯|算法|神經網絡_網易訂閱

2021-01-18 網易

  ISBN:978-7-302-55892-7

  孫仕亮 趙靜 編著

  定價:69.5元

  內容簡介

  本書系統介紹了模式識別與機器學習的基礎理論、模型與算法,兼顧前沿知識的融入。以貝葉斯學習思想貫穿始終,並適時與其他重要知識點(如支持向量機、深度學習)等進行交叉和關聯,便於讀者在形成良好知識體系的同時保持對整個領域知識的把握。

  全書共14章和4個附錄,循序漸進地剖析模式識別與機器學習領域。首先介紹貝葉斯學習基礎、邏輯回歸、概率圖模型基礎、隱馬爾可夫模型和條件隨機場,接著介紹支持向量機、人工神經網絡與深度學習、高斯過程、聚類、主成分分析與相關的譜方法,最後介紹確定性近似推理、隨機近似推理和強化學習。附錄包括傳統的模式識別與機器學習方法,即近鄰法和決策樹,還有向量微積分和隨機變量的變換等與本學科強相關的重要知識點。

  本書亮點

  通俗易懂,配有典型示例

  圖文並茂,配有近100幅直觀示意圖

  算法清晰,做到知其然和知其所以然

  富有深度,包含重要模型擴展

  完整性好,附有重要數學基礎

  配套全面,教學和學習無憂

  配套資源

  教學大綱

  教學課件

  習題答案

  教學大綱

  課程名稱(中文):模式識別與機器學習

  課程名稱(英文):Pattern Recognition and Machine Learning

  學分:2

  學時:36。理論學時36學時;建議將實踐融入平時作業

  授課對象:人工智慧、計算機科學與技術、自動化、電子科學與技術等專業方向的本科生或研究生(碩/博)

  一、課程簡介(中文與英文)

  研修本課程的先導課程為《高等數學》、《線性代數》、《概率論》。

  本課程全面講授模式識別與機器學習的基本概念與典型算法,以計算機視覺、自然語言處理中的問題為典型應用,培養學生對人工智慧的研究興趣,為繼續從事模式識別與機器學習方向的科學研究與工程應用打下堅實的基礎。

  The prerequisite courses of this course are Advanced Mathematics, Linear Algebra, and Probability Theory.

  This course systematically introduces the basic concepts and typical algorithms in the field of pattern recognition and machine learning, and their applications in computer vision and natural language processing. It also aims at activating students』 research interest on artificial intelligence, and lay a solid foundation on pattern recognition and machine learning research and applications.

  二、課程目標

  通過本課程的學習,使學生掌握模式識別與機器學習領域中的基本概念和典型算法,如貝葉斯機器學習、概率圖模型、支持向量機、深度學習、聚類、強化學習等,掌握從事模式識別與機器學習研究的基本理念,提高學生綜合運用所學知識解決問題的能力,特別是對數據進行處理和分析的能力。

  三、教學內容與學時分配

  第一講:引言學時:2

  明確模式識別與機器學習的含義,感受它與人類智慧的聯繫;理解幾類典型機器學習系統的計算流程;了解部分前沿研究方向,體會模式識別與機器學習領域的魅力。

  第二講:貝葉斯學習基礎學時:4

  掌握貝葉斯公式在機器學習中的應用思路;能夠熟練運用貝葉斯決策方法;明確分類器相關的基本概念;掌握基於高斯分布的貝葉斯分類器;理解樸素貝葉斯分類器;能夠熟練運用各種參數估計方法。

  第三講:邏輯回歸學時:4

  掌握線性回歸及其模型求解方法;理解貝葉斯線性回歸;掌握邏輯回歸及其模型求解方法;理解貝葉斯邏輯回歸。

  第四講:概率圖模型基礎學時:4

  明確判別式和生成式概率圖模型的區別;掌握有向圖模型的模型表示、條件獨立性刻畫,理解常見的有向圖模型;掌握無向圖模型的模型表示、條件獨立性刻畫,理解常見的無向圖模型;掌握對樹狀結構因子圖進行推理的和積算法和最大和算法。

  第五講:支持向量機學時:2

  理解大間隔原理;掌握基本的支持向量機分類模型;能夠熟練運用拉格朗日對偶優化技術;掌握數據線性不可分情形下的分類模型,以及核方法的建模原理;理解支持向量機回歸的原理;了解支持向量機的模型擴展。

  第六講:人工神經網絡與深度學習學時:4

  掌握感知機模型和學習算法;掌握多層神經網絡模型和誤差反向傳播訓練算法;理解深度神經網絡的典型挑戰問題;能夠熟練運用至少兩種常見的深度神經網絡。

  第七講:聚類學時:4

  理解聚類的兩大類方法;掌握K-均值聚類方法,理解模糊K-均值聚類的原理;掌握譜聚類方法;掌握高斯混合模型聚類方法,了解無限高斯混合模型。

  第八講:主成分分析與相關的譜方法學時:4

  能夠熟練運用主成分分析;理解概率主成分分析的原理;理解核主成分分析的原理;能夠熟練運用線性判別分析和典型相關分析。

  第九講:強化學習學時:6

  明確強化學習與監督學習的區別;掌握強化學習的基本概念,理解其理論基礎;掌握有環境模型的預測與控制方法;能夠熟練運用至少兩種基於值函數的無環境模型控制方法;能夠熟練運用至少一種基於策略的無環境模型控制方法。

  第十講:複習與備考學時:2

  對課程全部內容進行梳理和考前答疑,準備期末考試。

  四、課程教材

  孫仕亮,趙靜,模式識別與機器學習,北京:清華大學出版社,2020年

  五、考核辦法與評價結構比例

  平時成績:30%,包括平時作業完成情況、出勤情況等

  期末筆試成績(完全閉卷或者允許記錄一頁A4紙參考內容):70%

  

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺「網易號」用戶上傳並發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關焦點

  • 詳解凸優化、圖神經網絡、強化學習、貝葉斯方法等四大主題
    為了迎合時代的需求,我們去年推出了《機器學習高端訓練營》班。這個訓練營的目的很簡單:想培養更多高端的人才,幫助那些即將或者目前從事科研的朋友,同時幫助已從事AI行業的提高技術深度。  在本期訓練營(第四期)中我們對內容做了大幅度的更新,一方面新增了對前沿主題的講解如圖神經網絡(GCN,GAT等),另外一方面對核心部分(如凸優化、強化學習)加大了對理論層面上的深度。
  • 機器學習算法匯總:人工神經網絡、深度學習及其它
    免費訂閱「CSDN雲計算」微信公眾號,實時掌握第一手雲中消息! 人工神經網絡 人工神經網絡算法模擬生物神經網絡,是一類模式匹配算法。通常用於解決分類和回歸問題。人工神經網絡是機器學習的一個龐大的分支,有幾百種不同的算法。
  • 機器學習算法盤點:人工神經網絡、深度學習
    常見算法有邏輯回歸(Logistic Regression)和反向傳遞神經網絡(Back Propagation Neural Network)   非監督式學習:      基於核的算法中最著名的莫過於支持向量機(SVM)了。 基於核的算法把輸入數據映射到一個高階的向量空間, 在這些高階向量空間裡, 有些分類或者回歸問題能夠更容易的解決。
  • 【新書推薦】《機器學習及R應用》目錄
    編者薦語:  《機器學習及R應用》終於上市啦!不少讀者想知道《機器學習及R應用》的目錄。這裡附上詳細的二、三級目錄清單,讓我們先睹為快!  以下文章來源於計量經濟學及Stata應用,作者愛計量。  陳強老師的《機器學習及R應用》終於上市啦!目前已經開始在高等教育出版社的官方微店預售。掃描(或識別)下方二維碼,即可前往售書頁面。
  • 算法之「算法」:所有機器學習算法都可以表示為神經網絡
    隨後出現了一個又一個新算法,從邏輯回歸到支持向量機。但是眾所周知,神經網絡是算法的算法及機器學習的巔峰。我們可以說,神經網絡是對機器學習的普遍概括,而不是僅僅一次嘗試。儘管在技術上神經網絡對算法的表示和實際算法有很多差異,但是重點在於神經網絡表達了相同的思想,並且可以運用相同的策略處理問題,其表現與實際算法也是一樣的。然而一些人或許並不滿足於粗略地將算法轉換為神經網絡的形式,或者希望看到對於更複雜算法的通用應用,如k近鄰和樸素貝葉斯,而不是具體情況具體分析。
  • 機器學習算法集錦:從貝葉斯到深度學習及各自優缺點
    當用於分析因變量和一個 多個自變量之間的關係時,該算法能提供很多建模和分析多個變量的技巧。具體一點說,回歸分析可以幫助我們理解當任意一個自變量變化,另一個自變量不變時,因變量變化的典型值。最常見的是,回歸分析能在給定自變量的條件下估計出因變量的條件期望。回歸算法是統計學中的主要算法,它已被納入統計機器學習。
  • 深度學習:神經網絡算法的昨天、今天和明天
    而這些應用背後的核心算法就是深度學習(Deep Learning),也是機器學習(Machine Learning)領域最火熱的一個分支。和其他機器學習算法有很大不同,深度學習依賴大量數據的迭代訓練,進而發現數據中內在的特徵(Feature),然後給出結果。這些特徵中,有很多已經超越了人為定義的特徵的表達能力,因此得以讓深度學習在很多任務的表現上大大超越了其他機器學習算法,甚至超越了人類自己。
  • 教程| 概率編程:使用貝葉斯神經網絡預測金融市場價格
    今天,我想介紹一個略微有些不同的方法對同樣的算法進行擬合。使用概率的觀點看待這個問題能夠讓我們從數據本身學習正則化、估計預測結果的確定性、使用更少的數據進行訓練,還能在模型中引入額外的概率依賴關係。我不會過多深入貝葉斯模型或變分原理的數學、技術細節,而是會給出一些概述,也更多地將討論集中在應用場景當中。
  • 神經網絡算法原理_神經網絡算法的應用_神經網絡算法實例說明
    神經網絡是一種模擬人腦結構的算法模型。其原理就在於將信息分布式存儲和並行協同處理。雖然每個單元的功能非常簡單,但大量單元構成的網絡系統就能實現非常複雜的數據計算,並且還是一個高度複雜的非線性動力學習系統。   神經網絡的結構更接近於人腦,具有大規模並行、分布式存儲和處理、自組織、自適應和自學能力。
  • 想入門機器學習?機器之心為你準備了一份中文資源合集
    機器之心整理參與:機器之心編輯部機器學習日益廣為人知,越來越多的計算機科學家和工程師投身其中。不幸的是,理論、算法、應用、論文、書籍、視頻等信息如此之多,很容易讓初學者迷失其中,不清楚如何才能提升技能。本文作者依據自身經驗給出了一套快速上手的可行方法及學習資源的分類匯總,機器之心在其基礎上做了增益,希望對讀者有所幫助。
  • 乾貨丨Pedro Domingos深度解析機器學習五大流派中主算法精髓
    神經元之間是互相連接的,這樣形成了一個大的神經網絡。人類所學會的知識幾乎都存在神經元之間的突觸中,整個學習過程基本上是出現在一個神經元幫助另一個神經元發射信號的過程。再如輸入是貓,當所有的加權組合起來超過了閾值,神經元就能識別出來:這是只貓。反向傳播問題一:你如何訓練這些神經元的網絡?神經網絡擁有一大堆神經元,需要通過一層一層計算才能得到輸出。
  • Pedro Domingos深度解析機器學習五大流派中主算法精髓
    神經元之間是互相連接的,這樣形成了一個大的神經網絡。人類所學會的知識幾乎都存在神經元之間的突觸中,整個學習過程基本上是出現在一個神經元幫助另一個神經元發射信號的過程。如何在整個大型、紊亂的神經網絡中進行調整,來得出正確的答案?當出現錯誤,神經元本應該發射信號時,實際上卻不會。出現問題的神經元可能是整個網絡中的任一一個,但是想要找出它來卻十分困難。這就是反向傳播能解決的問題,當人們在20世紀60年代設想出神經網絡時,他們並沒有想到這個反向傳播的方法,它最終是在19世紀80年代由David Rumelhart等人提出的。
  • 深度學習技術和卷積神經網絡(CNN)讓機器視覺識別更智能
    隨著人工智慧技術的進步,深度學習技術(DL)和卷積神經網絡技術(CNN)領域的人工智慧(AI)被引入到機器視覺圖像處理系統的應用中來,從而幫助機器學習和機器檢測缺陷更加高效,使機器視覺識別的過程更加精確。也讓使用這些技術的企業可以從智能化中獲得更高的生產經營效益。
  • 機器學習第一步,從向量和矩陣開始!
    這就意味著,在機器學習中,我們需要一個更加靈活的東西,讓機器可以為不同數據之間的聯繫賦予權重,而不僅僅只有指向。這就是運用向量的意義所在。向量與矩陣在機器學習算法中,有這樣幾個要素值得關注。其次就是向量。雖然在不同語境下,向量的意義各不相同,但並不妨礙我們將其歸納為含有數量級與方向的量。這樣一來,向量便能搭載著數據的邏輯關係及權重,從而讓數據集被輸入編碼器,形成數組,隨之進入神經網絡模型運算。而這個龐大的數組,通常以矩陣的方式出現。
  • 專欄| 貝葉斯學習與未來人工智慧
    當然,人腦並不真正進行精確的概率運算,而是使用某種巧妙的近似機制(例如神經脈衝的數量、形狀等)完成推理過程。目前,基於貝葉斯模型的人腦認知理論已經獲得長足的進步,能夠有效解釋概念學習、物體識別、感知-運動集成和歸納等多種人腦認知行為。3. 貝葉斯理論和其它人工智慧理論基於貝葉斯理論的學習和推斷是人工智慧的重要分支。
  • BAT大廠機器學習算法面試經驗!一文帶你感受網際網路大佬知識點
    、樸素貝葉斯(NB)、人工神經網絡(NN)、K-近鄰(KNN)集成學習算法:隨機森林(RF),GBDT,Adaboost,XGboost。常見的算法包括 k-Nearest Neighbor(KNN), 學習矢量量化(Learning Vector Quantization, LVQ),以及自組織映射算法(Self-Organizing Map,SOM)。深度學習的概念源於人工神經網絡的研究。含多隱層的多層感知器就是一種深度學習結構。深度學習通過組合低層特徵形成更加抽象的高層表示屬性類別或特徵,以發現數據的分布式特徵表示。
  • 純貝葉斯神經網絡沒有意義?OpenAI科學家何出此言?
    選自Buckman's Homepage作者:Carles Gelada、Jacob Buckman機器之心編譯參與:魔王近日,OpenAI 研究科學家 Carles Gelada 發布推文,表示「貝葉斯神經網絡沒有意義」。
  • 如何通過人工神經網絡實現圖像識別?
    尤其是基於誤差反向傳播(Error Back Propagation)算法的多層前饋網絡(Multiple-Layer Feedforward Network)(簡稱BP 網絡),可以以任意精度逼近任意的連續函數,所以廣泛應用於非線性建模、函數逼近、模式分類等方面。
  • 流行的機器學習算法總結,幫助你開啟機器學習算法學習之旅
    這個算法可以對數據進行分類和分組,以識別一些隱藏或未發現的類別,通常用作監督學習的初步步驟。無監督學習強化學習強化學習算法旨在在探索和開發之間找到完美的平衡,而無需標記數據或用戶幹預。這些算法通過選擇一個動作並觀察結果來工作,在此基礎上,它了解結果的準確程度。 反覆重複此過程,直到算法選擇正確的策略為止。
  • 貝葉斯機器學習到底是什麼?看完這篇你就懂了
    這種勞動密集性模式實際上與我們的機器學習方向背道而馳,我們還是希望能使用數據,讓計算機自動學習。概率機器學習我們現在嘗試把「概率」一詞替換「貝葉斯」。從這個角度而言,它與其它分類方法並沒有區別。如果從分類考慮,大多數分類器都能夠輸出概率預測,比如最經典的SVM(支持變量機)。