臺大這門深度學習自然語言處理課程,可能被低估了

2021-02-22 AINLP

估計很多同學看到標題首先想到是李宏毅老師的「深度學習人類語言處理」課程,不過這次我們說的是臺灣大學陳蘊儂老師的「應用深度學習」課程,這門課程我們之前在公眾號上推薦過,不過主要給大家推薦的是課程視頻和課件資源。前段時間,我把這門課程放在了B站上,並花了一點時間看了一下這門課程,覺得這門課程完全可以叫做「深度學習自然語言處理」,因為基本上就是講得深度學習NLP。個人覺得這門課程結構安排得相當合理,並且重點在BERT及其相關的內容和NLP任務上,對於學習深度學習自然語言處理的同學來說,完全可以和李宏毅老師深度學習人類語言處理的課程互補。

課程主頁:

https://www.csie.ntu.edu.tw/~miulab/s108-adl/

B站傳送門:

https://www.bilibili.com/video/BV1Mi4y1V7A1

課程視頻及課件網盤連結,請關注下列公眾號並回復"ADL2020"獲取:

讓我們來看看這門課程的目錄吧:

P1 Lecture 1.1 - What is ML什麼是機器學習

P2 Lecture 1.2 - What is DL什麼是深度學習

P3 Lecture 1.3 - How to Apply如何應用深度學習

P4 Lecture 2.1 - How to Train a Model如何訓練模型

P5 Lecture 2.2 - What is Model什麼是模型

P6 Lecture 2.3 - What does the 'Good' Function Mean什麼叫做好的Function呢

P7 Lecture 2.4 - How can we Pick the 'Best' Function如何找出最好的Function

P8 Lecture 2.5 - Backpropagation效率地計算大量參數

P9 TA Recitation - Optimization

P10 Lecture 3.1 - Word Representations

P11 Lecture 3.2 - Language Modeling語言模型

P12 Lecture 3.3 - Recurrent Neural Network詳細解析

P13 Lecture 3.4 - RNN Applications RNN各式應用

P14 TA Recitation - Practical Tips

P15 Lecture 4.1 - Attention Mechanism注意力機制

P16 Lecture 4.2 - Attention Applications注意力的各式應用

P17 Assignment 1 Tutorial

P18 Lecture 5.1 - Word Representation Review詞向量各式表示法

P19 Lecture 5.2 - Word2Vec詞向量

P20 Lecture 5.3 - Word2Vec Training如何訓練詞向量

P21 Lecture 5.4 - Negative Sampling

P22 Lecture 5.5 - Word2Vec Variants各種訓練的變化方式

P23 Lecture 5.6 - GloVe詞向量

P24 Lecture 5.7 - Word Vector Evaluation如何評價詞向量的好壞

P25 Lecture 5.8 - Contextualized Word Embeddings前後文相關之詞向量

P26 Lecture 5.9 - ELMo芝麻街家族之起源

P27 Lecture 6.1 - Basic Attention基本注意力模型複習

P28 Lecture 6.2 - Self Attention新注意力機制

P29 Lecture 6.3 - Multi-Head Attention

P30 Lecture 6.4- Transformer

P31 Lecture 6.5- BERT進擊的芝麻街巨人

P32 TA Recitation- More on Embeddings

P33 Lecture 7.1 - Transformer-XL處理超長輸入的Transformer

P34 Lecture 7.2 - XLNet兼顧AR及AE好處的模型

P35 Lecture 7.3 - RoBERTa,SpanBERT,XLM簡單有用的改進方法

P36 Lecture 7.4- ALBERT如何讓BERT縮小卻依然好用呢

P37 TA Recitation - More on Transformers

P38 Lecture 8.1- Deep Reinforcement Learning Introduction

P39 Lecture 8.2- Markov Decision Process

P40 Lecture 8.3- Reinforcement Learning

P41 Lecture 8.4- Value-Based RL Approach

P42 Lecture 8.5- Advanced DQN

P43 Lecture 9.1- Policy Gradient

P44 Lecture 9.2- Actor Critic

P45 Lecture 10.1- Natural Language Generation

P46 Lecture 10.2- Decoding Algorithm

P47 Lecture 10.3- NLG Evaluation

P48 Lecture 10.4- RL for NLG(20-05-12)

P49 TA Recitation- RL for Dialogues

P50 GAN(Quick Review)

P51 GAN Lecture 4(2018)- Basic Theory

P52 GAN Lecture 6(2018)- WGAN,EBGAN

P53 Lecture 11.1- Unsupervised Learning Introduction

P54 Lecture 11.2- Autoencoder & Variational Autoencoder

P55 Lecture 11.3- Distant Supervision & Multi-Task Learning

P56 Lecture 12.1- Conversational AI Introduction對話AI簡介

P57 Lecture 12.2- Task-Oriented Dialogues任務型對話

P58 Lecture 12.3- Chit-Chat Social Bots聊天型對話

P59 Lecture 13.1- Robustness對話系統的強健性

P60 Lecture 13.2- Scalability對話系統的擴展性

P61 Final Project- Rules & Grading

P62 Career Sharing求學經驗分享

最後,不得不說臺大公開課的質量還是很高的,無論是李宏毅老師,還是陳蘊儂老師的課程,對於需要中文視頻課程資源的同學來說都是非常值得擁有的。

最後再次提示,課程視頻及課件網盤連結,請關注下列公眾號並回復"ADL2020"獲取:

推薦閱讀

這個NLP工具,玩得根本停不下來

徵稿啟示| 200元稿費+5000DBC(價值20個小時GPU算力)

完結撒花!李宏毅老師深度學習與人類語言處理課程視頻及課件(附下載)

從數據到模型,你可能需要1篇詳實的pytorch踩坑指南

如何讓Bert在finetune小數據集時更「穩」一點

模型壓縮實踐系列之——bert-of-theseus,一個非常親民的bert壓縮方法

文本自動摘要任務的「不完全」心得總結番外篇——submodular函數優化

Node2Vec 論文+代碼筆記

模型壓縮實踐收尾篇——模型蒸餾以及其他一些技巧實踐小結

中文命名實體識別工具(NER)哪家強?

學自然語言處理,其實更應該學好英語

史丹福大學NLP組Python深度學習自然語言處理工具Stanza試用

關於AINLP

AINLP 是一個有趣有AI的自然語言處理社區,專注於 AI、NLP、機器學習、深度學習、推薦算法等相關技術的分享,主題包括文本摘要、智能問答、聊天機器人、機器翻譯、自動生成、知識圖譜、預訓練模型、推薦系統、計算廣告、招聘信息、求職經驗分享等,歡迎關注!加技術交流群請添加AINLPer(id:ainlper),備註工作/研究方向+加群目的。

閱讀至此了,分享、點讚、在看三選一吧🙏

相關焦點

  • 自然語言處理終極方向:深度學習用於自然語言處理的5大優勢
    在自然語言處理領域,深度學習的承諾是:給新模型帶來更好的性能,這些新模型可能需要更多數據,但不再需要那麼多的語言學專業知識。 關於深度學習方法有很多炒作和大話,但除了炒作之外,深度學習方法正在為挑戰性問題取得最先進的結果,特別是在自然語言處理領域。 在這篇文章中,您將看到深度學習方法應對自然語言處理問題的具體前景。看
  • 「李宏毅老師對不起,我要去追這門美女老師的課了」 ,臺大陳蘊儂深度學習課程最新資料下載
    估計很多同學看到臺大首先想到是李宏毅老師的「深度學習人類語言處理」課程,不過這次我們說的是臺灣大學陳蘊儂老師的「應用深度學習」課程,這門課程我們之前推薦過,不過主要給大家推薦的是課程視頻和課件資源。
  • 【NLP專題】斯坦福CS224n課程筆記01:自然語言處理與深度學習簡介
    (15 mins)課程安排 (15mins)為什麼語言理解很困難(10mins)基於深度學習的自然語言處理應用介紹 (20 mins)一.自然語言處理什麼是自然語言處理• 自然語言處理(Natural Language Processing, NLP)是一門集計算機科學、人工智慧和語言學知識於一體的交叉學科。其目標是讓計算機可以處理或者"理解"自然語言,從而可以執行一系列有用的任務,比如:機器翻譯,智能問答(Siri,Google Assistant, Facebook M, Cortana …)。
  • 最新(2019)斯坦福CS224n深度學習自然語言處理課程(視頻+筆記+2017年合集)
    向AI轉型的程式設計師都關注了這個號👇👇👇機器學習AI算法工程  公眾號:datayx史丹福大學2019年新一季的CS224n深度學習自然語言處理課程這門自然語言處理課程是值得每個NLPer學習的NLP課程,由 Christopher Manning 大神坐鎮主講,面向史丹福大學的學生,在史丹福大學已經講授很多年。
  • 資料|普林斯頓大學陳丹琦主講2020課程《深度學習自然語言處理...
    from=leiphonecolumn_res0420課程官網:https://www.cs.princeton.edu/courses/archive/spring20/cos598C/陳丹琦博士是自然語言處理研究員領域的新星大神,她從斯坦福畢業後,到普林斯頓大學任助理教授。
  • 李宏毅老師深度學習與人類語言處理課程視頻及課件(附下載)
    李宏毅老師2020新課 深度學習與人類語言處理課程 昨天(7月10日)終於完結了,這門課程裡語音和文本的內容各佔一半,主要關注近3
  • 實踐入門NLP:基於深度學習的自然語言處理
    特別是最近兩年,基於深度學習的自然語言處理逐漸取得了一定進展,在人機對話、問答系統、語言翻譯等方向的應用也一直是自然語言處理中的熱門話題,而這些應用的實現,基本依賴於底層技術和模型的進步,再加上自然語言處理領域也算是一個多學科交叉的行業,自然語言處理的未來發展對於很多相關學科和方向都具有深遠的影響力。
  • 斯坦福 Chris Manning 新課—自然語言處理與深度學習,附課程PPT下載
    【導讀】本文為大家帶來了一份史丹福大學的最新課程CS224n——自然語言處理與深度學習,主講人是史丹福大學Chris Manning,他是史丹福大學機器學習教授,語言學和計算機科學教授,斯坦福人工智慧實驗室(SAIL)主任,以人為本的人工智慧研究所副所長。
  • 深度學習在自然語言處理研究上的進展
    在自然語言處理領域,雖然深度學習方法也收到越來越多的關注,在很多任務上也取得了一定效果,但是並沒有其它領域那麼顯著。傳統的主流自然語言處理方法是基於統計機器學習的方法,所使用的特徵大多數是基於onehot向量表示的各種組合特徵。這個特徵表示方式會導致特徵空間非常大,但也帶來一個優點。就是在非常高維的特徵空間中,很多任務上都是近似線性可分的。
  • 自然語言處理深度學習的7個應用
    自然語言處理領域正在從統計方法轉變為神經網絡方法。自然語言中仍有許多具有挑戰性的問題需要解決。然而,深度學習方法在一些特定的語言問題上取得了最新的成果。這不僅僅是深度學習模型在基準問題上的表現,基準問題也是最有趣的;事實上,一個單一的模型可以學習詞義和執行語言任務,從而消除了對專業手工製作方法渠道的需要。
  • 深度| 自然語言處理領域深度學習研究總結:從基本概念到前沿成果
    每隔幾周,加利福尼亞大學洛杉磯分校(UCLA)的 Adit Deshpande 就會在其博客上發表一篇深度解讀的深度學習研究回顧博客。今天這篇是 Adit 的這一系列的第三篇博客,將主要介紹深度學習在自然語言處理當中的應用。
  • 深度學習在自然語言處理上的七大應用
    本文由 「AI前線」原創,原文連結:http://t.cn/RQhUr9y 作者|Jason Brownlee,譯者|CarolGuo,編輯|Emily 自然語言中仍然存在許多具有挑戰性的問題。然而,深度學習方法在某些特定的語言問題上可以獲得最先進的結果。
  • CCCF專欄 | 自然語言處理中的深度學習:評析與展望
    為什麼深度學習能夠成為自然語言處理的強大工具?未來深度學習在自然語言處理中將如何發展?本文嘗試回答這兩個大家都關心的問題。人的語言處理人是如何進行語言處理,即語言理解和語言生成的?這個問題仍是當今科學最大的未解之迷。
  • 課程簡記:深度學習與人類語言處理 ——李宏毅,2020 (P2&3)
    原創 · 作者 | 阿芒Aris學校 | 北京理工大學研究方向 | 自然語言處理語音識別系統中的輸入和輸出李宏毅老師2020新課深度學習與人類語言處理課程主頁:http://speech.ee.ntu.edu.tw/~tlkagk/courses_DLHLP20.html視頻連結地址:https://www.bilibili.com/video/BV1RE411g7rQ課程視頻及課件請關注AINLP公眾號,回復'DLHLP'獲取
  • 從語言學到深度學習NLP,一文概述自然語言處理
    本文從兩篇論文出發先簡要介紹了自然語言處理的基本分類和基本概念,再向讀者展示了深度學習中的 NLP。這兩篇論文都是很好的綜述性入門論文,希望詳細了解自然語言處理的讀者可以進一步閱讀這兩篇論文。本文第一部分介紹了自然語言處理的基本概念,作者將 NLP 分為自然語言理解和自然語言生成,並解釋了 NLP 過程的各個層級和應用,這一篇論文很適合讀者系統的了解 NLP 的基本概念。
  • 2019斯坦福CS224n深度學習自然語言處理筆記(1)Word2Vec與Glove
    )是自然語言處理領域很受歡迎的課程,由 Chris Manning 和 Richard Socher 主講。但是自 2017 年以來,NLP 有了很多重大的變化,包括 Transformer 和預訓練語言模型等。以前開放的是 17 年年初的課程,很多激動人心的前沿模型都沒有介紹,而今年年初 CS224n 終於開始更新 19 年課程的視頻。這門課程為深入學習NLP應用的前沿研究提供了深入的探索。課程最後的項目將涉及訓練複雜的循環神經網絡並將其應用於大型NLP問題。
  • 自然語言處理的應用前景
    自然語言處理(NLP)的定義 自然語言處理(NLP)是人工智慧技術的一個分支,它使計算機能夠像人們一樣理解、處理和生成語言,並且在商業中的應用正在迅速增長。 雖然自然語言處理(NLP)這一術語最初指的是人工智慧系統的閱讀能力,但它後來成為所有計算語言學的一種通俗說法。
  • 李宏毅-《深度學習人類語言處理2020》中文視頻課程及ppt分享
    由國立臺灣大學李宏毅老師主講的純中文版,2020年深度學習與人類語言處理課程開課了,該課程主要講解深度學習技術在人類語言處理,比如語音識別、自然語言處理相關的知識。
  • 【CCCF專題】深度學習在自然語言處理中的應用
    自然語言處理中的深度學習隨著語音和圖像處理領域的突破性進展,深度學習在自然語言處理領域也越來越受到重視,並逐漸應用於自然語言處理的各種任務中。然而自然語言處理任務有其自身的特點,與語音和圖像處理之間的不同主要體現在以下兩方面。語音和圖像在處理過程中的輸入信號可以在向量空間內表示,而自然語言處理通常在詞彙一級進行。
  • 自然語言處理的發展簡史
    因為處理自然語言的關鍵是要讓計算機「理解」自然語言,所以通常把自然語言理解視為自然語言處理, 也稱為計算語言學。它的終極目標是用自然語言與計算機進行通信,使人們可以用自己最習慣的語言來使用計算機,而無需再花大量的時間和精力去學習不很自然和習慣的各種計算機語言。 自然語言處理是一門融語言學、計算機科學、數學於一體的科學。