估計很多同學看到標題首先想到是李宏毅老師的「深度學習人類語言處理」課程,不過這次我們說的是臺灣大學陳蘊儂老師的「應用深度學習」課程,這門課程我們之前在公眾號上推薦過,不過主要給大家推薦的是課程視頻和課件資源。前段時間,我把這門課程放在了B站上,並花了一點時間看了一下這門課程,覺得這門課程完全可以叫做「深度學習自然語言處理」,因為基本上就是講得深度學習NLP。個人覺得這門課程結構安排得相當合理,並且重點在BERT及其相關的內容和NLP任務上,對於學習深度學習自然語言處理的同學來說,完全可以和李宏毅老師深度學習人類語言處理的課程互補。
課程主頁:
https://www.csie.ntu.edu.tw/~miulab/s108-adl/
B站傳送門:
https://www.bilibili.com/video/BV1Mi4y1V7A1
課程視頻及課件網盤連結,請關注下列公眾號並回復"ADL2020"獲取:
讓我們來看看這門課程的目錄吧:
P1 Lecture 1.1 - What is ML什麼是機器學習
P2 Lecture 1.2 - What is DL什麼是深度學習
P3 Lecture 1.3 - How to Apply如何應用深度學習
P4 Lecture 2.1 - How to Train a Model如何訓練模型
P5 Lecture 2.2 - What is Model什麼是模型
P6 Lecture 2.3 - What does the 'Good' Function Mean什麼叫做好的Function呢
P7 Lecture 2.4 - How can we Pick the 'Best' Function如何找出最好的Function
P8 Lecture 2.5 - Backpropagation效率地計算大量參數
P9 TA Recitation - Optimization
P10 Lecture 3.1 - Word Representations
P11 Lecture 3.2 - Language Modeling語言模型
P12 Lecture 3.3 - Recurrent Neural Network詳細解析
P13 Lecture 3.4 - RNN Applications RNN各式應用
P14 TA Recitation - Practical Tips
P15 Lecture 4.1 - Attention Mechanism注意力機制
P16 Lecture 4.2 - Attention Applications注意力的各式應用
P17 Assignment 1 Tutorial
P18 Lecture 5.1 - Word Representation Review詞向量各式表示法
P19 Lecture 5.2 - Word2Vec詞向量
P20 Lecture 5.3 - Word2Vec Training如何訓練詞向量
P21 Lecture 5.4 - Negative Sampling
P22 Lecture 5.5 - Word2Vec Variants各種訓練的變化方式
P23 Lecture 5.6 - GloVe詞向量
P24 Lecture 5.7 - Word Vector Evaluation如何評價詞向量的好壞
P25 Lecture 5.8 - Contextualized Word Embeddings前後文相關之詞向量
P26 Lecture 5.9 - ELMo芝麻街家族之起源
P27 Lecture 6.1 - Basic Attention基本注意力模型複習
P28 Lecture 6.2 - Self Attention新注意力機制
P29 Lecture 6.3 - Multi-Head Attention
P30 Lecture 6.4- Transformer
P31 Lecture 6.5- BERT進擊的芝麻街巨人
P32 TA Recitation- More on Embeddings
P33 Lecture 7.1 - Transformer-XL處理超長輸入的Transformer
P34 Lecture 7.2 - XLNet兼顧AR及AE好處的模型
P35 Lecture 7.3 - RoBERTa,SpanBERT,XLM簡單有用的改進方法
P36 Lecture 7.4- ALBERT如何讓BERT縮小卻依然好用呢
P37 TA Recitation - More on Transformers
P38 Lecture 8.1- Deep Reinforcement Learning Introduction
P39 Lecture 8.2- Markov Decision Process
P40 Lecture 8.3- Reinforcement Learning
P41 Lecture 8.4- Value-Based RL Approach
P42 Lecture 8.5- Advanced DQN
P43 Lecture 9.1- Policy Gradient
P44 Lecture 9.2- Actor Critic
P45 Lecture 10.1- Natural Language Generation
P46 Lecture 10.2- Decoding Algorithm
P47 Lecture 10.3- NLG Evaluation
P48 Lecture 10.4- RL for NLG(20-05-12)
P49 TA Recitation- RL for Dialogues
P50 GAN(Quick Review)
P51 GAN Lecture 4(2018)- Basic Theory
P52 GAN Lecture 6(2018)- WGAN,EBGAN
P53 Lecture 11.1- Unsupervised Learning Introduction
P54 Lecture 11.2- Autoencoder & Variational Autoencoder
P55 Lecture 11.3- Distant Supervision & Multi-Task Learning
P56 Lecture 12.1- Conversational AI Introduction對話AI簡介
P57 Lecture 12.2- Task-Oriented Dialogues任務型對話
P58 Lecture 12.3- Chit-Chat Social Bots聊天型對話
P59 Lecture 13.1- Robustness對話系統的強健性
P60 Lecture 13.2- Scalability對話系統的擴展性
P61 Final Project- Rules & Grading
P62 Career Sharing求學經驗分享
最後,不得不說臺大公開課的質量還是很高的,無論是李宏毅老師,還是陳蘊儂老師的課程,對於需要中文視頻課程資源的同學來說都是非常值得擁有的。
最後再次提示,課程視頻及課件網盤連結,請關注下列公眾號並回復"ADL2020"獲取:
推薦閱讀
這個NLP工具,玩得根本停不下來
徵稿啟示| 200元稿費+5000DBC(價值20個小時GPU算力)
完結撒花!李宏毅老師深度學習與人類語言處理課程視頻及課件(附下載)
從數據到模型,你可能需要1篇詳實的pytorch踩坑指南
如何讓Bert在finetune小數據集時更「穩」一點
模型壓縮實踐系列之——bert-of-theseus,一個非常親民的bert壓縮方法
文本自動摘要任務的「不完全」心得總結番外篇——submodular函數優化
Node2Vec 論文+代碼筆記
模型壓縮實踐收尾篇——模型蒸餾以及其他一些技巧實踐小結
中文命名實體識別工具(NER)哪家強?
學自然語言處理,其實更應該學好英語
史丹福大學NLP組Python深度學習自然語言處理工具Stanza試用
關於AINLP
AINLP 是一個有趣有AI的自然語言處理社區,專注於 AI、NLP、機器學習、深度學習、推薦算法等相關技術的分享,主題包括文本摘要、智能問答、聊天機器人、機器翻譯、自動生成、知識圖譜、預訓練模型、推薦系統、計算廣告、招聘信息、求職經驗分享等,歡迎關注!加技術交流群請添加AINLPer(id:ainlper),備註工作/研究方向+加群目的。
閱讀至此了,分享、點讚、在看三選一吧🙏