李宏毅老師2020新課 深度學習與人類語言處理課程 昨天(7月10日)終於完結了,這門課程裡語音和文本的內容各佔一半,主要關注近3年的相關技術,自然語言處理部分重點講述BERT及之後的預處理模型(BERT和它的朋友們),以及相關的NLP任務,包括文本風格遷移、問答系統、聊天機器人以及最新的GPT3解讀等,是難得的深度學習NLP最新學習材料。當然最重要是這是一門中文課程,李宏毅老師的課程質量又極高,再次認真的推薦給各位NLPer:
課程主頁:http://speech.ee.ntu.edu.tw/~tlkagk/courses_DLHLP20.html
B站傳送門:https://www.bilibili.com/video/BV1RE411g7rQ
如果需要該課程視頻和課件,可以掃碼關注以下公眾號後臺回復「DLHLP」獲取課程視頻和相關課件網盤連結,另外我們建立了一個李宏毅老師課程的學習交流群,感興趣的同學可以添加微信 AINLPer(id: ainlper) ,備註「B站李宏毅」進群一起交流學習。
在7月10日最後一次的課程中,李宏毅老師在課程視頻結尾處再次引用了之前的2張PPT作為結束來總結這門課程的主要內容和自然語言處理相關任務的劃分:
最後我們已經將這門課程的視頻和課件打包,如果需要,可以掃碼關注以下公眾號後回復「DLHLP」獲取該課程視頻和相關課件網盤連結,另外我們建立了一個李宏毅老師課程的學習交流群,感興趣的同學可以添加微信 AINLPer(id: ainlper) ,備註「B站李宏毅」進群一起交流學習:
附第一課課程介紹:
推薦閱讀
這個NLP工具,玩得根本停不下來
從數據到模型,你可能需要1篇詳實的pytorch踩坑指南
如何讓Bert在finetune小數據集時更「穩」一點
模型壓縮實踐系列之——bert-of-theseus,一個非常親民的bert壓縮方法
徵稿啟示| 200元稿費+5000DBC(價值20個小時GPU算力)
文本自動摘要任務的「不完全」心得總結番外篇——submodular函數優化
Node2Vec 論文+代碼筆記
模型壓縮實踐收尾篇——模型蒸餾以及其他一些技巧實踐小結
中文命名實體識別工具(NER)哪家強?
學自然語言處理,其實更應該學好英語
史丹福大學NLP組Python深度學習自然語言處理工具Stanza試用
關於AINLP
AINLP 是一個有趣有AI的自然語言處理社區,專注於 AI、NLP、機器學習、深度學習、推薦算法等相關技術的分享,主題包括文本摘要、智能問答、聊天機器人、機器翻譯、自動生成、知識圖譜、預訓練模型、推薦系統、計算廣告、招聘信息、求職經驗分享等,歡迎關注!加技術交流群請添加AINLPer(id:ainlper),備註工作/研究方向+加群目的。
閱讀至此了,分享、點讚、在看三選一吧🙏