Hugging Face NLP 課程開課了,所有課程完全免費。
NLP 領域的小夥伴應該都非常熟悉大名鼎鼎的 Hugging Face,這家專注於解決各種 NLP 問題的初創公司為社區帶來了很多有益的技術成果。去年,該團隊的 Transformers 代碼庫論文獲得了 EMNLP 2020 最佳 demo 獎。今年 4 月,該團隊發布了適用於多 GPU、TPU 和混合精度訓練的 PyTorch 新庫「Accelerate」。近日,Hugging Face 在其官方推特上宣布推出第一部分 NLP 課程,內容涵蓋如何全面系統地使用 Hugging Face 的各類庫(即 Transformers、Datasets、Tokenizers 和 Accelerate),以及 Hugging Face Hub 中的各種模型。更重要的是,所有課程完全免費且沒有任何廣告。課程主頁:https://huggingface.co/course/chapter0?fw=pt整個系列的課程分為入門(Introduction)、進階(Diving in)和高級(Advanced),其中具體如下:入門:Transformer 模型、使用 Transformers、微調預訓練模型以及分享模型和 tokenizers;
進階:Datasets 庫、Tokenizers 庫、主要 NLP 任務以及如何尋求幫助;
高級:專用架構、加速訓練、自定義訓練 loop 以及向 Hugging Face 提交貢獻。
Hugging Face 本次推出的正是入門課程。通過四個章節的內容講解,學習者可以學得使用 pipeline 函數來解決文本生成和分類等 NLP 任務、Transformer 架構,以及區分編碼器、解碼器、編碼器 - 解碼器架構和用例。與此同時,Hugging Face 在課程中使用的所有庫都可以通過 Python 包獲得。學習者首先需要設置 Python 環境和安裝專用庫,並可以使用 Colab notebook 或 Python 虛擬環境來設置自己的工作環境。具體操作請參閱課程主頁中的「setup」部分。第 1 章到第 4 章(入門)介紹了 Transformers 庫的主要概念。本部分課程結束時,你將熟悉 Transformer 模型的工作原理,並了解如何使用 Hugging Face Hub 中的模型,在數據集上對其進行微調,以及在 Hub 上共享結果。第 5 章到第 8 章(進階)介紹了在深入研究經典的 NLP 任務之前,首先介紹了數據集和 Tokenizers 的基礎知識。本部分結束時,你將能夠自己解決最常見的 NLP 問題。第 9 章到第 12 章(高級),會進行深入的學習,展示了專業架構(內存效率,長序列等),並教你如何為用例編寫自定義對象。在本部分結束時,你將會解決複雜的 NLP 問題。Matthew Carrigan 是 Hugging Face 的機器學習工程師,此前曾擔任預測分析公司 Parse.ly 的機器學習工程師和都柏林聖三一學院的博士後研究員。Lysandre Debut 同為 Hugging Face 的機器學習工程師,並且從很早期就開始從事 Transformers 庫相關的工作。Sylvain Gugger 是 Hugging Face 的研究工程師,也是 Transformers 庫的核心維護者之一。此前,他曾任非盈利研究組織 fast.ai 的研究科學家,並與 fast.ai 創始人 Jeremy Howard 合著書籍《Deep Learning for Coders with fastai and PyTorch》。他的研究重點在於設計和改進促使模型在有限資源上快速訓練的技術,使得深度學習更易獲得。亞馬遜雲科技中國峰會
2021亞馬遜雲科技中國峰會將在中國上海、北京、深圳三大城市舉辦。本次峰會以「構建新格局,重塑雲時代」為題,並攜手眾多業內領先的技術踐行者們一起同你分享「雲時代的構建故事與重塑經驗」。7月21日-22日,2021亞馬遜雲科技中國峰會上海站將有多位重磅業內專家及行業大咖在現場分享獨到的行業見解。
面向開發者,本次峰會將專門設立開發者專區,並聯合 Apache 等各類開源社區,以及多位開源牛人,為開發者們帶來腦洞大開的內容分享!
面向行業,近百位來自業內各領域的合作夥伴、客戶及亞馬遜雲科技技術專家,共同組成的強大嘉賓陣容,為你帶來行業最佳實踐分享及領先技術成果發布解讀!
識別下方小程序,立即報名。
© THE END
轉載請聯繫本公眾號獲得授權
投稿或尋求報導:content@jiqizhixin.com