可解釋性是當下機器學習研究特點之一。最近,來自復旦大學的研究生朱明超,將《Interpretable Machine Learning》翻譯成了中文。本文推介由朱明超同學親自撰寫。
這本書最初是由德國慕尼黑大學博士Christoph Molnar耗時兩年完成的,長達250頁,是僅有的一本系統介紹可解釋性機器學習的書籍。
這本書最初是由Christoph Molnar耗時兩年完成的《Interpretable Machine Learning》,長達250頁,在公開至今該書得到密切關注,這是在可解釋性領域可以找到的僅有的一本書。
「可解釋」是這本書的核心論題。作者Molnar認為,可解釋性在機器學習甚至日常生活中都是相當重要的一個問題。建議機器學習從業者、數據科學家、統計學家和任何對使機器學習模型可解釋的人閱讀本書。
硬核內功!《Interpretable Machine Learning》可解釋機器學習中文版!掃下面碼關注【機器學習與生成對抗網絡】回覆:解釋 ,即可獲取電子版。
Molnar表示,雖然數據集與黑盒機器學習解決了很多問題,但這不是最好的使用姿勢,現在模型本身代替了數據成為了信息的來源,但可解釋性可以提取模型捕捉到的額外信息。當我們的日常生活中全都是機器和算法時,也需要可解釋性來增加社會的接受度。畢竟要是連科學家都研究不透「黑盒」,怎樣讓普通人完全信任模型做出的決策呢?
這本書的重點是機器學習的可解釋性。你將學習簡單的、可解釋的模型,如線性回歸、決策樹和決策規則等。後面幾章重點介紹了解釋黑盒模型的模型無關的一般方法,如特徵重要性和累積局部效應,以及用 Shapley 值和 LIME 解釋單個實例預測。
對各種解釋方法進行了深入的解釋和批判性的討論。它們是如何工作的?優點和缺點是什麼?如何解釋它們的輸出?本書將使你能夠選擇並正確應用最適合你的機器學習項目的解釋方法。你閱讀本書後,內化知識還使你能夠更好地理解和評估arxiv.org上發表的有關可解釋性的新論文。
這本書中用許多平實的語言,結合各類現實生活中的例子介紹了相關的概念,還配了參考連結可以進一步學習了解。
《可解釋的機器學習》該書總共包含 7 章內容。章節目錄如下:
第一章:前言
第二章:可解釋性
第三章:數據集
第四章:可解釋的模型
第五章:模型無關方法
第六章:基於樣本的解釋
第七章:水晶球
掃下面碼關注【機器學習與生成對抗網絡】回覆:解釋 ,即可獲取電子版。掃下面碼關注【機器學習與生成對抗網絡】回覆:解釋 ,即可獲取電子版。