微軟研究院近日開源了能夠解開AI黑盒子的工具包InterpretML,其可提供開發人員使用多種方式來實驗AI模型和系統,並進一步解釋模型。
據悉,InterpretML工具包含有許多可理解的模型和多種方法,能夠針對黑盒子模型的個別預測行為產生解釋。
微軟指出,當AI系統影響人類的生活時,使人們了解AI的行為就相當重要,了解AI模型的行為,也能讓數據科學家為模型糾錯,而理解模型如何推論,則可以使設計模型的開發者傳遞模型如何運作的信息給終端使用者。
一般模型的準確度和可理解性無法兼顧,而微軟研究院開發出的這套兼顧準確度和理解性的演算法Explainable Boosting Machine,能夠通過現代機器學習技術,像是Bagging和Boosting分類方法,來改善傳統的廣義加成(Generalized Additive)模型。
【開發者可以用InterpretML工具包,比較不同的方法產生的解釋,並選出一個最適合的方法,通過在不同的方法之間比對一致性,能夠協助開發者了解該解釋的可信度。】
調查區域:企業小調查(點擊預覽可查看效果)
【ZOL客戶端下載】看最新科技資訊,APP市場搜索「中關村在線」,客戶端閱讀體驗更好。