裴健團隊KDD新作:革命性的新方法,準確、一致地解釋深度神經網絡

2020-12-14 雷鋒網

雷鋒網 AI 科技評論按:你有沒有想過,深度神經網絡是依據什麼來準確識別有貓的圖片的?隨著深度神經網絡在金融、醫療及自動駕駛等領域的廣泛應用,深度神經網絡無法明確解釋自身決策行為的問題也引起了越來越多的關注。明確解釋深度神經網絡的決策行為,能夠大幅提升各類用戶對深度神經網絡的信任,並顯著降低大規模使用深度神經網絡所帶來的潛在風險,是基於深度神經網絡的人工智慧應用成功落地的重要一環。

論文視頻簡介

相關工作

雷鋒網(公眾號:雷鋒網) AI 科技評論近期也有多篇文章從不同角度探討了深度神經網絡的可解釋性。總的來說,現有的三種解釋方法都有各自的問題。

「隱層神經元分析方法」(Hidden Neuron Analysis Methods)

該方法通過分析和可視化神經網絡中隱層神經元的局部特徵來解釋深度神經網絡的行為。以谷歌的研究《谷歌的新CNN特徵可視化方法》及其後續的《可解釋性的基石》為例,這類方法能夠有效提取隱層神經元學到的局部特徵,但無法明確解釋深度神經網絡的整體行為。

「模仿者模型方法」(Mimic Model Methods)

該方法通過訓練一個可解釋的模仿者模型來模仿和解釋深度神經網絡。在輸入相同的前提下,模仿者模型具有與深度神經網絡相似的輸出。因此,有研究人員利用模仿者模型來解釋深度神經網絡。但是,模仿者模型和被模仿的神經網絡並非完全相同。即便兩個模型在某些相同的輸入上具有相似的輸出,其內部的決策機制也可以有很大的區別。因此,模仿者模型無法準確地解釋深度神經網絡。

「局部解釋方法」(Local Interpretation Methods)

該方法首先在輸入實例的鄰域內採樣一組近鄰實例,然後訓練一個線性模型來擬合神經網絡在近鄰實例上的決策輸出,最後使用線性模型的決策特徵來解釋該神經網絡對輸入實例的決策行為。這類方法有兩點問題。首先,因為線性模型與神經網絡並不相同,所以局部解釋方法無法提供準確解釋。其次,由於線性模型的決策特徵依賴於近鄰數據,而通過採樣獲得的近鄰數據具有很強的隨機性,因此這類方法對相似輸入實例的解釋可能非常不一致,對同一輸入實例的多次解釋也有可能不同。

綜上所述,雖然上述方法能夠增進我們對於神經網絡工作機制的理解,但是它們無法對深度神經網絡的行為提供準確、一致的解釋。

我們為什麼需要準確、一致的解釋?

首先,如果一個解釋是不準確的,我們就無法確定解釋結果和模型的真實決策是否相符,解釋本身就是不可信的。其次,如果對於多個相似實例的解釋不一致,我們將不可避免地遇到多個解釋自相矛盾的情況,解釋的有效性也會因此受到質疑。

一種革命性的新方法

準確、一致的解釋符合人類認知的客觀規律。但是,對於錯綜複雜的深度神經網絡,我們能否找到準確、一致的解釋方法呢?

西蒙弗雷澤大學(Simon Fraser University,SFU)計算科學學院裴健教授團隊的論文《Exact and Consistent Interpretation for Piecewise Linear Neural Networks: A Closed Form Solution》(圖 1)不僅為這個問題給出了肯定的答案,更給出了一種形式優美的解析解,在大家關注的模型解釋性的多個方面都取得了出色的表現。

這篇由褚令洋博士擔任第一作者的論文已經被 KDD 2018 接收為長報告論文。這屆 KDD 研究論文收到投稿 938 篇,僅錄用了 107 篇長報告論文,錄用率只有11.4%,另外還接收了 74 篇短報告論文。在同行評議過程中,這篇論文的四個審稿人中有兩個給了滿分。

圖 1: 論文標題及作者列表

雷鋒網 AI 科技評論把論文的主要內容介紹如下。

這篇論文研究了以分段線性函數為激活函數的分段線性神經網絡(Piecewise Linear Neural Network, PLNN)。分段線性函數在不同的定義域區間內對應不同的線性函數。經典的 MaxOut 、ReLU 以及 ReLU 的一些變體都是分段線性函數。從微分學的角度來看,只要分段數目足夠多,連續光滑的 sigmoid 、tanh 等激活函數也都可以用分段線性函數來無限逼近。

與現有的規範做法一樣,該論文通過求解一個分段線性神經網絡 N 的決策特徵來解釋 N 的決策行為。但與現有方法大為不同的是,論文對 N 的解釋具有如下兩個獨特的優點

1. 準確性(Exactness):該論文構造了一個具有簡潔解析形式的新模型 M ,並證明了 M 和 N 在數學上等價。因此,M 的決策特徵能夠準確描述 N 的真實決策行為。

2. 一致性(Consistency):該論文證明了 M 是一個分段線性函數,並以解析形式給出了 M 在其定義域中的各個分段區間,以及 M 在每個區間上的線性決策函數。因為在相同分段區間中的所有輸入實例共享同一個線性決策函數的決策特徵,所以由模型 M 對這些輸入實例所提供的解釋是完全一致的。

OpenBox - 通向準確性和一致性的金鑰匙

該論文的作者們提出了全新的 OpenBox 方法對分段線性神經網絡(PLNN)的決策行為提供準確、一致的解釋。「OpenBox」 這個名字也很貼切地描述了作者們使用簡潔的解析方法「打開」深度神經網絡這個「黑盒子」的過程。

OpenBox 方法適用於所有 PLNN。本文將用以 PReLU 為激活函數的 PLNN 為例子詳細介紹 OpenBox 方法的技術要點。

1. 對單個輸入實例的準確解釋方法

圖 2:隱層神經元的激活狀態(status)

如圖 2 所示,對於以 PReLU 為激活函數的隱層神經元,其激活狀態(status)分為兩種情況:(1)當 status = 0 時,z < 0,該神經元使用左半段的線性函數來建立輸入 z 和輸出 a 之間的映射關係;(2)當 status = 1 時,z >= 0,該神經元使用右半段的線性函數來建立 z 到 a 的映射。值得注意的是,不論神經元處於何種激活狀態,z 和 a 之間的映射關係始終是線性的

圖 3:一個 PLNN 和其隱層神經元的激活狀態

如圖 3 所示,給定一個輸入實例 x ,我們可以將所有隱層神經元的激活狀態按綠色虛線所示的順序排列成一個向量 Conf(x)。這個向量被稱作 PLNN 對輸入實例 x 的配置(Configuration)

由於 PLNN 的網絡結構和參數都是給定的,所有神經元的激活狀態都唯一依賴於輸入實例 x,因此 Conf(x) 由輸入實例 x 唯一決定。因為 x 本身是一個給定的常量,所以 Conf(x) 也是一個常量。因此,圖 3 中 PLNN 的每個隱層神經元的運算實質上都是由常量 Conf(x) 所確定的線性運算。因為一系列線性運算的嵌套依然是線性運算,所以在 Conf(x) 為常量的情況下,PLNN 中所有隱藏層的運算整體等價於一個簡單的線性運算 Wx+b

綜上所述,對於任意給定的輸入實例 x,整個 PLNN 嚴格等價於如公式 1 所示的線性分類器。其中,二元組 (W, b) 以解析形式準確地給出了該 PLNN 對於輸入實例 x 的決策平面。(註:證明及求解過程請參見原文)

公式 1

顯然,解釋 PLNN 在單個輸入實例上的決策行為並不能很好地解釋 PLNN 的總體行為。下面我們將介紹 OpenBox 如何解釋 PLNN 的總體行為。

2. 對一個分段線性神經網絡的準確、一致解釋方法

作者們發現,在 PLNN 的網絡結構和參數給定的情況下,公式 1 中的線性分類器 F(x) 由 Conf(x) 決定。這意味著對於任意兩個不同的輸入實例 x 和 x' 而言,只要 Conf(x)=Conf(x'),x 和 x' 就共享同一個線性分類器,而且對 x 和 x' 的解釋也將完全一致

那麼,輸入實例 x 和 x' 需要滿足什麼條件,才能使 Conf(x)=Conf(x') 呢? 

圖 4:在 Conf(x) 給定的情況下,每一個隱層神經元的輸入 z 所必須滿足的不等式約束

通過進一步推導,作者們發現在 Conf(x) 給定的情況下,每一個隱層神經元的輸入 z 都必須滿足由該神經元激活狀態所決定的不等式約束。圖 4 給出了當 Conf(x) = [1, 0, 1, 0, 0, 1, 1] 時, PLNN 的所有隱層神經元的輸入 z 必須滿足的一組線性不等式約束

因為每個隱層神經元的輸入 z 都是輸入實例 x 的線性函數,所以這組關於輸入 z 的線性不等式約束實質上是對輸入實例 x 的一組線性不等式約束。我們將這組線性不等式約束的集合定義為 P

很顯然,所有滿足 P 中線性不等式約束的輸入實例 x 都具有相同的 Conf(x),因此這些實例共享同一個線性分類器,並具有完全一致的解釋。

實質上,P 中的每一個不等式都定義了一個線性邊界,所有線性邊界一起組成了一個凸多面體(Convex Polytope,CP)。在凸多面體中的所有輸入實例都滿足 P 中的所有不等式,因此這些輸入實例 x 都具有相同的 Conf(x),並且共享同一個線性分類器。我們把這個存在於局部區域的凸多面體和它所對應的線性分類器統稱為局部線性分類器(Local Linear Classifier,LLC)

對於任意給定的 PLNN,不同的隱層神經元激活狀態對應著不同的 Conf(x),而每一個 Conf(x) 都確定了一個局部線性分類器。因此,一個 PLNN 嚴格等價於一組局部線性分類器。我們把這組局部線性分類器的集合標記為 M,並將其作為 PLNN 的解釋模型。

因為 M 和 PLNN 是等價的,而且同一個凸多面體中的所有實例都共享同樣的解釋,所以由 M 所得到的解釋是準確且一致的。

給定一個輸入實例 x,我們如何使用 M 來解釋 PLNN 對 x 的決策行為呢?

首先,我們從 M 中找到 x 所屬的局部線性分類器。然後,我們解析出該局部線性分類器的決策特徵(Decision Feature)以及其凸多面體的邊界特徵(Polytope Boundary Feature,PBF)。最後,我們使用決策特徵來解釋 PLNN 對 x 的決策行為,並使用邊界特徵來解釋 x 被當前局部線性分類器包含的原因。

論文還對計算 M 的時間複雜度進行了嚴格的理論分析和證明。對於 n 個不同的輸入實例,若每個輸入實例的特徵維數為 d,OpenBox 解釋所有輸入實例的時間複雜度僅為 O(nd)。因為特徵維數 d 通常被看作常量,所以 OpenBox 的時間複雜度是線性的。

實驗部分

作者們把 OpenBox 和目前最頂級的解釋方法 LIME[Ribeiro et al. KDD 2016]做了實驗對比。實驗重點關注以下五個問題:

1. 局部線性分類器長什麼樣?

2. LIME 和 OpenBox 給出的解釋是否準確、一致?

3. 局部線性分類器的決策特徵易於理解嗎?如果附加非負、稀疏約束,能繼續提升這些決策特徵的語義特性嗎?

4. 如何解釋局部線性分類器的邊界特徵(PBF)?

5. 利用 OpenBox 提供的解釋,我們能否構造新樣本來欺騙 PLNN?能否查出 PLNN 在某些樣本上做出錯誤決策的原因?

實驗一:合成數據集可視化局部線性分類器

如圖 5(a) 所示,作者們通過二維歐式空間中的均勻採樣生成了一個包含 20,000 個實例的合成數據集 SYN。其中,紅色和藍色樣本點分別代表正例和負例。

圖 5:OpenBox 在合成數據集 SYN 上的實驗結果

由於實驗目標是可視化模型 M 中的所有局部線性分類器,整個實驗過程無需使用測試數據,因此作者們使用 SYN 中的所有樣本來訓練 PLNN。圖 5(b) 顯示了 PLNN 在 SYN 上的預測結果。

圖 5(c) 可視化了模型 M 中每一個局部線性分類器對應的凸多面體。 作者們用相同的顏色標出了屬於同一個局部線性分類器的所有實例,發現屬於相同局部線性分類器的實例都包含於同一個凸多面體(在二維空間中表現為凸多邊形)。顯然,這個結果完全符合論文的理論分析。

圖 5(d) 展示了構成模型 M 的決策邊界的所有局部線性分類器。圖中的每一條實線都表示一個局部線性分類器的決策邊界,這些局部線性分類器共同構成了模型 M 的總體決策邊界。對比圖 5(b) 和 5(d) 可以發現模型 M 的總體決策邊界和 PLNN 的決策邊界完全一致。這個結果證實了模型 M 和 PLNN 之間的等價性。

實驗二:FMNIST 數據集驗證解釋的準確性和一致性

該實驗在 FMNIST 數據集上對比了 LIME 和 OpenBox(模型M)所提供解釋的準確性和一致性。

圖 6: OpenBox 和 LIME 在 FMNIST-2 數據集上的準確性(Exactness)和一致性(Consistency)

首先,作者們通過比較 LIME、OpenBox(模型 M)和 PLNN 對 FMNIST-2 數據集中 600 個測試樣本的決策輸出來衡量 LIME 和 OpenBox 各自解釋模型的準確性。如圖 6(a) 所示,LIME 的決策輸出和 PLNN 的決策輸出有著很大不同,這說明 LIME 的解釋模型和 PLNN 非常不同,因此它無法準確解釋 PLNN 的決策行為。相比之下,OpenBox 計算出的模型 M 和 PLNN 對於所有測試樣本的決策輸出完全相同,這說明模型 M 等價於 PLNN,因此它能夠準確地解釋 PLNN 的決策行為。

隨後,作者們使用輸入實例 x 和其最近鄰實例 x' 的解釋結果的餘弦相似度(Cosine Similarity)來衡量 LIME 和 OpenBox 所提供解釋的一致性。餘弦相似度越高,解釋模型所提供解釋的一致性就越高。如圖 6(b) 所示,由於模型 M 對同一凸多面體內的實例提供完全相同的解釋,OpenBox 的餘弦相似度幾乎總保持為 1。但是最近鄰實例 x' 與 輸入實例 x  並不總是屬於同一個凸多面體,因此 OpenBox 在某些實例上的餘弦相似度小於 1。相比之下,LIME 的餘弦相似度遠低於 OpenBox,這說明 OpenBox 所提供解釋的一致性遠高於 LIME。

實驗三:OpenBox 提取的決策特徵具有人類可理解的強語義特點

除了準確性和一致性,一個好的解釋還必須具有人類可理解的強語義特點。在本實驗中,作者們將 OpenBox 在 FMNIST-1 數據集上提取的決策特徵可視化,發現這些特徵具有易於理解的強語義特點。

圖 7: OpenBox 和邏輯回歸(Logistic Regression,LR)在 FMNIST-1 數據集上的決策特徵(Decision Feature,DF)

圖 7(a) 和 7(f) 給出了 FMNIST-1 中的兩類圖像的平均圖(Average Image)。其中,圖 7(a) 對應正例樣本短靴(Ankle Boot),圖 7(f) 對應負例樣本包包(Bag)

作者們訓練了多個羅輯回歸模型(Logistic Regression,LR)作為基線(Baseline)。其中,LR 模型是以短靴為正樣本訓練得到的,LR-F 模型是以包包為正樣本訓練得到的,LR-NS 和 LR-NSF 分別是在 LR 和 LR-F 的基礎上附加稀疏、非負約束得到的。此外,作者們還訓練了兩個 PLNN 模型作為 OpenBox 的解釋對象。其中,PLNN 是以短靴為正樣本訓練得到的,PLNN-NS 是在 PLNN 的基礎上附加稀疏、非負約束得到的。

圖 7 給出了上述所有模型的決策特徵,其中 PLNN 和 PLNN-NS 的決策特徵由 OpenBox 提供。很明顯,PLNN 的決策特徵與 LR 和LR-F 的決策特徵具有極為相似語義。將這些決策特徵與圖 7(a) 和 7(f) 中的平均圖仔細對比可以發現,這些決策特徵準確地描述了短靴和包包之間的差別。更有趣的是,PLNN 的決策特徵比 LR 和 LR-F 的決策特徵包含了更多細節信息。這是因為 PLNN 的每一個局部線性分類器僅需區分包含於凸多面體中的一小部分樣本,所以 PLNN 能夠使用大量的局部線性分類器捕捉更多細節特徵。然而,LR 和 LR-F 只能使用一個線性平面劃分所有正負例樣本,因此它們只能捕捉大量樣本的平均差異。因為 PLNN 捕捉到了更多細節特徵,所以它取得了比 LR 和 LR-F 好得多的分類精度。

通過對比 PLNN-NS,LR-NS 和 LR-NSF 的決策特徵,我們發現非負、稀疏約束對於增強 PLNN-NS 決策特徵的語義同樣有效。我們還觀察到 PLNN-NS 捕獲了比 LR-NS 和 LR-NSF 多得多的細節特徵,也因此取得了相對較高的分類精度。

實驗四:OpenBox 提取的邊界特徵也具有很強的語義特性

關於 OpenBox 所提取的局部線性分類器,不僅其決策特徵具有很強的語義特點,其凸多面體的邊界特徵也具有很強的語義特性。

圖 8: OpenBox 在 FMNIST-1 數據集上提取的邊界特徵(Polytope Boundary Feature,PBF)

在本實驗中,作者們在 FMNIST-1 上訓練了一個 PLNN,並用 OpenBox 解析出該 PLNN 的三個局部線性分類器對應的凸多面體。圖 8(a)-(d) 給出了這些凸多面體的邊界特徵,它們分別對應了{包包,短靴,包包,包包}。圖 8(e) 給出了定義這些邊界特徵的線性不等式,以及其對應的凸多面體中所包含的各類別樣本數量。關於圖 8(e) 中的線性不等式,「/」代表該不等式定義的邊界為無效邊界;「> 0」代表凸多面體內的樣本與該不等式的邊界特徵具有很強的相關性;「<= 0」 代表凸多面體內的樣本與該不等式的邊界特徵沒有強相關性。

以圖 8(e) 中的第一個凸多面體為例,由其線性不等式的狀態可知該凸多面體所包含的樣本與圖 8(b)-(c) 中短靴和包包的邊界特徵有強相關性。因此,第一個凸多面體中包含了大量的短靴和包包。類似的,對圖 8(e) 中的第二個凸多面體而言,其中的樣本僅與短靴的邊界特徵呈正相關,因此該凸多面體中的樣本僅有短靴而沒有包包。通過上述實驗結果不難看出,OpenBox 提取的邊界特徵具有很強的語義特性

除了上述精彩實驗,作者們還利用 OpenBox 提供的解釋來構造欺騙 PLNN 的新樣本,以及查找 PLNN 在某些樣本上做出錯誤決策的原因。在這些有趣的任務上,論文中的實驗也給出了明顯優於現有方法的結果。

結論

作者們通過證明分段線性神經網絡嚴格等價於一組局部線性分類器,以簡潔的解析形式給出了一種準確、一致且高效的神經網絡解釋方法——OpenBox。大量實驗結果表明,OpenBox 不僅可以準確、一致地描述分段線性神經網絡的總體行為,還能夠對分段線性神經網絡進行有效的欺騙攻擊和錯誤查找。作者們談到,他們將繼續拓展這一方法,使其能夠有效地解釋使用連續、光滑激活函數(如:sigmoid、tanh)的深度神經網絡。

詳細內容請參見原論文:https://arxiv.org/abs/1802.06259

本文協助撰寫:論文第一作者,褚令洋博士。

更多會議內容報導、優秀論文解讀,請繼續關注雷鋒網AI 科技評論

參考文獻

[1] Ribeiro, Marco Tulio, Sameer Singh, and Carlos Guestrin. "Why should i trust you?: Explaining the predictions of any classifier." Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. ACM, 2016.

雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 滴滴KDD 2019 論文詳解:基於深度價值網絡的多司機智能派單模型
    今年,滴滴共有三篇Oral論文入選KDD2019,研究內容涵蓋基於深度學習方法自動化地生成工單摘要、基於深度強化學習與半馬爾科夫決策過程進行智能派單及模仿學習和GAN在環境重構的探索。本文是對滴滴Oral論文《A Deep Value-networkBased Approach for Multi-Driver Order Dispatching》的詳細解讀。
  • NIPS 2017系列 | 利用 SVCCA 解釋深度神經網絡
    文 / Google Brain 團隊 Maithra Raghu深度神經網絡 (DNN) 推動視覺、語言理解和語音識別等領域取得了前所未有的進步
  • 反之亦然,科學家開始用深度神經網絡解釋人類大腦
    這樣的相似之處也出現在深度網絡中,它們可以觀察一個二維場景,並推斷其中三維物體的基本屬性,這也有助於解釋生物感知為何如此的既快速又異常地豐富。所有這些結果都暗示著,生物神經系統的結構是它能高效處理信息的原因。其實很多神經科學家長期以來一直對大腦和深層神經網絡之間的類比持懷疑態度,因為它們的工作原理可能是難以捉摸的,因此這些成功就更加出乎意料了。"
  • KDD 2020阿里巴巴論文一分鐘秒讀
    2)接著給出了論文提出的方法及方法框架圖解Coding for Graph Neural Network Pre-Training簡介:本文提出了一種基於圖的對比學習框架,對多個圖數據集的圖神經網絡進行預訓練。
  • 谷歌大腦提出概念激活向量,助力神經網絡可解釋性研究
    (Concept Activation vectors,CAV)的新方法,這種方法為深度學習模型的可解釋性提供了一個全新的視角。谷歌將可解釋性原則總結如下:理解隱藏層做了什麼:深度學習模型中的大部分知識是在隱藏層中形成的。要解釋深度學習模型,必須要從宏觀角度理解不同隱藏層的功能。理解節點是如何激活的:可解釋性的關鍵不是理解網絡中單一神經元的功能,而是要理解在同一空間位置一起激活的互相連接的神經元組。通過互相連接的神經元組分割網絡可以從更簡單的抽象層次來理解其功能。
  • 事後解釋VS自解釋,牛津CS博士小姐姐134頁畢業論文探索神經網絡...
    在這篇長達 134 頁的博士論文中,一位來自牛津大學的計算機科學博士生對這一課題進行了深入的探討,帶我們走進深度神經網絡的世界。近年來,深度神經網絡正在計算機視覺、自然語言處理和語音識別等多種領域發揮著重要作用,推動了人工智慧的發展。但是,深度神經網絡仍存在一些局限性,例如這些模型的決策過程通常無法向用戶解釋。
  • 加拿大西蒙弗雷澤大學裴健教授當選ACM SIGKDD新一屆主席
    ACM SIGKDD新一屆主席。裴健教授經選舉成為 ACM SIGKDD(數據挖掘及知識發現專委會)主席,任期為2017年7月1日至2019年6月30日。由於KDD的交叉學科性和廣泛應用性,其影響力越來越大,吸引了來自統計、機器學習、資料庫、全球資訊網、生物信息學、多媒體、自然語言處理、人機互動、社會網絡計算、高性能計算及大數據挖掘等眾多領域的專家、學者。自1995年以來,KDD已經以大會的形式連續舉辦了22屆,論文的投稿量和參會人數呈現出逐年增加的趨勢。目前KDD大會是數據挖掘研究領域的頂級會議。
  • 通俗理解神經網絡與深度學習
    不過作為神經科學家,McCulloch 和 Pitts 提出該模型的初衷只是為了解釋大腦是如何運行的,他們不會想到這個模型會成為神經網絡的先驅,為人工智慧領域帶來天翻地覆的影響。深度學習——從橫空出世到廣泛應用當神經網絡真正成為網紅概念時,它已經有了一個更加高大上的名字——深度學習(Deep learning)。2012 年,深度學習之父傑弗裡·辛頓和他的兩個學生設計了一個有 7 個隱藏層的卷積神經網絡,不僅贏得了該年度計算機圖像分類大賽的冠軍(ILSVRC),並且其分類錯誤率遠低於傳統的圖像分類方法 。
  • 深度神經網絡的灰色區域:可解釋性問題
    【編者按】在解決視覺、聽覺問題方面表現出色的深度學習系統中,分類器和特徵模塊都是自動學習的,神經網絡可解釋性問題就成了一個灰色區域,思考這個問題對神經網絡效率的保證是有必要的。在這篇博客文章中,機器學習PhD、軟體架構師Adnan Masood針對這個問題進行了多方面的反思。
  • DeepMind成功使用認識心理學解釋深度神經網絡黑盒!
    來源:全球人工智慧導讀:最近通過認識心理學研究深度神經網絡案例:我們從發展心理學中選擇了一個完善的分析,解釋了兒童如何學習對象的單詞標籤,並將該分析應用於DNN。使用由原始認知心理學實驗啟發的刺激數據集,我們發現在ImageNet上訓練的最先進的一次學習模型顯示出與人類觀察到的相似的偏好:他們更喜歡根據形狀而不是顏色對對象進行分類。
  • 用深度神經網絡求解『薛丁格方程』,AI開啟量子化學新未來|Nature...
    最近,來自柏林自由大學(Freie Universität Berlin) 的科學團隊取得了突破性進展,他們發表的一篇名為《利用深度神經網絡解電子薛丁格方程》的論文,登上了《Nature Chemistry》子刊。
  • 裴健:搜索皆智能,智能皆搜索
    舉個具體例子,上圖這兩個模型在相應的數據點上是完全一致的,但是這兩個模型其實差得非常遠。因此我們需要有一個系統的方法來衡量模型的複雜度、來衡量模型到底有沒有對數據過擬合。我們的KDD2020上的論文就在這方面給出了一些新的方法。與模型和搜索方法很相關的另外一個問題是可解釋性,一個模型要獲得大家的信任,它必須有良好的可解釋性。我們認為,模型的可解釋性一定要滿足兩個原則。
  • 深度學習不再是煉丹術!谷歌給出首個神經網絡訓練理論證明
    最新發布的一篇論文給出了首個關於深度神經網絡訓練相關的理論證明,實驗觀察結果也為初步解釋梯度下降強於貝葉斯優化奠定了基礎。基於深度神經網絡的機器學習模型在許多任務中取得了前所未有的性能。雖然線性化只在無限寬度限制下是精確的,但我們發現,即使是有限寬度的情況下,原始網絡的預測與線性化版本的預測仍然非常一致。這種一致性在不同的架構、優化方法和損失函數之間都存在。
  • KDD 2018最佳論文解讀 | 圖神經網絡對抗攻擊
    本篇文章介紹KDD2018的最佳論文—圖神經網絡對抗攻擊,該論文針對圖節點分類任務進行對抗攻擊。論文題目:Adversarial Attacks on Neural Networks for Graph Data論文地址:http://cn.arxiv.org/pdf/1805.07984源碼地址:https://www.kdd.in.tum.de/nettack摘要
  • 神經網絡可解釋性、深度學習新方法,2020 年 AI 有哪些勢不可擋的...
    作為 2019 年最後一場重量級的人工智慧國際學術頂會,NeurIPS 2019 所反映出的一些人工智慧研究趨勢,例如神經網絡可解釋性、深度學習新方法、神經科學等等,想必對於大家在新的一年開展研究工作,具有一定的借鑑和參考價值
  • Facebook:易於解釋的神經元可能會阻礙深度神經網絡的學習
    易於解釋的神經元對於提升神經網絡的性能來說是必要的嗎?Facebook 的研究者給出了出人意料的答案。AI 模型能「理解」什麼?為什麼能理解這些東西?回答這些問題對於復現和改進 AI 系統至關重要。但遺憾的是,計算機科學家在解釋深度神經網絡(DNN)方面的能力遠遠落後於我們利用這些網絡獲取有用成果的能力。
  • 神經網絡與深度學習
    深度學習筆記深度學習作為當前機器學習一個最熱門的發展方向,仍然保持著傳統機器學習方法的理念與特徵,從監督學習的角度看,深度學習與機器學習並無本質上的差異。這種模型從早期的感知機發展而來,對任何函數都有較好的擬合性,但自上個世紀90年代一直到2012年深度學習集中爆發前夕,神經網絡受制於計算資源的限制和較差的可解釋性,一直處於發展的低谷階段。之後大數據興起,計算資源也迅速跟上,加之2012年ImageNet競賽冠軍採用的AlexNet卷積神經網絡一舉將圖像分類的Top5錯誤率降至16.4%,震驚了當時的學界和業界。
  • 人工智慧瓶頸之神經網絡的可解釋探討
    可判讀性,即深度神經網絡輸出可判讀,結果可預測,能有效建立起輸入空間與輸出空間的映射關係,有利於人們掌握系統的行為邊界,從而避免基於深度神經網絡的人工智慧系統所面臨的不可驗證問題。可理解性,即深度神經網絡內部工作原理透明,各模塊作用意義可見,能對模型輸出結果做出解釋,揭示其背後的決策邏輯,並能有效地分析模型內部的邏輯漏洞和數據死角,解決基於深度神經網絡的人工智慧系統所面臨的不可審查問題。
  • 深度神經網絡推理時間的正確測量方法
    網絡延遲是將深度網絡部署到生產環境中要考慮的重要因素之一。大多數實際應用程式都需要非常快的推理時間,從幾毫秒到一秒不等。但是,正確而有意義地測量神經網絡的推理時間或延遲的任務需要對網絡有深刻的理解。即使是經驗豐富的程式設計師也經常會犯一些常見的錯誤,從而導致延遲測量不準確。這些錯誤有可能會引發錯誤的決策和不必要的支出。
  • KDD CUP 2020 大獎出爐,中國團隊包攬全部冠亞軍!
    任務2獲獎團隊冠軍團隊:aister(美團點評)亞軍團隊:DeepWisdom(深度賦智 )季軍團隊:TheAvengers(北京航空航天大學)2常規機器學習賽道二機器學習賽道二「學術圖上的對抗攻擊和防禦」由BienData贊助。