注意力機制不能提高模型可解釋性?不,你這篇論文搞錯了

2020-12-16 機器之心Pro

選自arXiv

作者:Sarah Wiegreffe、Yuval Pinter

機器之心編譯

參與:魔王、張倩

最近,很多研究人員對注意力機制能否解釋模型預測提出了疑問,比如今年 2 月份的論文《Attention is not Explanation》。而今天要介紹的這項研究針鋒相對地反駁了上述論文,從標題中我們就可以看出來:Attention is not not Explanation VS. Attention is not Explanation。

注意力機制在 NLP 系統中起著重要作用,尤其是對於循環神經網絡(RNN)模型。那麼注意力模塊提供的中間表徵能否解釋模型預測的推理過程,進而幫助人們了解模型的決策過程呢?近期,很多研究人員對這個話題產生了濃厚的興趣。一篇題目為《Attention is not Explanation》(Jain and Wallace, 2019) 的論文表示,注意力機制並不能提高模型的可解釋性。

這篇論文在多個自然語言處理任務上進行了實驗,以評估注意力權重能夠對模型預測提供何種程度上的有意義的「解釋」。其結果表明:注意力權重基本上無法提高模型可解釋性。例如,學習到的注意力權重通常與基於梯度的特徵重要性度量沒有關聯,而且他們發現非常不同的注意力分布可以帶來同樣的預測。

來自喬治亞理工學院的 Sarah Wiegreffe 和 Yuval Pinter 挑戰了這篇論文中的一些假設,認為其論斷依賴「解釋」(explanation)的定義,且測試該論斷是否正確需要考慮模型的所有元素,使用更加嚴謹的實驗設計。因此 Wiegreffe 和 Pinter 提出四種替代性測試方法,來確定注意力何時可用作「解釋」、是否能作為「解釋」,這四種方法分別是:簡單的統一權重基線、基於多次隨機種子運行的方差校準、使用預訓練模型固定權重的診斷框架、端到端對抗注意力訓練協議。

每一種方法都證明 RNN 模型中的注意力機制可以提供有意義的「解釋」。該研究證明,即使存在可靠的對抗分布,它們在簡單的診斷框架上也無法取得很好的性能,這表明《Attention is not Explanation》並沒有駁倒「注意力機制可以提高模型可解釋性」的說法。

《Attention is not not Explanation》寫了啥

目前,注意力機制在 NLP 領域非常常見,它能否為模型預測提供解釋也是一個熱門話題。

近期研究《Attention is not Explanation》指出了一些可能導致研究者誤用注意力分數解釋模型行為的陷阱,其前提是可解釋性注意力分布應該與其他特徵重要性度量一致且對於給定預測具備排他性。

其核心論點是,如果可以找到使得輸出結果與原始模型輸出類似的其他注意力分布,則原始模型的注意力分數無法可靠地解釋模型預測。

而 Wiegreffe 和 Pinter 則認為,儘管上述論文提出了一個重要問題,對使用注意力權重解釋模型在英文數據集上的預測結果可能存在潛在誤用提出擔憂,但其實驗設計中使用的一些核心假設在設置上存在很大的自由度,最終導致人們無法採取可行的方式衡量注意力分布在特定設置下的效用。

Wiegreffe 和 Pinter 提出一種更加模型驅動(model-driven)的方法來解決這一問題。他們證明,在一些數據集上,固定注意力分布與學習到的注意力權重效果一樣好,從而得出結論:在這些案例中,隨機分布或對抗擾動分布不能證明注意力無法作為「解釋」。

《Attention is not Explanation》為什麼認為「注意力機制不能提高模型可解釋性」?

Wiegreffe 和 Pinter 介紹了《Attention is not Explanation》中的實驗設計,並查看了其作者認為可以支撐「注意力不能提高模型可解釋性」的實驗結果。

Jain 和 Wallace 在實驗中選取了八個分類數據集(大部分是二分類)和兩個問答任務。他們首先展示了注意力分數和其他可解釋性度量之間的關聯分析,發現注意力與其他可靠的特徵重要性度量(基於梯度的方法和留一法)之間不具備強相關,而後者彼此之間互相關聯。

他們基於實驗提出了關於一致性的論斷:如果基於注意力的可解釋方法與其他特徵重要性度量之間不具備強相關,則「注意力能夠提高模型可解釋性」的觀點並不準確。

接下來,Jain 和 Wallace 提出了一種替代性對抗注意力分布,它可以最小程度地改變模型預測結果。為此,他們控制訓練好的模型的注意力分布(以下稱之為 base),來判別是否存在替代性分布使得模型輸出接近原始預測。

他們使用這些實驗結果作為論據,來支持「由於注意力分布不具備排他性,因而它們無法用於解釋模型」的論點。

值得注意的是,Jain 和 Wallace 把注意力分布和預訓練網絡輸出層與用於計算它們的參數分離開來,將每個注意力分數看作獨立於模型的單獨單元。此外,他們還為每個實例單獨計算對抗分布。

「注意力機制不能提高模型可解釋性」的觀點錯在哪兒?

喬治亞理工學院的研究使用了四個量化實驗。如下圖 1 所示,左側圖中的每個花括號表示每個實驗中對於標準 RNN-with-attention 架構操縱的組件。Wiegreffe 和 Pinter 鼓勵 NLP 研究人員在自己的注意力模型上使用他們提出的方法,來評估注意力模塊提供模型可解釋性的效果。

研究代碼將於 9 月初開源:https://github.com/sarahwie/attention

圖 1:帶注意力的 LSTM 分類模型圖示,圖中包括《Attention is not Explanation》和《Attention is not not Explanation》的實驗部分操縱或替換的組件。

Wiegreffe 和 Pinter 認為,出於以下原因,《Attention is not Explanation》中反事實的注意力權重實驗無法支撐其論文的論點。

1. 注意力分布不是原語(Primitive)

從建模角度來看,分離模型各部分獲得的注意力分數(即注意力機制)會降低模型性能。base 注意力權重並非由模型隨機分配,而是通過必備組件計算得到,該組件的參數與其他層一同訓練,它們的運行也互相依賴。

《Attention is not Explanation》提供了可帶來類似預測結果的替代性分布,但是研究過程中移除了激發注意力分布可解釋性的連接,即注意力模型需要關注其選擇的 token。

2. 存在並不意味著排他

從更偏理論的角度來看,Wiegreffe 和 Pinter 認為注意力分數可以提供可解釋性,但不是唯一的可解釋性。LSTM 模型的最後一層能夠用多種方式輕鬆產生可被聚合為相同預測值的輸出,但是模型仍然使用其訓練得到的注意力模塊選擇特定的權重分布。

這一具備數學靈活度的輸出能力在二分類器中尤為明顯。二分類器的預測值是一個標量,(IMDB 數據集的)平均實例包含 179 個 token,即模型輸出需要聚合 179 個標量。

在每個實例上單獨執行時,該效應會顯著加強。因此,也難怪 Jain 和 Wallace 在這種自由度下找到了他們尋找的東西。

總之,由於《Attention is not Explanation》中的展示本質上是按實例進行的,且模型參數並非直接學得或操縱,因此 Jain 和 Wallace 並未證明能夠輸出對抗分布的對抗模型。也就是說,我們不能將這些對抗注意力作為模型預測同等可靠的「解釋」。此外,他們沒有提供學習到的注意力分布的期望變化基線,這使得讀者疑惑他們發現的對抗分布到底對抗程度如何。

你需要注意力是什麼樣,它就是什麼樣

注意力能否解釋模型取決於每個人對「解釋」的定義:合理和/或可靠的解釋。Wiegreffe 和 Pinter 認為,《Attention is not Explanation》和《Attention is not not Explanation》的實驗結果都無法證明「注意力機制不能提高模型可解釋性」。

但是,Wiegreffe 和 Pinter 確認了《Attention is not Explanation》中的原始假設:在一些分類任務中,LSTM 模型可以找到對抗分布。這可以阻止研究人員依靠注意力分布為模型預測提供可靠的可解釋性。同時,該研究提供了一些實驗,研究人員可以利用這些實驗,在解釋模型預測時,對模型注意力機制的質量做出明智的判斷。

相關焦點

  • 哈佛大學提出變分注意力:用VAE重建注意力機制
    注意力 (attention) 模型在神經網絡中被廣泛應用,不過注意力機制一般是決定性的而非隨機變量。因此通過直接優化目標函數才能使得這個隱變量也不易被忽略,研究人員的實驗完全驗證了這一點。值得注意的是,研究人員將注意力建模成隱變量並不是單純為了應用 VAE 這個工具,而是因為研究人員認為將注意力建模成隱變量可以為解碼器提供更乾淨 (clean) 的特徵,從而在不增加模型參數的情況下提高模型的表現能力。
  • 2020年了,你還在用注意力作可解釋嗎?
    引言注意力機制在NLP的許多領域都可以提高性能,其中包括機器翻譯,自然語言生成和自然語言推論等。此外它還可以提供一個窗口,了解模型的運行方式。例如,對於機器翻譯,Bahdanau等人(2015)可視化目標token要使用的源token,以對其翻譯的單詞。在可解釋領域,注意力機制落入模型的運行方式是否構成解釋成為關注焦點。
  • 注意力機制想要覺醒AI,總共分幾步?
    投稿來源:腦極體一場疫情,讓所有線下會議按下了暫停鍵,AI也不例外。但一年一度的「頂會」卻不能不開,於是在4月26日,ICLR 2020(國際表徵學習大會)就採取虛擬會議的形式,讓所有網友得以共襄盛舉。
  • 哈希算法、愛因斯坦求和約定,這是2020年的注意力機制
    但與此同時,注意力機制也面臨著重重問題,首先就是參數量太大,這有點類似於全連接層,注意力機制需要考慮兩兩之間的所有連接。我們可以看到,完全用注意力機制的模型,參數量輕輕鬆鬆破個億,而卷積這類參數共享的運算,參數量一般也就幾百萬。如果只是參數量大也就算了,能完整利用這些參數,正是說明模型的表徵能力非常強。
  • 注意力機制Attention
    注意力機制(attention mechanism)Attention實質上是一種分配機制,其核心思想是突出對象的某些重要特徵。根據Attention對象的重要程度,重新分配資源,即權重,實現核心思想是基於原有的數據找到其之間的關聯性,然後突出其某些重要特徵。注意力可以被描述為將一個查詢和一組鍵值對映射到一個輸出,其中查詢、鍵、值和輸出都是向量。
  • 資源|帶自注意力機制的生成對抗網絡,實現效果怎樣?
    在前一段時間,Han Zhang 和 Goodfellow 等研究者提出添加了自注意力機制的生成對抗網絡,這種網絡可使用全局特徵線索來生成高解析度細節。本文介紹了自注意力生成對抗網絡的 PyTorch 實現,讀者也可以嘗試這一新型生成對抗網絡。
  • 圖深度學習入門教程(六)——注意力機制與圖注意力
    別怕,這裡有份系統教程,可以將0基礎的你直接送到圖深度學習。還會定期更新哦。 本教程是一個系列免費教程,爭取每月更新2到4篇。主要是基於圖深度學習的入門內容。講述最基本的基礎知識,其中包括深度學習、數學、圖神經網絡等相關內容。該教程由代碼醫生工作室出版的全部書籍混編節選而成。偏重完整的知識體系和學習指南。
  • 一文解讀NLP中的注意力機制
    本文便對注意力機製做了較為全面的綜述。近些年來,注意力機制一直頻繁的出現在目之所及的文獻或者博文中,可見在NLP中算得上是個相當流行的概念,事實也證明其在NLP領域散發出不小得作用。這幾年的頂會paper就能看出這一點。
  • 史上最大規模ACL大會放榜,百度10篇NLP論文被錄用
    近日,自然語言處理(NLP)領域的國際頂級學術會議「國際計算語言學協會年會」(ACL 2019)公布了今年大會論文錄用結果。根據ACL 2019官方數據,今年大會的有效投稿數量達到2694篇,相比去年的1544篇增長高達75%。其中,國內自然語言處理領軍者百度共有10篇論文被大會收錄,展現出在該領域的技術積澱和國際水準。
  • 視覺注意力機制 | 視覺注意力機制用於分類:SENet、CBAM、SKNet
    這次的文章我主要來關注視覺注意力機制在分類網絡中的應用——SENet、SKNet、CBAM。我們通常將軟注意力機制中的模型結構分為三大注意力域來分析:空間域、通道域、混合域。(3) 混合域——空間域的注意力是忽略了通道域中的信息,將每個通道中的圖片特徵同等處理,這種做法會將空間域變換方法局限在原始圖片特徵提取階段,應用在神經網絡層其他層的可解釋性不強。
  • 中科院計算所王永慶詳解IJCAI 17錄用論文:如何用注意力機制RNN...
    簡單介紹下序列建模,這是一種挖掘序列內關聯模式的技術手段,這種關聯模式又可按序列內前後兩元素間間距是否等長對應到兩類具體的問題中:離散序列和時序序列建模。例如離散馬爾科夫模型,連續時間馬爾科夫模型等都是經典的序列建模模型。當然,這幾年來受到神經網絡的衝擊,利用循環神經網絡(RNN)處理序列建模問題也逐漸成為了這一領域的標杆。
  • 注意力機制(Attention Mechanism)在自然語言處理中的應用
    1 、Attention研究進展Attention機制最早是在視覺圖像領域提出來的,應該是在九幾年思想就提出來了,但是真正火起來應該算是google mind團隊的這篇論文《Recurrent Models of Visual Attention》[14],他們在RNN模型上使用了attention機制來進行圖像分類。
  • 百度10篇論文被自然語言處理頂級會議ACL 2019錄用
    其中,國內自然語言處理領軍者百度共有10篇論文被大會收錄,展現出在該領域的技術積澱和國際水準。進一步說,基於遠監督學習的模型效果不佳、解釋性差,無法解釋關係的指示詞。此方法通過注意力機制,要求模型能夠關注關係的指示詞,進而識別噪聲數據,並通過bootstrap方法逐步選擇出高質量的標註數據,改善模型效果。此方法在關係分類及降噪上均顯著優於此前最好的增強學習算法。
  • 計算機視覺中的注意力機制
    注意力機制顧名思義,注意力機制是本質上是為了模仿人類觀察物品的方式。強化學習的機制是通過收益函數(Reward)來激勵,讓模型更加關注到某個局部的細節。梯度下降法是通過目標函數以及相應的優化函數來做的。無論是 NLP 還是 CV 領域,都可以考慮這些方法來添加注意力機制。
  • Attention模型方法綜述 | 多篇經典論文解讀
    本文基於幾篇經典的論文,對 Attention 模型的不同結構進行分析、拆解。先簡單談一談 attention 模型的引入。以基於 seq2seq 模型的機器翻譯為例,如果 decoder 只用 encoder 最後一個時刻輸出的 hidden state,可能會有兩個問題(我個人的理解)。
  • 用Skater來解讀預測性模型:解密模型的隱秘
    在第一篇裡,我會從把模型可解釋性作為一個理論概念來深入探討,並對Skater做了一個高層的概述。在第二篇裡,我會給出一個關於Skater目前支持的模型的更詳細的解釋,以及Skater的發展路線圖。什麼是模型可解釋性?
  • 2019年 10 大精彩論文,哪篇論文打動了你?
    一方面,在感知模型中加入常識、加入基礎的推理能力是構建「視覺智能」的趨勢;另一方面,其它研究者雖然在更早的研究裡就提出過「從圖像的目標識別生成關係圖」,但是關係圖生成了以後有什麼作用呢,這篇論文就展示了,可以用圖進一步改善目標識別任務本身的表現。除此之外,作者們還做了許多改進,讓模型更適應大規模物體識別、增強階段之間的聯繫、優化識別效果。最終,模型的  mAP 在多個數據集上都有大幅提高。
  • 將注意力機制引入RNN,解決5大應用領域的序列預測問題
    這限制了輸入序列的長度,也導致模型對特別長的輸入序列的性能變差。將注意力機制引入循環神經網絡幫助解決這一局限性。該方法可用於多個領域的序列預測中,包括文本翻譯、語音識別等。編碼器-解碼器結構流行的原因是它在眾多領域展現出了當前最高水平。這種結構的局限性在於它會將輸入序列編碼為固定長度的內部表徵。這限制了輸入序列的長度,並且導致模型對特別長的輸入序列的性能變差。
  • 百篇最值得一讀的「認知圖譜」經典論文
    此外,AMiner 還為你特別準備了「一鍵綜述」服務,一鍵批量生成「論文綜述」,另有「論文精讀」加持,如此周到細緻,還不趕緊來體驗下。 文中首次提出在神經網絡機器翻譯(NMT) 中使用 Attention 的機制,可以使模型自動確定源句子中和目標詞語最相關的部分,相比於基本 encoder-decoder 方法提高了翻譯效果。該文提出的方法優化了神經機器翻譯模型,其效果的提升對於長句子的翻譯尤其明顯。
  • 循環神經網絡的增強方法:注意力機制以及更多
    LSTM 作為經典的網絡結構可謂是老當益壯,而另一方面注意力機制過於常見,我們甚至會覺得它是「理所當然的」。但其實注意力機制其實並不是唯一一種網絡增強的方式。這篇 Distill.pub 博客的文章就帶我們重溫了包括注意力在內的多種網絡增強方式,它們側重的方向不一樣,也就方便研究/開發人員們按照自己的實際需求進行選取。雷鋒網(公眾號:雷鋒網) AI 科技評論編譯如下。