注意力機制不能提高模型可解釋性?不,你這篇論文搞錯了

2021-01-15 機器之心Pro

選自arXiv

作者:Sarah Wiegreffe、Yuval Pinter

機器之心編譯

參與:魔王、張倩

最近,很多研究人員對注意力機制能否解釋模型預測提出了疑問,比如今年 2 月份的論文《Attention is not Explanation》。而今天要介紹的這項研究針鋒相對地反駁了上述論文,從標題中我們就可以看出來:Attention is not not Explanation VS. Attention is not Explanation。

注意力機制在 NLP 系統中起著重要作用,尤其是對於循環神經網絡(RNN)模型。那麼注意力模塊提供的中間表徵能否解釋模型預測的推理過程,進而幫助人們了解模型的決策過程呢?近期,很多研究人員對這個話題產生了濃厚的興趣。一篇題目為《Attention is not Explanation》(Jain and Wallace, 2019) 的論文表示,注意力機制並不能提高模型的可解釋性。

這篇論文在多個自然語言處理任務上進行了實驗,以評估注意力權重能夠對模型預測提供何種程度上的有意義的「解釋」。其結果表明:注意力權重基本上無法提高模型可解釋性。例如,學習到的注意力權重通常與基於梯度的特徵重要性度量沒有關聯,而且他們發現非常不同的注意力分布可以帶來同樣的預測。

來自喬治亞理工學院的 Sarah Wiegreffe 和 Yuval Pinter 挑戰了這篇論文中的一些假設,認為其論斷依賴「解釋」(explanation)的定義,且測試該論斷是否正確需要考慮模型的所有元素,使用更加嚴謹的實驗設計。因此 Wiegreffe 和 Pinter 提出四種替代性測試方法,來確定注意力何時可用作「解釋」、是否能作為「解釋」,這四種方法分別是:簡單的統一權重基線、基於多次隨機種子運行的方差校準、使用預訓練模型固定權重的診斷框架、端到端對抗注意力訓練協議。

每一種方法都證明 RNN 模型中的注意力機制可以提供有意義的「解釋」。該研究證明,即使存在可靠的對抗分布,它們在簡單的診斷框架上也無法取得很好的性能,這表明《Attention is not Explanation》並沒有駁倒「注意力機制可以提高模型可解釋性」的說法。

《Attention is not not Explanation》寫了啥

目前,注意力機制在 NLP 領域非常常見,它能否為模型預測提供解釋也是一個熱門話題。

近期研究《Attention is not Explanation》指出了一些可能導致研究者誤用注意力分數解釋模型行為的陷阱,其前提是可解釋性注意力分布應該與其他特徵重要性度量一致且對於給定預測具備排他性。

其核心論點是,如果可以找到使得輸出結果與原始模型輸出類似的其他注意力分布,則原始模型的注意力分數無法可靠地解釋模型預測。

而 Wiegreffe 和 Pinter 則認為,儘管上述論文提出了一個重要問題,對使用注意力權重解釋模型在英文數據集上的預測結果可能存在潛在誤用提出擔憂,但其實驗設計中使用的一些核心假設在設置上存在很大的自由度,最終導致人們無法採取可行的方式衡量注意力分布在特定設置下的效用。

Wiegreffe 和 Pinter 提出一種更加模型驅動(model-driven)的方法來解決這一問題。他們證明,在一些數據集上,固定注意力分布與學習到的注意力權重效果一樣好,從而得出結論:在這些案例中,隨機分布或對抗擾動分布不能證明注意力無法作為「解釋」。

《Attention is not Explanation》為什麼認為「注意力機制不能提高模型可解釋性」?

Wiegreffe 和 Pinter 介紹了《Attention is not Explanation》中的實驗設計,並查看了其作者認為可以支撐「注意力不能提高模型可解釋性」的實驗結果。

Jain 和 Wallace 在實驗中選取了八個分類數據集(大部分是二分類)和兩個問答任務。他們首先展示了注意力分數和其他可解釋性度量之間的關聯分析,發現注意力與其他可靠的特徵重要性度量(基於梯度的方法和留一法)之間不具備強相關,而後者彼此之間互相關聯。

他們基於實驗提出了關於一致性的論斷:如果基於注意力的可解釋方法與其他特徵重要性度量之間不具備強相關,則「注意力能夠提高模型可解釋性」的觀點並不準確。

接下來,Jain 和 Wallace 提出了一種替代性對抗注意力分布,它可以最小程度地改變模型預測結果。為此,他們控制訓練好的模型的注意力分布(以下稱之為 base),來判別是否存在替代性分布使得模型輸出接近原始預測。

他們使用這些實驗結果作為論據,來支持「由於注意力分布不具備排他性,因而它們無法用於解釋模型」的論點。

值得注意的是,Jain 和 Wallace 把注意力分布和預訓練網絡輸出層與用於計算它們的參數分離開來,將每個注意力分數看作獨立於模型的單獨單元。此外,他們還為每個實例單獨計算對抗分布。

「注意力機制不能提高模型可解釋性」的觀點錯在哪兒?

喬治亞理工學院的研究使用了四個量化實驗。如下圖 1 所示,左側圖中的每個花括號表示每個實驗中對於標準 RNN-with-attention 架構操縱的組件。Wiegreffe 和 Pinter 鼓勵 NLP 研究人員在自己的注意力模型上使用他們提出的方法,來評估注意力模塊提供模型可解釋性的效果。

研究代碼將於 9 月初開源:https://github.com/sarahwie/attention

圖 1:帶注意力的 LSTM 分類模型圖示,圖中包括《Attention is not Explanation》和《Attention is not not Explanation》的實驗部分操縱或替換的組件。

Wiegreffe 和 Pinter 認為,出於以下原因,《Attention is not Explanation》中反事實的注意力權重實驗無法支撐其論文的論點。

1. 注意力分布不是原語(Primitive)

從建模角度來看,分離模型各部分獲得的注意力分數(即注意力機制)會降低模型性能。base 注意力權重並非由模型隨機分配,而是通過必備組件計算得到,該組件的參數與其他層一同訓練,它們的運行也互相依賴。

《Attention is not Explanation》提供了可帶來類似預測結果的替代性分布,但是研究過程中移除了激發注意力分布可解釋性的連接,即注意力模型需要關注其選擇的 token。

2. 存在並不意味著排他

從更偏理論的角度來看,Wiegreffe 和 Pinter 認為注意力分數可以提供可解釋性,但不是唯一的可解釋性。LSTM 模型的最後一層能夠用多種方式輕鬆產生可被聚合為相同預測值的輸出,但是模型仍然使用其訓練得到的注意力模塊選擇特定的權重分布。

這一具備數學靈活度的輸出能力在二分類器中尤為明顯。二分類器的預測值是一個標量,(IMDB 數據集的)平均實例包含 179 個 token,即模型輸出需要聚合 179 個標量。

在每個實例上單獨執行時,該效應會顯著加強。因此,也難怪 Jain 和 Wallace 在這種自由度下找到了他們尋找的東西。

總之,由於《Attention is not Explanation》中的展示本質上是按實例進行的,且模型參數並非直接學得或操縱,因此 Jain 和 Wallace 並未證明能夠輸出對抗分布的對抗模型。也就是說,我們不能將這些對抗注意力作為模型預測同等可靠的「解釋」。此外,他們沒有提供學習到的注意力分布的期望變化基線,這使得讀者疑惑他們發現的對抗分布到底對抗程度如何。

你需要注意力是什麼樣,它就是什麼樣

注意力能否解釋模型取決於每個人對「解釋」的定義:合理和/或可靠的解釋。Wiegreffe 和 Pinter 認為,《Attention is not Explanation》和《Attention is not not Explanation》的實驗結果都無法證明「注意力機制不能提高模型可解釋性」。

但是,Wiegreffe 和 Pinter 確認了《Attention is not Explanation》中的原始假設:在一些分類任務中,LSTM 模型可以找到對抗分布。這可以阻止研究人員依靠注意力分布為模型預測提供可靠的可解釋性。同時,該研究提供了一些實驗,研究人員可以利用這些實驗,在解釋模型預測時,對模型注意力機制的質量做出明智的判斷。

相關焦點

  • 注意力機制想要覺醒AI,總共分幾步?
    流行病導致所有離線會議都按下暫停按鈕,而AI也不例外。但是,年度「高層會議」無法召開,因此在4月26日,ICLR 2020(國際代表性學習會議)採用了虛擬會議的形式,所有網民都可以參加盛會。值得一提的是,本次ICLR會議接受了2,594篇論文中的687篇,吸引了來自近90個國家/地區的5,600多名與會者,是2019年2,700篇論文的兩倍。
  • 哈佛大學提出變分注意力:用VAE重建注意力機制
    注意力 (attention) 模型在神經網絡中被廣泛應用,不過注意力機制一般是決定性的而非隨機變量。因此通過直接優化目標函數才能使得這個隱變量也不易被忽略,研究人員的實驗完全驗證了這一點。值得注意的是,研究人員將注意力建模成隱變量並不是單純為了應用 VAE 這個工具,而是因為研究人員認為將注意力建模成隱變量可以為解碼器提供更乾淨 (clean) 的特徵,從而在不增加模型參數的情況下提高模型的表現能力。
  • 百度AAAI 2018錄用論文:基於注意力機制的多通道機器翻譯模型
    在編碼層與解碼層之間,加入注意力機制融合輸入序列的全部的時間步(time step),並將注意力放到解碼層的當前時間步上。在生成目標詞的過程中,控制器會整合:上一生成詞、當前隱層狀態、由注意力機制計算出的上下文信息這三項,從而確定最終的目標詞。
  • 哈希算法、愛因斯坦求和約定,這是2020年的注意力機制
    藉助注意力機制,神經機器翻譯、預訓練語言模型等任務獲得了前所未有的提升。但與此同時,注意力機制也面臨著重重問題,首先就是參數量太大,這有點類似於全連接層,注意力機制需要考慮兩兩之間的所有連接。我們可以看到,完全用注意力機制的模型,參數量輕輕鬆鬆破個億,而卷積這類參數共享的運算,參數量一般也就幾百萬。
  • 加性注意力機制 - CSDN
    學習本部分默認大家對RNN神經網絡已經深入理解了,這是基礎,同時理解什麼是時間序列,尤其RNN的常用展開形式進行畫圖,這個必須理解了。這篇文章整理有關注意力機制(Attention Mechanism )的知識,主要涉及以下幾點內容:1、注意力機制是為了解決什麼問題而提出來的?
  • 注意力機制Attention
    注意力機制(attention mechanism)Attention實質上是一種分配機制,其核心思想是突出對象的某些重要特徵。根據Attention對象的重要程度,重新分配資源,即權重,實現核心思想是基於原有的數據找到其之間的關聯性,然後突出其某些重要特徵。注意力可以被描述為將一個查詢和一組鍵值對映射到一個輸出,其中查詢、鍵、值和輸出都是向量。
  • 一文解讀NLP中的注意力機制
    近些年來,注意力機制一直頻繁的出現在目之所及的文獻或者博文中,可見在NLP中算得上是個相當流行的概念,事實也證明其在NLP領域散發出不小得作用。這幾年的頂會paper就能看出這一點。本文深入淺出地介紹了近些年的自然語言中的注意力機制包括從起源、變體到評價指標方面。本文便對NLP的注意力機制進行了綜述。
  • 將注意力機制引入RNN,解決5大應用領域的序列預測問題
    這限制了輸入序列的長度,也導致模型對特別長的輸入序列的性能變差。將注意力機制引入循環神經網絡幫助解決這一局限性。該方法可用於多個領域的序列預測中,包括文本翻譯、語音識別等。編碼器-解碼器結構流行的原因是它在眾多領域展現出了當前最高水平。這種結構的局限性在於它會將輸入序列編碼為固定長度的內部表徵。這限制了輸入序列的長度,並且導致模型對特別長的輸入序列的性能變差。
  • NIPS十大機器學習論文精選,從注意力機制到集成學習(附下載)
    原標題:NIPS十大機器學習論文精選,從注意力機制到集成學習(附下載) 新智元編譯 來源:CSDN 授權轉載文章的一些實驗結果驚人,比如在一個人造的數據集上,模型效果能夠很容易達到0錯誤率。而在MNIST的數據上做Visual Attention,提出的模型也能有非常不錯的效果。總之,這篇文章值得泛讀。對於研究Attention機制的讀者來說,是一個精讀的材料。
  • 教程 | 將注意力機制引入RNN,解決5大應用領域的序列預測問題
    這限制了輸入序列的長度,也導致模型對特別長的輸入序列的性能變差。將注意力機制引入循環神經網絡幫助解決這一局限性。該方法可用於多個領域的序列預測中,包括文本翻譯、語音識別等。編碼器-解碼器結構流行的原因是它在眾多領域展現出了當前最高水平。這種結構的局限性在於它會將輸入序列編碼為固定長度的內部表徵。
  • NeurIPS 2017 論文 2018 年引用量排名揭曉,這裡是排名前三的論文...
    此前,雷鋒網(公眾號:雷鋒網)對這幾篇論文也有過解讀,今天,就和大家一起再複習下吧。這是谷歌與多倫多大學等高校合作發表的一篇論文,他們提出了一種新的網絡框架——Transformer。Transformer 是完全基於注意力機制(attention mechanism)的網絡框架,放棄了 RNN 和 CNN 模型。
  • 為文本摘要模型添加注意力機制:採用LSTM的編解碼器模型實現
    它是一個從多種文本資源(如書籍、新聞文章、博客文章、研究論文、電子郵件和tweet)中生成簡潔而有意義的文本摘要的過程。現在,隨著大量的文本文檔的可用性,摘要是一個更加重要的任務。那麼有哪些不同的方法呢?
  • 谷歌聯手DeepMind提出Performer:用新方式重新思考注意力機制
    除了這些缺點,稀疏注意力機制往往仍然不足以解決所有的正常注意力機制的問題,如指針網絡(Pointer Network)。同時也存在一些不能稀疏化的操作,比如常用的softmax操作,它使注意機制中的相似度得分歸一化,在工業規模的推薦系統中得到了廣泛的應用。
  • 22篇入選CVPR 2020,百度 15 篇精選論文詳解
    以下為其中 15 篇入選論文介紹。論文中的Pillar Message Passing Network(PMPNet),可將點雲俯視圖下的非空柵格編碼為圖節點,並在節點間進行信息傳遞以動態改善節點感受野,PMPNet可以有效結合圖空間的非歐特性和CNN的歐式特性;在時空特徵聚合模塊中,還提出空間和時間注意力機制來強化原始的Conv-GRU層,空間注意力機制對new memory進行前景增強和背景抑制,時間注意力機制用以對齊相鄰幀中的動態前景目標
  • 雲知聲-中科院自動化所語言與知識計算聯合實驗室三篇論文被 ACL...
    日前,自然語言處理領域國際頂級會議 ACL 2020 (Association for Computational Linguistics)論文接收結果公布。大會共收到 3429篇投稿論文,投稿數量創下新高。作為計算語言學和自然語言處理領域最重要的頂級國際會議,ACL錄取論文代表了自然語言處理領域在過去一年最新和最高的科技水平以及未來發展潮流。
  • 全球計算機視覺頂會CVPR 2020論文出爐:騰訊優圖17篇論文入選
    本屆大會總共錄取來自全球論文1470篇,騰訊優圖實驗室入選17篇。作為計算機視覺領域世界三大頂會之一,CVPR 的論文投稿量近三年持續大漲,CVPR官網顯示,今年大會論文有效投稿數量6656篇,最終錄取1470篇,錄取率僅為22%,相比去年降低3個百分點。
  • 創新工場兩篇論文入選ACL 2020,將中文分詞數據刷至新高
    基於此,兩篇論文各自提出了「鍵-值記憶神經網絡的中文分詞模型」和「基於雙通道注意力機制的分詞及詞性標註模型」,將外部知識(信息)創造性融入分詞及詞性標註模型,有效剔除了分詞「噪音」誤導,大幅度提升了分詞及詞性標註效果。
  • ICLR 2020 匿名評審九篇滿分論文,最佳論文或許就在其中|模型|杜克...
    機器之心整理參與:思源、蛋醬、澤南從反傳的自動微分機制,到不平行語料的翻譯模型,ICLR 2020 這 9 篇滿分論文值得你仔細閱讀。早在去年12月,ICLR 2020的論文接收結果就已經出來了,其接收率達到了26.5%。
  • CVPR 2020論文收錄揭曉:百度22篇論文入選 涵蓋全視覺領域
    近日,計算機視覺領域「奧斯卡」CVPR 2020官方公布論文收錄結果,伴隨投稿數量激增,接收率開始經歷了一個持續下降的過程。今年,在6656篇有效投稿中,共有1470篇論文被接收,接收率為22%左右,相較去年25%的入選率,同比下降3%。在論文接收率下降的同時,中國科技企業被錄取論文數量卻不降反增,百度作為AI代表企業今年中選22篇,比去年的17篇增加了5篇。
  • 深度| 從各種注意力機制窺探深度學習在NLP中的神威
    對於循環神經網絡,作者參考了 Denny Britz 的 RNN 教程、Chris Colah 關於理解 LSTM 單元的技術博客、關於 GRU 單元的新穎論文、編碼器-解碼器架構和注意力機制方面的論文。