AAAI 2020|南京大學:利用多頭注意力機制生成多樣性翻譯

2020-12-12 雷鋒網

當下的神經機器翻譯(Neural Machine Translation, NMT)已經擁有很強的翻譯性能,在諸多模型之中,Transformer模型取得了最好的效果。其區別於傳統模型之處在兩個方面:自注意力機制(Self-Attention)以及多頭注意力機制(Multi-Head Attention)。

本文主要針對後者,傳統的單頭注意力機制已經有了比較多的研究,廣泛的結論是注意力代表了詞對齊。但多頭注意力機制代表了什麼還缺乏研究。本文基於一項對Transformer多頭注意力的觀察展開:解碼器(Decoder)的最後一層對於編碼器(Encoder)的多頭注意力機制,代表了多重詞對齊。並利用該現象,生成多樣化翻譯。更進一步,利用多樣化翻譯,輔助利用逆向翻譯技術(back translation),增強翻譯模型性能。最後一項有關問答任務的實驗也證明了性能的提升。

現象分析

首先,為了驗證我們的猜想:解碼器(Decoder)的最後一層對於編碼器(Encoder)的多頭注意力機制,代表了多重詞對齊,即解碼器最後一層注意力對應的源端的詞,是接下來極有可能會生成的詞,我們做了三個驗證實驗:

1、我們將解碼器每個頭對應最大注意力值的源端詞選取出來,利用翻譯的基線模型翻譯生成目標端單詞,看這些生成的目標端語言單詞,在下一步目標端生成的softmax概率表中排名第幾,如圖1所示,非常尖銳的分布,大部分對應的詞都在排名前列。

圖1:被注意力頭選中的詞都排名非常靠前

2、與上面相似,我們查看了這些詞的負對數似然(Negative Log-Likelihood, NLL),並計算了所有情況下排名第R的詞的平均NLL(例如K=1,就是所有排名第1的詞的NLL),進行對比,如表1所示,被選中的詞的NLL非常小。

表1:所有情況中排名第R的詞的NLL,每個頭的NLL都非常小

3、更進一步,我們發現可以通過控制不同的注意力頭,來控制下一步的生成。具體見下面的例子,源端句子是「他說, 去年九月以來, 出口下降導致印度經濟惡化。」模型已經翻譯出「he said」,正在等待下一步翻譯。我們摘取了此時各個頭的注意力情況,如圖2所示。接下來,我們挑選第4、5、6個頭,分別對應到「以來」、「下降」 、「出口」三個詞,每次都用某個頭的注意力數值覆蓋其他頭,觀察到對應的頭的詞都被即刻生成出來了,如表2所示。

圖2:不同的頭對應不同的源端的詞

表2:選擇不同的頭(對應不同的源端詞),就能控制下一步的生成

方法應用

我們利用該現象,提出了利用該多頭注意力機制增強翻譯多樣性的算法。

具體來說就是在每一次生成的時刻,隨機採樣某個頭,用其注意力數值覆蓋其他頭。但如果在生成的每個步驟都進行採樣,雖然能顯著增加多樣性,卻也會降低翻譯質量。因此,我們提出了一個針對性算法:若多個頭都對應到不同的源端詞,意味著此時有多個合理的候選,此時我們就進行採樣。

具體來說分如下幾步:

1、令每個時刻的注意力數值為att(i,t,h),代表目標端生成第t個時刻,第h個頭,對源端第i個詞的注意力,我們取第h個頭注意力最強的源端詞candidate(t,h) = argmax(att(i,t,h), i)。

2、令[n_0, ..., n_i, ..., n_(T-1)]表示源端詞被選為candidate的數量,T為源端長度。明顯地,sum(n) = H,H代表頭的總數。

3、若max(n) <= K,則進行採樣,K為超參。這一步可以理解為,注意力很分散,可以有不同的候選。

具體算法如算法1所示。

算法1:採樣策略

實驗結果

我們在NIST 中英數據集,WMT14 英德數據集,和WMT16 英羅數據集上進行了實驗。評價指標主要針對兩個方面,翻譯質量和翻譯多樣性,翻譯質量仍然採用傳統的BLEU,即與參考譯文的比較(Reference-BLEU,rfb),越高質量越好,翻譯多樣性採用多次生成結果之間的BLEU(Pair-Wise BLEU,pwb),越低多樣性越好。

最後,我們還提出一個綜合的指標:每單位質量的多樣性提升(Diversity Enhancement per Quality,DEQ),表示相較於baseline,提升的多樣性BLEU與降低的翻譯質量的BLEU的比值,越大越好,說明能以同樣的質量代價實現更高的多樣性。

實驗結果如表3,4,5所示,比起之前的工作,我們在維持了比較高的翻譯質量的前提下,實現了多樣性的提升。

表3:中英實驗

表4:英德實驗

表5:英羅實驗

我們將之前的工作、噪音組(為了去除噪音帶來多樣性的可能性)的結果繪在圖3中,橫軸是rfb,縱軸是pwb,右下角是最優點,結果顯示,我們的方法都在右下角。

圖3:Pair-Wise BLEU對Reference BLEU

越右下角越優,我們的方法都處在右下角。

表6是一個例子:

表6:多樣性翻譯例子

我們還看了不同長度的實驗結果,如圖4所示。理論上來說,隨著長度增長,翻譯的多樣性應該增加,因為搜索空間更大了,但beam search由於其先天的缺陷,長度越長,多樣性越差。我們的方法就實現了,隨著長度增加,多樣性增加的效果。

圖4:隨著句子長度增加多樣性的變化

我們利用這些多樣性的翻譯來做逆向翻譯(Back-Translation),在中英和英中實驗上都有提升,如表7,8

表7:中英逆向翻譯實驗

表8:英中逆向翻譯實驗

最後還有一項對話的實驗,也驗證了我們的結論,如表9。評價指標詳見論文。

表9:對話實驗

總結

在本文中,我們發現了Transformer模型的一個內在結構特性,並利用它提出了一個多樣性翻譯生成的算法,比起以往的工作,在同等質量的前提下取得了更高的多樣性。收益於我們的方法的逆向翻譯算法、對話策略也取得了比以往更好的效果。

作者 | 孫澤維本文來自公眾號「南大NLP」雷鋒網 AI 科技評論轉載 雷鋒網雷鋒網

相關焦點

  • 哈希算法、愛因斯坦求和約定,這是2020年的注意力機制
    注意力機制是非常優美而神奇的機制,在神經網絡「信息過載」的今天,讓 NN 學會只關注特定的部分,無疑會大幅度提升任務的效果與效率。藉助注意力機制,神經機器翻譯、預訓練語言模型等任務獲得了前所未有的提升。
  • 一文解讀NLP中的注意力機制
    ,因此對注意力機制的學習、掌握與應用顯得十分重要。既然注意力機制最早在nlp領域應用於機器翻譯任務,那在這個之前又是怎麼做的呢?傳統的基於短語的翻譯系統通過將源句分成多個塊然後逐個詞地翻譯它們來完成它們的任務,這導致了翻譯輸出的不流暢。不妨先來想想我們人類是如何翻譯的?
  • 哈佛大學提出變分注意力:用VAE重建注意力機制
    注意力 (attention) 模型在神經網絡中被廣泛應用,不過注意力機制一般是決定性的而非隨機變量。來自哈佛大學的研究人員提出了將注意力建模成隱變量,應用變分自編碼器(Variational Auto-Encoder,VAE)和梯度策略來訓練模型,在不使用 kl annealing 等訓練技巧的情況下進行訓練,目前在 IWSLT German-English 上取得了非常不錯的成果。
  • AAAI 2020|中科院自動化所:通過識別和翻譯交互打造更優的語音翻譯...
    論文:https://arxiv.org/abs/1912.07240語音翻譯技術是指利用計算機實現從一種語言的語音到另外一種語言的語音或文本的自動翻譯過程。該技術可以廣泛應用於會議演講、商業會談、跨境客服、出國旅遊等各個領域和場景,具有重要的研究價值和廣闊的應用前景。
  • 圖解神經機器翻譯中的注意力機制
    引入注意力機制。圖 0.3:引入注意力機製作為編碼器和解碼器之間的接口。這裡,第一個解碼器時間步是在給出第一個翻譯單詞之前從編碼器接收的信息。深紫色表示注意力得分更高。(圖源:https://distill.pub/2016/augmented-rnns/#attentional-interfaces)[2] 中有兩種類型的注意力機制。使用所有編碼器隱藏狀態的注意力類型也稱為全局注意力。而局部注意力僅使用編碼器隱藏狀態的子集。
  • 四篇AAAI 2020論文,解讀微信大規模跨領域文本內容建模研究
    Active Learning with Query Generation for Cost-Effective Text Classification論文地址:https://aaai.org/Papers/AAAI/2020GB/AAAI-YanY.3784.pdf長文本分類標註時,由於文章內容的豐富性,標註人員不得不閱讀整篇文章,才能決定文章的標註
  • AAAI 2020分享|南京大學:一般約束下子集選擇問題的高效演化算法
    最新一期的機器之心 AAAI 2020 線上分享,我們邀請到了南京大學人工智慧學院研究助理卞超為我們做分享。疫情嚴重,不僅影響了我們的日常生活,還給全球範圍內的學術會議、交流活動帶來了很大不便。作為今年首個召開的人工智慧頂會,AAAI 2020 也受到了極大影響。
  • AAAI 2020 | 中科院自動化所:通過識別和翻譯交互打造更優的語音...
    語音翻譯技術是指利用計算機實現從一種語言的語音到另外一種語言的語音或文本的自動翻譯過程。該技術可以廣泛應用於會議演講、商業會談、跨境客服、出國旅遊等各個領域和場景,具有重要的研究價值和廣闊的應用前景。圖 2 基於交互式解碼的同步語音識別與語音翻譯我們使用基於自注意力機制的Transformer模型作為主框架,語音識別任務和語音翻譯解碼任務共享同一個編碼器,在解碼器中加入一個交互注意力機制層
  • 谷歌推出基於注意機制的全新翻譯框架,Attention is All You Need!
    Transformer是完全基於注意力機制(attention mechanism)的網絡框架,放棄了RNN和CNN模型。眾所周知,在編碼-解碼框架中,主流的序列傳導模型都是基於RNN或者CNN的,其中能完美連接編碼器和解碼器的是注意力機制。而谷歌提出的這一新框架Transformer,則是完全基於注意力機制的。
  • AAAI 2020舉辦,百度NLP論文速遞
    該方法可以簡單地劃分為三個步驟:1、對每個訓練樣本我們利用對抗的方法生成一個幹擾向量輸入,使得它能夠誤導當前的閱讀理解模型;2、採用貪心策略從幹擾向量的詞彙權重中採樣得到對應的離散化的幹擾文本;3、使用幹擾文本構建用於訓練的對抗樣本,並重新訓練閱讀理解模型並重複上述步驟直至收斂。
  • AAAI 2020上的NLP有哪些研究風向?
    現有的神經機器翻譯模型一般都基於編碼-解碼框架,其中源和目標是分別處理的,這篇文章提出了聯合表示的方法,將源與目標統一表示,如圖所示:本次預講會,在對話方向,共有四篇文章。分別來自清華大學張亦馳(導師:歐智堅)、鄭銀河(導師:黃民烈)、中科院自動化所劉宇宸(導師:宗成慶)和南京大學孫亞偉。
  • 谷歌推出了基於注意機制的全新翻譯框架!
    谷歌最近與多倫多大學等高校合作發表論文,提出了一種新的網絡框架——Transformer。Transformer是完全基於注意力機制(attention  mechanism )的網絡框架,放棄了RNN和CNN模型。
  • 圖深度學習入門教程(六)——注意力機制與圖注意力
    硬模式(Hard Attention):會在生成注意力權重後篩選掉一部分不符合條件的注意力,讓它的注意力權值為0,即可以理解為不再注意不符合條件的部分。 1.4 注意力機制模型的原理注意力機制模型是指完全使用注意力機制搭建起來的模型。注意力機制除了可以輔助其他神經網絡以外,本身也具有擬合能力。
  • 資源|帶自注意力機制的生成對抗網絡,實現效果怎樣?
    在前一段時間,Han Zhang 和 Goodfellow 等研究者提出添加了自注意力機制的生成對抗網絡,這種網絡可使用全局特徵線索來生成高解析度細節。本文介紹了自注意力生成對抗網絡的 PyTorch 實現,讀者也可以嘗試這一新型生成對抗網絡。
  • 注意力機制Attention
    注意力機制(attention mechanism)Attention實質上是一種分配機制,其核心思想是突出對象的某些重要特徵。根據Attention對象的重要程度,重新分配資源,即權重,實現核心思想是基於原有的數據找到其之間的關聯性,然後突出其某些重要特徵。注意力可以被描述為將一個查詢和一組鍵值對映射到一個輸出,其中查詢、鍵、值和輸出都是向量。
  • CVPR 2020|看圖說話之隨心所欲:細粒度可控的圖像描述自動生成
    本文介紹的是CVPR 2020上錄用為Oral的論文《Say As You Wish: Fine-grained Control of Image Caption Generation with Abstract Scene Graph》(已開源),文章作者是中國人民大學博士生陳師哲同學,這項工作是陳師哲同學在澳大利亞阿德萊德大學吳琦老師組訪問時所完成。
  • AAAI 2020 提前看 | 三篇論文解讀問答系統最新研究進展
    為了向讀者們介紹更多 AAAI2020 的優質論文,機器之心組織策劃了 AAAI 2020 論文分享,邀請國內外著名大學、研究機構以及工業界的研究人員詳細介紹他們發布在 AAAI 2020 的文章,歡迎大家持續關注。在本篇提前看中,我們重點聚焦 AAAI 2020 中與問答系統(Q&A)相關的文章。
  • AAAI 2020 提前看|三篇論文解讀問答系統最新研究進展
    為了向讀者們介紹更多 AAAI2020 的優質論文,機器之心組織策劃了 AAAI 2020 論文分享,邀請國內外著名大學、研究機構以及工業界的研究人員詳細介紹他們發布在 AAAI 2020 的文章,歡迎大家持續關注。在本篇提前看中,我們重點聚焦 AAAI 2020 中與問答系統(Q&A)相關的文章。
  • 圖解谷歌神經機器翻譯核心部分:注意力機制
    可以這麼說,沒有注意力機制,機器翻譯的水平只有60-70分。有了注意力機制,翻譯的水平就能夠達到80-90分了。它是如何發揮作用的呢?很多人一解釋起來,就是鋪天蓋地的數學公式,讓人還沒來得及看,就直接懵逼了。