EMNLP 2019論文分享|神經網絡機器翻譯多智能體聯合學習模型

2020-12-27 百度NLP

EMNLP 2019收錄論文分享《Multi-agent Learning for Neural Machine Translation》。

一、研究動機

在機器翻譯任務中,我們經常會遇到這樣的情況,如表1 中的例子所示,L2R(從左到右解碼的智能體,本文中智能體 指翻譯模型)所產生的譯文,前半段質量較好,而後半段,錯誤逐漸增多。這是因為模型在翻譯的過程中,每個時刻的輸入是上個時刻的輸出,一旦某個時刻發生錯誤,就會不斷往右傳遞,導致翻譯質量下降。反之亦然。

首先,一個比較直接的想法是,能否讓L2R和R2L智能體(從右到左解碼)一起訓練,這樣在翻譯句子後半段的時候L2R能夠得到R2L的指導,同理前半段R2L可以得到L2R的指導。其次,如果增加更多的模型是否可以進一步提升效果?同時,怎麼設計多智能體之間的學習策略?智能體是應該更關注多樣性還是單智能體性能?這些都是需要解決的問題。

在此背景下,百度翻譯團隊近期提出業內首個神經網絡機器翻譯多智能體聯合學習模型(MAL),顯著提升了單智能體的學習能力,在多個機器翻譯測試集合上刷新了當前最好結果(SOTA)。相比於傳統的神經網絡翻譯模型,MAL具有如下創新點:

(1)提出了一種適應多智能體聯合學習的訓練框架,通過將多智能體之間的多對多學習問題轉化為一對多學習問題,能夠高效支持多個智能體聯合學習。

(2)利用知識蒸餾(Knowledge Distillation)和實時譯文評估等策略,確保單個智能體能從其他智能體中學習到高質量的模型知識。

(3)模型在多個公開測試集上取得了最佳或者接近最佳的效果,並在中英大數據上取得顯著提升,直接應用於百度翻譯線上產品。

二、技術方案

為了解決訓練框架中多對多學習的問題,論文考慮將多對多轉化為一對多,即每個智能體向同一個Teacher學習,這個Teacher是由多個智能體聯合產生。區別於傳統的Knowledge Distillation相關工作,MAL中Teacher的參數不是固定的,而是隨著單個智能體的更新而更新。具體的學習流程如下:

圖1. MAL整體訓練流程

(a)使用語料預訓練單個智能體,(b)針對單個智能體的輸出做平均形成Teacher,(c)使用一對多的方式讓每個智能體去擬合Teacher的輸出和參考譯文。不斷地去重複步驟(b)和(c),這樣每個智能體通過學習Teacher的結果不斷增強性能,同時又能組合出更強的Teacher。

論文使用KL散度來度量每個智能體和Teacher的擬合程度,並通過最小化這個Loss達到同Teacher學習的目的,具體公式如下:

公式中S的定義如下:

為了控制Teacher的質量,論文引入變量S,使用翻譯中常用的評價指標BLEU值來選擇智能體到底學Teacher

還是自身的分布。最終智能體訓練的總Loss為:

三、實驗結果

圖2展示了多智能體在中英NIST新聞語料上的實驗結果。論文使用了4種不同結構的智能體(均為Transformer的變種)來驗證方法的有效性,分別為正向解碼模型(L2R)、反向解碼模型(R2L)、Encoder堆至30層的模型(Enc)、關注相對位置的局部注意力模型(Rel)。從圖中最後一行可以看出,論文設計的互相學習的方式是有效的,每個智能體相對於基線都得到了顯著提升(+1BLEU即為顯著)。同時論文也通過對比實驗來驗證多樣性和單智能體性能哪個更重要。從圖中d*3與a+c+d的實驗對比可以看出,模型的多樣性對於性能的提升更為關鍵,並且該框架隨著不同結構智能體數量的變多,效果不斷提升(a+c+d vs a+b+c+d)。

圖2. 中英NIST語料實驗結果

為了驗證這種方法在大數據集上的效果,論文在中英4千萬語料上做了對比實驗,因為部署時只使用了L2R的模型,所以圖3中展示了使用多智能體聯合訓練框架訓出來的L2R模型(L2R+R2L+Enc+Rel)和正常訓練得出的L2R(Baseline)模型,在4個測試集上平均BLEU提升0.86。

圖3. 中英大規模語料實驗結果

最後在公開的IWSLT14德英和WMT14英德測試集上也驗證了模型的有效性,德英測試集超越了SOTA,英德取得了接近SOTA的結果(Rel-4為MAL的結果)。

圖4. IWSLT德英實驗結果
圖5. WMT14英德實驗結果

四、總結

論文提出了一種多對多學習框架,可以高效地支持多個智能體聯合學習。通過知識蒸餾,單一智能體可以從其他智能體中不斷學習,使得每個智能體都有提升。而這一過程中,Teacher模型也是不斷更新迭代的,這區別於傳統知識蒸餾方法。實驗表明,在多個公開數據集以及大規模翻譯任務上,該方法顯著地提升了翻譯質量, 此外,該方法可擴展性強,可以通過增加智能體的數量及多樣性,以獲得進一步提升。

至此,《Multi-agent Learning for Neural Machine Translation》論文的分享到此結束,敬請期待更多百度NLP最新前沿進展分享。

相關焦點

  • EMNLP 2019 參會小結及最佳論文解讀
    作為自然語言處理領域的頂級會議之一,在本次大會中,中國被接收的論文數量在所有國家和地區中位居第二。本屆大會舉辦了18場 Workshops 、多個Tutorials和主題豐富的會議活動,吸引了超過1922人參會。本篇文章是RUC AI Box小組成員分享了他們參加今年EMNLP 2019會議的感想和總結,同時精選了EMNLP 2019獲獎論文進行解讀。
  • ACL 2019 論文:谷歌提出增強神經網絡機器翻譯魯棒性的新方法
    儘管近年來利用 Transformer 模型進行神經機器翻譯(NMT)取得了巨大成功,但是 NMT 模型對輸入的微小幹擾仍然很敏感,從而導致各種不同的錯誤。谷歌研究院的一篇 ACL 2019 論文提出了一種方法,使用生成的對抗性樣本來提高機器翻譯模型的魯棒性,防止輸入中存在的細小擾動度對其造成影響。結果表明,該方法提高了 NMT 模型在標準基準上的性能。
  • 深度神經網絡機器翻譯
    , 已經感到神經網絡語言模型的力度。今天有時間和大家一起討論下下, 深度神經網絡機器翻譯。前言2016年年底, Google公布了神經網絡機器翻譯(GNMT), 從此宣告, 機器翻譯經過27年左右, 正式從1989年的IBM機器翻譯模型(PBMT,基於短語的機器翻譯),過渡到了神經網絡機器翻譯模型。已經極大接近了普通人的翻譯了。
  • EMNLP 2018 | 用強化學習做神經機器翻譯:中山大學&MSRA填補多項空白
    參與:Panda人工深度學習和神經網絡已經為機器翻譯帶來了突破性的進展,強化學習也已經在遊戲等領域取得了裡程碑突破。首先,大多數研究(甚至可能全部研究)都是基於淺的循環神經網絡(RNN)模型驗證他們的方法。但是,為了得到當前最佳的表現,利用近期發展起來的深度模型 [Gehring et al., 2017; Vaswani et al., 2017] 將至關重要,這些模型的能力要強大得多。
  • ...聯合多任務模型;3D人體重建;可視化理解機器翻譯;深入研究整流...
    目錄聯合多任務模型:多NLP任務的神經網絡的創建Peelnet:基於單視角彩色圖片的帶紋理的3D人體重建可視化理解機器翻譯深入研究整流器:在ImageNet分類上超越人的水平對深前向神經網絡訓練難點的理解聯合多任務模型:多NLP任務的神經網絡的創建論文名稱:A Joint Many-Task Model: Growing a Neural Network for Multiple NLP Tasks作者:Kazuma Hashimoto /Caiming
  • ICCV 2019 | 曠視研究院推出基於深度強化學習的繪畫智能體
    曠視研究院共有 11 篇接收論文,涵蓋通用物體檢測及數據集、文字檢測與識別、半監督學習、分割算法、視頻分析、影像處理、行人/車輛再識別、AutoML、度量學習、強化學習、元學習等眾多領域。在此之前,曠視研究院將每周介紹一篇 ICCV 2019 接收論文,助力計算機視覺技術的交流與落地。
  • EMNLP2018最佳論文:Facebook 提升 11BLEU 的無監督機器翻譯
    雷鋒網 AI 科技評論按:說到機器翻譯,谷歌吃螃蟹並商用的 NMT、微軟研究院媲美人類水平的 AI 翻譯系統我們都做過比較多的報導,大家也都比較熟悉;不過它們都是需要監督的。Facebook 的 EMNLP 2018 論文《Phrase-Based & Neural Unsupervised Machine Translation》(基於詞語的、無監督神經網絡的機器翻譯)就介紹了他們在無監督機器翻譯方面的最新成果。無
  • 7 Papers & Radios | EMNLP 2020最佳論文;新型優化器AdaBelief
    這些反過來又可以用於創建日益真實和多樣化的交互,從而能夠對多智能體交互進行更深更廣泛的研究。此外,研究者描述了 SMARTS 的設計目標,解釋了它的基本架構以及關鍵特徵,並通過交互場景中具體的多智能體實驗闡釋了其使用流程。研究者還開源了 SMARTS 平臺以及相關的基準任務和評估指標,以鼓勵和推進自動駕駛領域多智能體學習的更多研究。
  • 深度學習在NLP中的運用?從分詞、詞性到機器翻譯、對話系統
    通過深度學習和其他機器學習技術的模型組合,竹間智能也已初步實現了自然語言對話中的意圖識別、上下文理解和多輪對話。本文將基於竹間智能的一些經驗和探索,從分詞、詞性等基礎模塊,到機器翻譯、知識問答等領域,列舉並分析一些深度學習在 NLP 領域的具體運用,希望對大家研究深度學習和 NLP 有所幫助。
  • NeurIPS論文解讀|強化學習與自動機器學習(文末贈書)
    強化學習是近年來大放異彩的機器學習技術之一,基於這種技術開發的人工智慧模型已經在圍棋、撲克、視頻遊戲和機器人等領域取得了非常多的裡程碑式的進步。騰訊 AI Lab的 NeurIPS 2019 入選論文中有三篇與強化學習有關,這三篇論文針對不同方向的任務分別提出了兩種不同的新的算法以及一種新的多智能體學習策略。
  • 百度何中軍:機器翻譯——從設想到大規模應用
    在統計機器翻譯佔據了20多年的統治地位後,2014年神經網絡翻譯模型被提出,2015年5月百度旋即發布了全球首個網際網路神經網絡翻譯系統,2016年9月Google也發布了神經網絡翻譯系統。此後,國內外巨頭網際網路公司都紛紛把神經網絡翻譯系統作為主系統。這便是機器翻譯的簡要發展歷史。何中軍博士接著介紹了驅動機器翻譯發展的三駕馬車。
  • 劉鐵巖團隊ICML論文提出機器學習的新範式:對偶監督學習
    據了解,這篇論文已經被即將於今年8月舉行的ICML接受。論文中展示了對偶監督學習的機器學習範式在機器雙語翻譯、圖像分類與生成、情感分析與分析三組任務中都可以為原模型帶來明顯的提升。ICML2017論文:對偶監督學習另一方面,去年微軟亞研有一篇NIPS論文「Dual Learning for Machine Translation」(用於機器翻譯的對偶學習),雷鋒網硬創公開課也曾邀請到論文作者之一的微軟亞研主管研究員秦濤博士給大家做了詳細的分享
  • 深度:回顧Google神經網絡機器翻譯上線歷程
    Google Translate作為久負盛名的機器翻譯產品,推出10年以來,支持103種語言,一直作為業界的標杆。而在前不久,Google官方對翻譯進行一次脫胎換骨的升級——將全產品線的翻譯算法換成了基於神經網絡的機器翻譯系統(Nueural Machine Translation,)。
  • ACL論文 | 深度學習大神新作,神經網絡的自然語言翻譯應用
    講座學者之一 Kyunghyn Cho 與深度學習「大神」 Yoshua Bengio、蒙特婁大學學者 Junyoung Chung 在 ACL 大會上發表了論文,進一步展現神經機器翻譯的研究結果。在此,雷鋒網(公眾號:雷鋒網)為大家分享名為《針對神經機器翻譯,無需顯性分割的字符等級解碼器》論文全文。
  • 2019年十大精彩AI學術論文盤點
    雷鋒網 AI 科技評論參考 TopBots、Heartbeat、New World AI 等機構的 2019 論文榜單,總結出 2019 年發表的具有研究風向代表性的、有學術影響力、內容也精彩的 AI 論文。其中一些論文把現有的技術思路改進得更加完善,有一些加深了我們對機器學習/深度學習整件事的理解,也有的嘗試了全新的假說、打開了新的探索方向。
  • SFFAI分享 | 楊振:低資源神經機器翻譯[附PDF]
    作者簡介楊振,中國科學院自動化研究所博士,研究方向為神經機器翻譯,主要研究內容包括模型算法優化,低資源情況下的機器翻譯算法研究,首次將對抗網絡應用於機器翻譯領域並取得了較大的性能提升。Introduction本論文針對基於深度學習的神經機器翻譯模型算法進行研究並針對實際應用場景對模型進行優化。神經機器翻譯是從2013年開始的一個新興的研究領域,其在很多語種上已經遠遠超越了傳統的統計機器翻譯。
  • 谷歌翻譯高勤:神經網絡技術將主導機器翻譯的未來
    谷歌翻譯研發科學家高勤  中國網科技7月11日訊 谷歌翻譯研發科學家高勤在今天舉行的中國網際網路大會上介紹稱,谷歌翻譯在神經網絡機器翻譯技術上已經取得重要進展,並同時對機器翻譯技術在未來當中實際應用。他表示:「神經網絡機器翻譯和非專業人工翻譯已經相當接近,對於中英文互譯也取得最大提升。」  高勤在大會上稱,神經網絡翻譯技術與傳統翻譯技術有很大不同。傳統機器翻譯技術是基於短語統計機器翻譯拼圖過程,嘗試找出較好翻譯選項,而神經網絡機器學習屬於利用雲語言與目標語言信息,使整各翻譯過程變得連續且完整。
  • 深度學習NLP領軍人Manning:未來5年神經機器翻譯會有超越 | 新智元專訪
    2015年6月,LeCun在Facebook AI實驗室巴黎分部的開幕式上說,深度學習接下來的重要一步是自然語言理解,讓機器不僅能夠理解單個單詞,還能理解整個句子乃至段落。現代深度學習的另一大巨頭Yoshua Bengio,更是率領團隊越來越多地從事深度學習語言學研究,包括現在已經成果斐然的神經機器翻譯系統。
  • EMNLP 2017 | 納弗公司:基於注意力神經網絡機器翻譯的交互式可視化和操控
    ,說看多了相對簡單的AI科普和AI方法論,想看點有深度、有厚度、有眼界……以及重口味的專業論文。為此,在多位AI領域的專家學者的幫助下,我們解讀翻譯了一組頂會論文。每一篇論文翻譯校對完成,芯君和編輯部的老師們都會一起笑到崩潰,當然有的論文我們看得抱頭痛哭。同學們現在看不看得懂沒關係,但芯君敢保證,你終有一天會因此愛上一個AI的新世界。讀芯術讀者論文交流群,請加小編微信號:zhizhizhuji。等你。
  • 2019年 10 大精彩論文,哪篇論文打動了你?
    AI 科技評論參考 TopBots、Heartbeat、New World AI 等機構的 2019 論文榜單,總結出 2019 年發表的具有研究風向代表性的、有學術影響力、內容也精彩的 AI 論文。其中一些論文把現有的技術思路改進得更加完善,有一些加深了我們對機器學習/深度學習整件事的理解,也有的嘗試了全新的假說、打開了新的探索方向。