對話智能新高度:百度發布超大規模開放域對話生成網絡PLATO-2

2020-12-10 機器之心Pro

機器之心發布

機器之心編輯部

近日,百度發布對話生成網絡 PLATO-2,宣布在開放域對話生成模型上迎來重要進展。PLATO-2 承襲 PLATO 隱變量進行回復多樣化生成特性,模型參數高達 16 億,涵蓋中英文版本,可就開放域話題深度暢聊。實驗結果顯示,PLATO-2 中英文對話效果已超越谷歌 Meena、微軟小冰和 Facebook Blender 等先進模型。

百度 NLP 於去年 10 月預公布了通用領域的對話生成預訓練模型 PLATO,近期在 ACL 2020 上展示。最近,百度又新發布了超大規模模型 PLATO-2。PLATO-2 承襲了 PLATO 隱變量進行回復多樣化生成的特性,模型參數規模上升到了 16 億。PLATO-2 包括中英文版本,能夠就開放域話題進行流暢深入的聊天。據公開數據,其效果超越了 Google 於今年 2 月份發布的 Meena (26 億參數)和 Facebook AI Research 於今年 4 月份發布的 Blender (27 億,最高 94 億參數)的效果。在中文上更是達到了全新高度。

論文名稱 PLATO-2:Towards Building an Open-Domain Chatbot via Curriculum Learning

論文地址:https://arxiv.org/abs/2006.16779

GitHub地址:https://github.com/PaddlePaddle/Knover

1. 引言

傳統對話系統需求大量的人工編碼,通常只能解決領域內的問題。隨著深度學習的普及和不斷發展,端到端的開放域對話系統效果也在穩步提升。基於大量語料和超大規模模型的預訓練開放域對話生成技術近些年取得了非常多的進展。如微軟發布的 DialoGPT,Google 發布的 Meena,Facebook 發布的 Blender 等,依託數億到數十億級級別參數的 Transformer 模型,以及數億到數十億的語料訓練模型,模型能模擬人產生和人類非常相近的對話。

對話中存在 「一對多」 問題,也就是同樣的對話語境下,可以有多種不同的回覆。這些不同的回覆,除了與上下文相關,也和背景知識相關。這些背景知識包括個人屬性(性別年齡,畫像等等)、生活常識、相關知識、價值觀和態度(如認同 / 不認同一個觀念)、對話發生的場景信息,對話人情緒狀態意圖等等 (圖 1)。然而這些背景知識往往非常難獲取,這就給對話系統訓練帶來非常大的噪音。一般的 Encoder-Decoder 神經網絡不管有多麼複雜,仍然是一個 「一對一」 的函數,如果直接使用,就很容易產生諸如 「哈哈」,「不知道」 之類的安全回復。

圖 1 對話系統難點:對話語料下面的豐富隱藏信息

在百度去年發布的 PLATO 模型,和微軟近期發布的 OPTIMUS 模型中,都提到了利用隱變量(Latent Space)來建模這種不可見的多樣性的方法。而百度 PLATO 模型更是獨特採用了離散隱變量的方式來建模,且採用了多樣化生成 + 合適度判斷的方式,其中合適度判斷用於回復篩選(Response Selection)。PLATO 在 Persona-Chat, Daily Dialogue 和 DSTC7-AVSD 三個不同類型的公開數據集上獲得了 SOTA 的效果。

2. PLATO-2 介紹

這次公布的 PLATO-2, 是在 PLATO 工作基礎上的進一步擴展。PLATO 使用了 12 層 Transformer 作為基礎,參數為 1.1 億。PLATO-2 通過擴展網絡,增加訓練數據集,將網絡擴展到 16 億參數。考慮到精細化的引入隱變量的網絡訓練,計算消耗很大,PLATO-2 採取了課程學習的方法,逐步優化參數,加快訓練效率。

2.1 PLATO-2 模型結構

和 DialoGPT 單向網絡,以及 Meena 和 Blender 使用的 Encoder-Decoder 結構不同,PLATO-2 使用了 Unified Network 結構,針對上文部分使用雙向 Attention,回復部分使用單向 Attention,兩者共享網絡參數,只是 Attention Mask 進行了靈活設計。這種設定經過各項任務的反覆驗證,發現在同等規模參數量的情況下具有最佳的性價比。同時,PLATO-2 採用了 GPT-2 的前置正則化層的方式,以更好適應大規模訓練的需求。

此外,PLATO-2 承襲了 PLATO 結構, 包括三個邏輯模塊,Generation、Recognition 和 Response Selection,如圖 2 右邊所示。其中 Recognition 網絡用於在訓練過程中識別隱變量, Generation 則能夠根據不同隱變量來生成回復(藍色部分)。Response Selection 承擔從不同隱變量生成的回覆中,選擇合適度最好的回覆,因此也可以認為是一種評估(Evaluation)模型(橙色部分)。

圖 2 PLATO-2 模型結構簡圖

2.2 PLATO-2 訓練方法

PLATO-2 採用了課程學習方法。因為帶隱變量的模型需要同時訓練三個不同模塊,其訓練成本很大,因此,第一步,PLATO-2 先訓練了不含隱變量的模型。該模型進行的是簡化的 「一對一」 建模,容易生成安全回復。第二步,在前一步模型基礎上,添加上隱變量,然後同時訓練 Generation + Recognition 和 Response Selection 兩個不同模型。其中,Response Selection 模型在合適度預測的基礎上,還添加了 Masked Language Model 作為輔助任務,以強化模型對語義的理解。

3. PLATO-2 效果

PLATO-2 包含中英文兩部分模型。其中,中文模型在 12 億中文開放域多輪對話數據集上進行訓練,而英文模型則在 7 億英文開放域多輪數據集上訓練。PLATO-2 訓練耗費了 64 張英偉達 V100 卡共 3 周的時間,依託了百度飛槳強大並行能力,包括 Fleet 並行庫和 Recompute 等擴展顯存的方式。單個 Batch 包含 52 萬 Token,訓練過程中約進行了 30 萬次梯度回傳。

為了全面對比 PLATO-2 和其他基線的效果,PLATO-2 的論文進行了靜態和動態評估。其中,靜態評估是利用現有對話上文,要求模型預測一句下文,人工評估對話的合適度。而動態評估中,由於中文的對比模型沒有開放 API 接口,中英文採用了不同的評估數據收集方式。英文動態評估採用了兩個模型進行相互對話(Self-Chat)的形式,通過人工來評估效果。中文則採用了人機對話的形式。中英文動態評估中,都是先給定一句起始話題(第一句對話),然後進行多輪交互,最後對這些多輪對話進行評估。

圖 3 PLATO-2 動態評估效果

圖 4 PLATO-2 靜態評估效果

從結果上看,PLATO-2 在動態(圖 3)或者靜態(圖 4)評估中,均明顯超越了 DialoGPT、Meena 和 Blender,在中文上和微軟小冰拉開了極大的差距。這意味著,PLATO-2 的對話智能達到了全新的領域。

此外,文章也放出了 PLATO-2 一些中文(圖 5)和英文(圖 6)對話的演示。從對話效果上看,PLATO-2 和之前的模型,包括 Meena 和 Blender 有非常明顯的區別。一方面 PLATO-2 在對話內容豐富度上提升明顯,另一方面,PLATO-2 能夠就一個話題深入聊天並擴展到相關話題。而之前的最佳模型 Blender,則非常頻繁地轉換話題,並且在每個話題上聊得相對較淺。

圖 5 PLATO-2 中文對話演示

圖 6 PLATO-2 英文對話演示和 Blender 使用相同對話種子對比

4. 總結

PLATO-2 基於全新的隱空間技術和 Transformer 模型,從內容豐富,連貫性上都達到了新的高度。期待 PLATO-2 能為智能對話開闢全新的領域。此外, PLATO-2 的英文模型和代碼即將陸續在 Github 開放,而中文模型也有望於不久的將來,開放接口提供相關服務。對智能對話感興趣的小夥伴一定不能錯過。

相關焦點

  • 超大規模PLATO-2刷新對話智能上限
    人與機器在開放領域自由對話這一終極理想,又迎來重大進展。近日,百度全新發布了超大規模模型PLATO-2,在承襲PLATO模型運用隱變量進行多樣化回復生成特性外,模型參數規模上升到16億!能夠就開放話題和人類流暢嗨聊。
  • 中英文對話效果超越微軟、谷歌!百度PLATO-2開闢對話智能全新邊界
    人與機器在開放領域自由對話這一終極理想,又迎來重大進展。近日,百度全新發布了超大規模模型PLATO-2,在承襲PLATO模型運用隱變量進行多樣化回復生成特性外,模型參數規模上升到16億!能夠就開放話題和人類流暢嗨聊。在對話演示中,PLATO不僅能深聊「去吧去吧,學會了遊泳帶我一起」,還會小腹黑「你不怕我把你扔河裡麼?」,朱朝陽看了都直呼專業。
  • 百度效果碾壓谷歌,16億參數超大規模對話網絡PLATO-2
    在開放領域中人與機器之間自由對話的終極理想迎來了巨大的進步。最近,百度新發布了超大型模型PLATO-2。除了PLATO模型運用隱變量進行多樣化生成特性外,模型參數規模已增加到16億!能夠在開放主題上與人類進行流利的聊天。
  • 全球對話技術頂賽DSTC9落幕,百度NLP開源PLATO-2斬獲四項冠軍
    這些賽道全面涵蓋了開放域閒聊、知識對話、任務型對話等關鍵問題。據悉,百度在這些任務中所使用的核心技術,均基於其最近開源的開放域對話模型 PLATO-2。PLATO-2 是基於隱空間技術的大規模開放域對話模型,參數規模高達 16 億,可就開放域話題深度暢聊,在中英文效果上,已全面超越 Google Meena、Facebook Blender、微軟小冰等先進模型。
  • PLATO:百度發布首個大規模隱變量對話模型
    本文對百度被 ACL 接收的論文《PLATO:Pre-trained Dialogue Generation Model with Discrete Latent Variable》進行解讀,相關工作通用領域對話生成預訓練模型PLATO 已於去年10月份公布。
  • 9大核心特性全新發布 百度大腦智能對話引擎「吹響號角」
    而對話讓機器更加智能,從而更好的服務人類。如今智能對話已在AI領域成為一個新熱點,其創新和應用前景都非常廣闊。5月15日,"與未來對話——百度大腦智能對話引擎及產品發布會"正式舉行,會上首次曝光百度大腦智能對話生態,並推出全新的智能對話引擎,一場語音、語言與知識共舞的盛會拉開序幕。「市場上,用戶對產品智能交互要求越來越高、企業對智能對話關注與需求與日俱增。
  • 百度發布全球首個大規模隱變量對話模型PLATO
    百度於去年10月公布的通用領域對話生成預訓練模型PLATO,最近已正式被ACL 2020接收。PLATO是業界首個基於隱空間(Latent Space)的端到端預訓練對話生成模型。據悉,該模型利用隱向量來表示對話的潛在方向,從而達到對話內容豐富度和流暢度的顯著提升。
  • 百度大腦UNIT3.0智能對話技術全面解析
    百度與IDC聯合調研報告顯示,「企業知識庫累積不夠」「項目投入成本過高」」專業人才缺少」等,位列企業在推進對話系統中的首要障礙。百度大腦智能對話系統定製平臺UNIT3.0,發布從搭建技能、構建知識、整合語音與知識的全鏈路對話系統搭建技術能力,大幅降低了對話系統的定製成本。
  • 觀潮百度NLP十年:語言知識全布局,5款產品新發布、2大計劃
    在對話生成方面,百度研發了首個基於隱空間的大規模開放域對話模型,藉助隱空間建模不同的對話回複方式,在對話合理性、內容豐富度、吸引力等方面效果突出,中英文效果上都超越了業內最佳的模型和系統。5 款產品新發布、2 大計劃除了這些技術的總結和展望之外,在這次活動中,百度還一口氣發布了文心、TextMind、AI 同傳會議解決方案 3 款新產品,智能創作平臺面向媒體的 3 個場景方案,智能對話定製與服務平臺 UNIT 的 3 項全新升級以及數據共建和算力共享計劃。
  • 與未來對話!百度大腦智能對話引擎及產品發布會開幕倒計時
    5月15日,"與未來對話——百度大腦智能對話引擎及產品發布會"將在北京舉行。百度大腦將重磅推出UNIT3.0智能對話引擎,並發布三大智能對話集成方案,通信、教育、汽車等各個領域的百度大腦生態夥伴亦將帶來精彩分享及多款全新產品。
  • 百度聯合發布全球最大中文自然語言處理數據共建計劃「千言」
    來源:證券時報網在8月25日舉行的百度大腦語言與知識技術峰會上,百度集團副總裁吳甜和百度技術委員會主席吳華分別發布百度語言與知識技術系列產品和數據集共建計劃,推出5款產品的新發布,全面加速AI技術大規模應用。
  • 11篇論文、首屆同傳研討會、技術分享,百度AI閃耀ACL2020
    這次會議,百度共有11篇論文被錄用,覆蓋自然語言處理眾多前沿研究方向;百度聯合谷歌、Facebook、清華大學等全球頂尖機構,共同舉辦首屆同聲傳譯研討會;在線上展臺主題技術TALK環節,百度還就開放域人機對話技術、ERNIE核心技術等業內關注的話題展開分享,展現了中國企業在自然語言處理及人工智慧領域的技術創新與落地實踐能力。
  • 專訪| 三角獸首席科學家王寶勳:熱度之下的對話生成
    三角獸與哈工大合作的這篇論文(GAN-AEL)就旨在通過生成對抗網絡解決這個問題,讓生成器考慮「相關性」問題,同時,引入具有對抗屬性的判別器,把「多樣性」也納入考量之中。實現這個思路的障礙來自生成對抗網絡和自然語言本身的特性。生成對抗網絡成功用於圖像領域有賴於圖像信號的連續特點,然而文本信號是離散的,離散意味著不可導、意味著判別器的信息無法順利通過反向傳播到達生成器。
  • 國產超大規模AI預訓練模型發布 可實現「用圖生文」等任務
    原標題:國產超大規模AI預訓練模型發布,可實現「用圖生文」等任務   六出奇光動地來,西方海國見旌旗。   水心惟有終無底,火內曾無徹上灰。
  • 國產超大規模AI預訓練模型發布,可實現「用圖生文」等任務
    人工智慧模型「文匯」是北京智源人工智慧研究院近日發布的一款面向認知的超大規模新型預訓練模型。它旨在探索解決當前大規模自監督預訓練模型不具有認知能力的問題,參數規模達113億,僅次於OpenAI1月初發布的DALL·E模型的120億參數量,是目前中國規模最大的預訓練模型。超大規模預訓練模型是當前人工智慧領域研究的熱點。
  • 降本增效、工業級應用,百度語言與知識新品劍指產業智能化
    8月25日,以「掌握知識、理解語言、擁有智能」為主題的百度大腦語言與知識技術峰會舉行,百度CTO王海峰發表主旨演講,解讀百度語言與知識技術的發展歷程與最新成果,與產學研各界分享技術及產業發展趨勢和展望,百度集團副總裁吳甜和百度技術委員會主席吳華分別發布百度語言與知識技術系列產品和數據集共建計劃,重磅推出5款產品的新發布,全面加速AI技術大規模應用。
  • AAAI 2020舉辦,百度NLP論文速遞
    對話生成領域入選論文對話生成領域,百度入選論文《Knowledge Graph Grounded Goal Planning for Open-Domain Conversation Generation》,提出了一個基於知識圖譜及層次化強化學習的開放域對話模型(KnowHRL)。
  • IDC:戰略和能力雙維度領先,百度智能雲在中國對話式AI市場居領導者...
    百度智能雲在中國對話式人工智慧市場穩居領導者地位。9月24日消息,國際權威研究機構IDC發布的《IDC MarketScape: 中國對話式人工智慧廠商評估,2020》報告顯示,百度智能雲在能力和戰略兩個維度均處領導者地位 。報告指出,以百度智能云為代表的平臺級公司主推企業級對話式人工智慧服務,已經依託已有客戶群體積累了大量對話式人工智慧應用案例。
  • 百度在美宣布Apollo2.0開放 DuerOS智能硬體三連發
    文/廣勝【網易智能訊1月9日消息】美國拉斯維加斯時間1月9日至12日,第51屆國際消費類電子產品展覽會在拉斯維加斯舉行,百度AI集中亮相,Apollo自動駕駛開放平臺及對話式人工智慧作業系統DuerOS發布了全新的技術和硬體產品,Apollo平臺研發負責人王京傲宣布Apollo2.0正式開放,百度COO陸奇進行了開場演講。
  • 百度IJCAI2020之行的亮點總結,學術創新成果全球領先
    值得一提的是,百度研究院量子計算研究所所長段潤堯還在會上發表了以量子計算為主題的精彩演講。百度所取得的AI技術突破和創新將助力人機互動、對話智能、智慧醫療、智慧零售、搜索廣告等場景的落地應用,推動全球人工智慧不斷進步和發展,同時譜寫屬於中國的「AI樂章」。以下為百度IJCAI2020之行的亮點總結。