首發!三角獸被 EMNLP 錄取論文精華導讀:基於對抗學習的生成式對話...

2020-12-07 雷鋒網

雷鋒網(公眾號:雷鋒網)按:近日,三角獸科技 AI Lab 的一篇論文,被世界頂級自然語言處理會議 EMNLP 高分錄取,論文題目為:Neural Response Generation via GAN with an Approximate Embedding Layer,由三角獸研究團隊與哈工大 ITNLP 實驗室合作完成。論文中提出了一種新的對話文本對抗生成學習框架,目的是解決文本生成過程中的採樣操作帶來的誤差無法反向傳導的實際問題,從而實現基於對抗學習的聊天回復生成模型。

以下為三角獸研究團隊所寫的論文精華導讀,雷鋒網授權首發:

引言

在最近幾年裡,深度學習 (Deep Learning, DL)在自然語言處理領域不斷攻城略地,使得過去被認為很難取得突破的研究方向的難度有所降低,其中最為人們所津津樂道案例的當屬 Sequence-to-Sequence (S2S) 在對統計機器翻譯(Statistical Machine Translation, SMT)領域的顛覆性突破,進而產生了全新的基於神經網絡的機器翻譯(Neural Machine Translation, NMT)範式[1, 2]。這個新範式的影響甚至已經波及到了其他相關領域,其中就包括本文即將討論的生成式自動聊天系統(Generation based Chatting System)[3, 4, 5]。

通常認為自動聊天系統(Automatic Chatting Systems)可以通過兩種技術路線實現:一種是將信息檢索系統構建於大規模對話數據集之上,通過建立有效的問句匹配和問答相關度量化模型實現對用戶 query的合理回復[6],本文不做贅述;另一種技術路線則試圖通過構建端到端(End-to-End)的深度學習模型,從海量對話數據中自動學習 query 和 response 之間的語義關聯,從而達到對於任何用戶 query 都能夠自動生成回復的目的。如果說基於信息檢索的技術路線偏重工程實現的話,那麼基於生成的技術路線則顯得更加學術。

生成式聊天模型的提出與 NMT 有著極為緊密的關聯,這種關聯可以追溯到深度學習尚未如此風行的年代:在早期的問答系統(Question Answering Systems)的相關研究中,人們就已經把SMT 的相關模型和方法應用在答案篩選排序模塊裡,並取得了不錯的效果[7]。這背後的原因是,為一個問題尋找答案的過程可以看作是一種特殊的翻譯過程,在這個特殊的翻譯過程中,問題和答案分別位於翻譯模型的兩端,如此一來,一個 question-answer pair 實際上等價於 SMT 需要處理的一條平行語料,而 SMT 的訓練過程實際上也就等價於構建問題和答案當中詞語的語義關聯過程。在 NMT 取得巨大成功之後,這種新的範式很自然的被應用在聊天回復的自動生成上,於是本文所要討論的第一個直觀思維產生了:聊天可以看作是一種特殊的不以獲取信息為目的的問答,同時 SMT 可以用來尋找答案,且 NMT 是 SMT 的一種高級形態,那麼 NMT 模型可望用來實現聊天回復的自動生成。如今,我們把這種新的自動聊天模型架構命名為 Neural Response Generation(NRG)。

NRG 面臨的挑戰

不可否認,採用 NRG 模型生成的一部分聊天回復在主題上確實能夠做到與相應的 query 吻合,甚至會有個別語義相關度較高且可讀性很好的回覆可以被生成出來,饒是如此,恐怕不會有人認為 NRG 複製了 NMT 模型在機器翻譯領域的成功,其主要原因就是,這種端到端模型生成的絕大多數答案嚴重趨同,且不具有實際價值,即無法讓人機對話進一步進行下去,例如,對於任何的用戶 query,生成的結果都有可能是「我也覺得」或「我也是這麼認為的」。無論模型在中文數據還是在英文數據上進行訓練,這種現象都非常明顯,由於模型生成的絕大多數結果對於任何 query 都勉強可以作為回復,於是我們把這種生成結果形象的命名為 safe response[8]。

顯而易見,safe response 的大量存在將使自動聊天系統顯得索然無味,使用戶失去與系統互動的熱情,因此目前的實用聊天系統仍然是以信息檢索模型為主要架構。簡而言之,NRG 模型如果想要在實際產品中發揮作用,避免 safe response 的生成是必須要解決的問題,無可迴避。

Safe response 問題的產生可能是多種因素共同作用的結果,本文僅從最直觀的方向切入這個問題。這裡不妨思考這樣一個問題:在同樣的數據組織形式,同樣的模型結構,合理的假設的情況下,為什麼 NMT模型沒有遇到如此明顯的 safe translating result 的問題?這時候回顧 NMT 模型的工作流程是很有必要的:NMT 模型由兩個部分組成,一部分負責對 source sentence 進行語義表示,將其壓縮成指定維度的語義向量,因此可以稱其為 encoder;另一部分負責接收 encoder 提供的語義向量,並在語義向量的「指導」下,逐個挑選詞語組成 target sentence,這個部分通常被稱作 decoder。一言以蔽之,encoder 負責提供輸入信號的語義表示,decoder則實際上實現了一個以該語義表示為初始條件的語言模型。

圖1 經典的 Sequence-to-Sequence 模型[1]

如此一來,safe response 的癥結之一就呼之欲出了:如果比較機器翻譯和聊天的訓練數據就不難發現,聊天數據中詞語在句子不同位置的概率分布具有非常明顯的長尾特性,這一特性通常在句子開頭幾個詞語上體現得尤為明顯,例如,相當大比例的聊天回復是以「我」「也」作為開頭的句子,相對地,對於主要以正規文本為數據源形成的 SMT 平行語料來說,這種情況出現的可能會依數量級地減少。在這樣的情況下,詞語概率分布上的模式會優先被 decoder 的語言模型學到,並在生成過程中嚴重抑制 query 與 response 之間詞語關聯模式的作用,直觀來看,即便有了 query 的語義向量作為條件,decoder 仍然會挑選概率最大的「我」作為 response 的第一個詞語,又由於語言模型的特性,接下來的詞語將極有可能是「也」……以此類推,一個 safe response 從此產生。

一個直觀的解決方案

NRG 模型產生 safe response 的問題可以說是意料之外情理之中的事情,於是人們堅定地對這個難題發起了挑戰。常見的解決方案包括:通過引入 attention mechanism 強化 query 中重點的語義信息[4],削弱 decoder 中語言模型的影響[8],從廣義上來說,引入 user modeling 或者外部知識等信息也能夠增強生成回復的多樣性[9, 10]。

而當我們跳出對於模型或者數據的局部感知,從更加全局的角度考慮 safe response 的問題的時候,一個非常直觀的方案撲面而來:產生 safe response 的 S2S 模型可以認為是陷入了一個局部的最優解,而我們需要的是給模型施加一個幹擾,使其跳出局部解,進入更加優化的狀態,那麼最簡單的正向幹擾是,告知模型它生成的 safe response 是很差的結果,儘管生成這樣的結果的 loss 是較小的。

一個直觀的思想,開啟了生成式對抗網絡(Generative Adversarial Networks, GAN)[11]在生成式聊天問題中的曲折探索。

知易行難

將 GAN 引入聊天回復生成的思路顯得如此水到渠成:使用 encoder-decoder 架構搭建一個回復生成器G,負責生成指定 query 的一個 response,同時搭建一個判別器 D 負責判斷生成的結果與真正的 response 尚存多大的差距,並根據判別器的輸出調整生成器 G,使其跳出產生 safe response 的局部最優局面。

然而當我們試圖通過對抗學習實現文本生成的時候,一個在圖像生成的 GAN 模型中從未遇到的問題出現在面前,那就是如何實現判別器D訓練誤差向生成器G的反向傳播(Backpropagation)。對於基於 GAN的圖像生成模型來說,這種誤差的反向傳播是如此的自然,因為 G 生成圖像的整個過程都是連續可導的,因此 D 的訓練誤差可以從 D 的輸出層直接傳導到 G 的輸入層。而對於文本的生成來說,一個文本樣本的生成必然伴隨 G 在輸出層對詞語的採樣過程,無論這種採樣所遵循的原則是選取最大概率的 greedy思想還是 beam searching,它實際上都引入了離散的操作,這種不可導的過程就像道路上突然出現的斷崖,阻擋了反向傳播的腳步,使對於 G 的對抗訓練無法進行下去。

為了解決文本生成過程中的採樣操作帶來的誤差無法傳導的實際問題,從而實現基於對抗學習的聊天回復生成模型,三角獸研究團隊在論文 Neural Response Generation via GAN with an Approximate Embedding Layer 中提出了一種新的對話文本對抗生成學習框架,目前本論文已經被 EMNLP 2017 錄用。

圖2 基於GAN-AEL的對抗學習框架

圖2展示了論文提出的 GAN with an Approximate Embedding Layer (GAN-AEL)的基本框架。我們使用 GRU 構建回復生成模型 G 的主體,用 CNN 構建判別器 D 用以判斷 query 與(真實存在的或模型生成的)response 之間的語義是否相關。在給定一個 query 的情況下,模型 G 通過 encoding-decoding 過程生成一個 fake response,這個 fake response 將與 query 構成一個負樣本,同時,query 在與訓練數據裡的真正的 response 構成一個正樣本,判別器 D 的訓練目標即是儘可能的區分上述正負樣本。

如前文所述,引入對抗學習改善文本生成的關鍵問題是如何解決文本生成過程中由採樣帶來的不可導問題,從而實現判別器誤差向生成器的正確傳播。本文直面此問題,為生成器 G 構建了一個 Approximate Embedding Layer (AEL 如圖中紅色矩形框中所示,其細節在圖右側部分給出),這一層的作用是近似的表達每次採樣過程,在每一個 generation step 中不再試圖得到具體的詞,而是基於詞語的概率分布算出一個採樣向量。這個操作的具體過程是,在每一個 generation step 裡,GRU 輸出的隱狀態 h_i 在加入一個隨機擾動 z_i 之後,經過全連接層和 softmax 之後得到整個詞表中每個詞語的概率分布,我們將這個概率分布作為權重對詞表中所有詞語的 embedding 進行加權求和,從而得到一個當前採樣的詞語的近似向量表示(如圖2中右側綠框所示),並令其作為下一個 generation step 的輸入。同時,此近似向量同樣可以用來拼接組成 fake response 的表示用於 D 的訓練。不難看出,這種對於採樣結果的近似表示操作是連續可導的,並且引入這種近似表示並不改變模型 G 的訓練目標。

我們的一小步

作為生成器和判別器的耦合媒介,AEL 的建立保證了對抗學習框架在面向聊天的 response generation 問題上應用的合理性。為了驗證這種合理性,我們在目前常見的中英文對話數據上對我們的模型進行了驗證,其結果如下表所示:

表格中的 Seq2Seq、MMI-anti 和 Adver-REGS 分別代表經典 encoder-decoder、引入 anti-language model 機制的 S2S 和一種基於強化學習的 GAN 模型架構。我們試圖從生成結果的語義相關性(Relevance)和多樣性(Diversity)兩個方面對比幾個模型,可以看到本文提出的 GAN-AEL 在保證語義相關性的情況下,明顯提高了生成 response 的多樣性。

為了直觀的展現模型在多樣性方面的提升,我們給出了一些實際生成結果的樣例,如下表所示。

我們的模型給出了有關模型的理論細節、評測指標以及baseline方法的具體描述,有興趣的讀者可以持續關注我們放出的論文。

結語

兩個直觀的 idea,開啟了基於深度學習模型的端到端自動聊天系統的研究,引出了對抗學習在聊天回復生成中的曲折探索。誠然,當前最引人關注的模型配上最熱的研究方向,對於任何的研究者來說都具有很強的吸引力,但是,要做到直面關鍵問題,潛心尋找解決問題的途徑,需要的則是務實的鑽研,任何浮躁的心態都有可能讓研究工作最終淪為無聊的灌水。

讓機器自動生成任何 query 的回覆是一個極其困難的問題,因為我們試圖挑戰的是人類的語言能力。挑戰難題的過程就像登山,任何一個新的方法的提出未必代表我們鋪建了通往山頂的路,而是給人們提供了一根登山杖,讓人們走得更遠。

參考文獻

[1] Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. 2014. Sequence to sequence learning with neural networks. In Proceedings of the 27th International Conference on Neural Information Processing Systems, NIPS』14, pages 3104–3112, Cambridge, MA, USA. MIT Press.

[2] Kyunghyun Cho, Bart van Merrienboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. 2014. Learning phrase representations using rnn encoder–decoder for statistical machine translation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 1724– 1734, Doha, Qatar. Association for Computational Linguistics

[3] Baotian Hu, Zhengdong Lu, Hang Li, and Qingcai Chen. 2014. Convolutional neural network architectures for matching natural language sentences. In Advances in Neural Information Processing Systems 27: Annual Conference on Neural Information Processing Systems 2014, pages 2042–2050

[4] Lifeng Shang, Zhengdong Lu, and Hang Li. 2015. Neural responding machine for short-text conversation. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing, pages 1577–1586, Beijing, China. Association for Computational Linguistics.

[5] Alessandro Sordoni, Michel Galley, Michael Auli, Chris Brockett, Yangfeng Ji, Margaret Mitchell, Jian-Yun Nie, Jianfeng Gao, and Bill Dolan. 2015. A neural network approach to context-sensitive generation of conversational responses. In NAACL HLT 2015, pages 196–205

[6] Bowen Wu, Baoxun Wang, and Hui Xue. 2016. Ranking responses oriented to conversational relevance in chat-bots. In COLING 2016, 26th International Conference on Computational Linguistics, Proceedings of the Conference: Technical Papers, December 11-16, 2016, Osaka, Japan, pages 652–662.

[7] Delphine Bernhard and Iryna Gurevych, Combining Lexical Semantic Resources with Question & Answer Archives for Translation-Based Answer Finding

[8] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. 2016a. A diversity-promoting objective function for neural conversation models. In Proceedings of NAACL-HLT, pages 110–119.

[9] Jiwei Li, Michel Galley, Chris Brockett, Georgios P. Spithourakis, Jianfeng Gao, and William B. Dolan. 2016b. A persona-based neural conversation model. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, ACL 2016, August 7-12, 2016, Berlin, Germany.

[10] Xing Chen, Wu Wei, Wu Yu, Liu Jie, Huang Yalou, Zhou Ming, and Ma Wei-Ying. 2017. Topic aware neural response generation. In Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence, February 4-9, 2017, San Francisco, California, USA., pages 3351–3357.

[11] Ian Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio. 2014. Generative adversarial nets. In Advances in neural information processing systems, pages 2672–2680.


AI慕課學院近期推出了《NLP工程師入門實踐班:基於深度學習的自然語言處理》課程!

三大模塊,五大應用,海外博士講師手把手教你入門NLP,更有豐富項目經驗相授;算法+實踐,搭配典型行業應用;隨到隨學,專業社群,講師在線答疑!

課程地址:http://www.mooc.ai/course/427

加入AI慕課學院人工智慧學習交流QQ群:624413030,與AI同行一起交流成長


雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 萬字長文,深度解讀11篇 EMNLP 2017 被錄用論文
    這樣就開啟了生成式對抗網絡(Generative Adversarial Networks, GAN)在生成式聊天問題中的曲折探索。對於文本的生成來說,一個文本樣本的生成必然伴隨 G 在輸出層對詞語的採樣過程,無論這種採樣所遵循的原則是選取最大概率的 greedy思想還是 beam searching,它實際上都引入了離散的操作,這種不可導的過程就像道路上突然出現的斷崖,阻擋了反向傳播的腳步,使對於 G 的對抗訓練無法進行下去。這篇論文就針對文本生成過程中的採樣操作帶來的誤差無法傳導的實際問題提出了解決方案。
  • 解鎖三角獸,語義分析如何成就爆款產品?
    4A 被小米稱為首臺人工智慧語音電視,這背後集聚了三角獸科技的模糊語義理解和問答技術,而這家公司也曾因為向錘子科技 Big Bang 語義識別功能提供底層技術而備受關注。三角獸致力於利用自然語言處理(下簡稱 NLP)、深度學習技術,打造中文聊天對話系統。對話系統是人工智慧的一個子領域,實現人與機器自然交流。「這三四年來,我們發現越來越可以接近這個目標。
  • 深度學習在NLP中的運用?從分詞、詞性到機器翻譯、對話系統
    》中,我們已經講到,2016 年是深度學習大潮衝擊 NLP 的一年,通過去年一年的努力,深度學習在 NLP 領域已經站穩了腳跟。其中,對話交互系統已經成為一個重要的應用研究領域,2017 年的自然語言對話系統,將開創一個新的人機互動時代。
  • UC伯克利拿下EMNLP最佳論文,復旦黃萱菁當選下一屆程序主席
    論文連結:https://www.aclweb.org/anthology/2020.emnlp-main.445.pdf開源連結:https://github.com/dgaddy/silent_speech作者:David Gaddy、Dan Klein(加州大學伯克利分校)論文介紹:在本文中,我們研究了對無聲語音進行數位化語音處理以使其發聲的任務:我們基於捕獲到的肌肉衝動的肌電圖
  • 學界| 斯坦福論文:馬爾可夫鏈的生成對抗式學習 - 機器之心Pro
    機器之心編譯參與:機器之心編輯部論文地址:https://openreview.net/pdf?id=S1L-hCNtl摘要:我們研究了生成對抗的訓練方法來對馬爾可夫鏈(Markov chain)的轉移算子(transition operator)進行學習,目的是將其靜態分布(stationary distribution)和目標數據分布相匹配。我們提出了一種新型的訓練流程,以避免從靜態分布中直接採樣,但是仍然有能力逐漸達到目標分布。
  • 從羅永浩的 BigBang 到華為麒麟 970,三角獸想讓智慧型手機真正地懂你
    提起三角獸,許多人會想起 2016 年 10 月 18 日的錘子 M1/L 發布會。BigBang 和 One Step 等功能的出現,令人印象深刻;而羅永浩在講完這些功能之後,鳴謝的公司中,其中一個就是三角獸。不過那晚的 PPT 出了錯,羅永浩說要登門道歉。「後來老羅真的來了」,在接受雷鋒網專訪時,三角獸 CTO 亓超這麼說。
  • 程式設計師學習人工智慧,生成式對抗網絡(GAN)1,簡介與算法原理
    一、簡介生成式對抗網絡(GAN, Generative Adversarial Networks )是一種深度學習模型,是近年來複雜分布上無監督學習最具前景的方法之一。模型通過框架中(至少)兩個模塊:生成模型(Generative Model)和判別模型(Discriminative Model)的互相博弈學習產生相當好的輸出。原始 GAN 理論中,並不要求 G 和 D 都是神經網絡,只需要是能擬合相應生成和判別的函數即可。但實用中一般均使用深度神經網絡作為 G 和 D 。
  • EMNLP 2018 | 騰訊AI Lab解讀16篇入選論文
    這個工作提出了一種自動構造用於拼寫檢查數據集的方法,分別通過基於 OCR 和 SR 的方法構造視覺上和聽覺上相似的字來模擬錯字。利用本文提出的方法,研究人員構造了一個大規模的數據集用於訓練不同的錯字自動檢查模型,在三個標準的測試集上的實驗結果證明了本文自動構造數據集方法的合理性和有效性。6.
  • 7 Papers & Radios | EMNLP 2020最佳論文;新型優化器AdaBelief
    該研究提出一個基於強化學習的框架,用來學習智能體策略的潛在表示,其中 ego 智能體確定其行為與另一智能體未來策略之間的關係。然後 ego 智能體利用這些潛在動態來影響其他智能體,有目的地指導制定適合共同適應的策略。在多個模擬域和現實世界曲棍球遊戲中,該方法優於其他方法,並學會影響其他智能體。本研究中學習和利用潛在意圖的方法流程圖。
  • 基於生成對抗網絡的三維點雲自動修復
    為了在對點雲形狀修復補全中能保持形狀的精細結構信息,最近研究者提出了一種能夠自動修復補全三維點雲形狀的生成對抗網絡結構。針對形狀缺失的稠密點雲和稀疏點雲數據,該網絡在修復補全形狀缺失部分的同時能有效保持輸入點雲形狀的精細結構信息。《中國科學: 信息科學》在2020年第50卷第5期刊登了這一研究。
  • ACM MM最佳論文全文:通過多對抗訓練,從圖像生成詩歌
    我們定義了與相關性、新穎性和解讀一致性相關的自動評價標準,並對相關性、連貫性和想像力進行了用戶研究,來將生成的詩歌與通過基線方法生成的詩歌進行比較。本研究的成果如下:我們提出以自動方式從圖像生成詩歌(英文自由詩)。就我們所知,這是首個嘗試在整體框架中研究圖像生成英文自由詩歌問題的努力,它使機器在認知工作中能夠具備接近人類的能力。
  • EMNLP 2020即將召開,中國學者最高產:單人9篇主會論文!
    今年9月份,EMNLP 2020 錄取結果出爐:接受論文754篇,接收為Findings論文520篇,被拒論文1840篇,總體接收率為24%。 近日,EMNLP 2020 錄取論文完整列表已在官方放出,據AI科技評論不完全統計,達摩院自然語言智能實驗室邴立東博士,在本年度EMNLP大會上有9篇論文入選正會,成為中國工業界入選論文最多的作者。
  • AAAI 2020 論文解讀:關於生成模型的那些事
    本文介紹的三篇論文就包含了三種生成模型(GNN、RL、VAE,即怎麼生成),同時也介紹了這些生成模型各自當前的應用場景(場景圖生成、序列生成、任務型對話生成,即生成什麼)。機器學習模型的一種分類方式就是將模型分為分類模型和生成模型,GAN 的出現使得生成模型一度大火,GAN 也開始被應用於各個領域,但是生成模型並不只是 GAN。
  • 全球計算機視覺頂會CVPR 2019論文出爐:騰訊優圖25篇論文入選
    本屆大會總共錄取來自全球論文1299篇。中國團隊表現不俗,此次,騰訊公司有超過58篇論文被本屆CVPR大會接收,其中騰訊優圖實驗室25篇、騰訊AI Lab33篇,相比過去兩年成績大幅提升。作為計算機視覺領域級別最高的研究會議,CVPR2019錄取論文代表了計算機視覺領域在2019年最新和最高的科技水平以及未來發展潮流。
  • Survey | 基於生成模型的分子設計
    圖1 三種流行的生成模型的原理圖 (A) 變分自編碼器 (B) 生成對抗網絡 (C) 自回歸模型在生成模型中,變分自動編碼器(VAE)是一種具有魯棒性的體系結構,其通過將數據X映射到隱變量Z的隱式空間上來耦合推理和生成兩個過程。為此,模型需在受隱式空間約束的情況下學習恆等映射,如圖1(A)。數據首先由編碼器編碼為隱變量z的概率分布,並使其逼近預先設定的先驗分布。
  • 生成式對抗網絡GAN的高級議題
    生成對抗網絡(GAN)就是一個幫你實現的新朋友。"GAN是過去10年機器學習中最有趣的想法。" - Facebook AI人工智慧研究總監Yann LeCun最近引入了生成對抗網作為訓練生成模型的新方法,即創建能夠生成數據的模型。它們由兩個"對抗"模式:生成模型G獲得數據和判別模型D來估計訓練數據提供的樣本的準確性。G和D可能是一個非線性映射函數,如多層感知。在生成對抗網絡(GAN)中,我們有兩個神經網絡在零和遊戲中相互對抗,其中第一個網絡,即生成器,其任務是欺騙第二個網絡,即鑑別器。
  • 18個生成對抗網絡(GAN)的絕妙應用!你確定不收藏一下?
    生成模型指在現存樣本的基礎上,使用模型來生成新案例,比如,基於現存的照片集生成一組與其相似卻有細微差異的新照片。GAN是使用兩個神經網絡模型訓練而成的一種生成模型。其中一個稱為「生成器」或「生成網絡」模型,可學習生成新的可用案例。另一個稱為「判別器」或「判別網絡」,可學習判別生成的案例與實際案例。
  • 機器不學習:生成對抗網絡-NIPS 2017對抗樣本攻防賽冠軍算法分享
    第二項是non-target attack,即事先不知道需要攻擊的網絡細節,也不指定預測的類別,生成對抗樣本來欺騙防守方的網絡。最後一項是defense,抵禦前兩個項目的攻擊,即需要將前兩個項目生成的對抗樣本分類到正確的類別上。
  • ICLR 2018最佳論文:基於梯度的元學習算法
    最後 Maruan Al-Shedivat 等研究者提出一種基於梯度的簡單元學習算法,該算法適用於動態變化和對抗性的場景,並獲得顯著高效的適應性智能體。接下來,是機器之心對第三篇論文主要內容的編譯介紹:摘要在非平穩環境中根據有限的經驗連續地學習和適應對於發展通用人工智慧而言至關重要。
  • 「直播預告」ACL 2020百度論文作者與你暢聊頂會論文
    吳華博士曾擔任自然語言處理領域國際會議 ACL 2014年的程序委員會主席,是中國本土企業首位 ACL 程序委員會主席,主要研究領域包括自然語言處理、機器翻譯、人機對話等,研究成果已應用於百度多數產品,其負責的百度翻譯項目翻譯質量處於世界領先水平。「聽大咖講論文」是百度的頂會論文分享系列講座,旨在邀請在各大頂會上發表論文的大咖,與大家交流他們的最新研究工作進展。