【復旦大學】最新《預訓練語言模型》2020綜述論文大全,50+PTMs分類體系,25頁pdf205篇參考文獻

2021-02-20 機器學習算法與自然語言處理

來源 | 專知

【導讀】預訓練語言模型Pre-trained Models是當前自然語言處理以及其他應用的研究熱點,在眾多任務中取得SOTA性能。近日,復旦大學邱錫鵬等學者發布了自然語言處理處理中預訓練模型PTMs的綜述大全,共25頁pdf205篇參考文獻,從背景知識到當前代表性PTM模型和應用研究挑戰等,是絕好的預訓練語言模型的文獻。

近年來,預訓練模型(PTMs)的出現將自然語言處理(NLP)帶入了一個新的時代。在這項綜述中,我們提供了一個全面的PTMs調研首先簡要介紹了語言表示學習及其研究進展。然後,我們根據四種觀點對現有的PTMs進行了系統的分類。接下來,我們將描述如何將PTMs的知識應用於下遊任務。最後,我們概述了未來PTMs研究的一些潛在方向。本調查旨在為理解、使用和開發各種NLP任務的PTMs提供實際指導。

地址:

https://www.zhuanzhi.ai/paper/09d78eda59ebfb6f51a54a3ba0a4c4b1

1. 概述


隨著深度學習的發展,各種神經網絡被廣泛用於解決自然語言處理(NLP)任務,如卷積神經網絡(convolutional neural networks, CNNs)[75,80,45]、遞歸神經網絡(neural networks, RNNs)[160, 100]、基於圖的神經網絡(graphbased neural network, GNNs)[146, 161, 111]和注意力機制[6,171]等。這些神經模型的優點之一是能夠緩解特徵工程問題。非神經NLP方法通常嚴重依賴於離散的手工特徵,而神經方法通常使用低維和稠密的向量(又稱分布式表示)隱式地表示語言的語法或語義特徵。這些表示是在特定的NLP任務中學習的。因此,神經方法使人們可以很容易地開發各種NLP系統。

儘管神經模型在NLP任務中取得了成功,但與計算機視覺(CV)領域相比,性能改進可能不那麼顯著。主要原因是,當前用於大多數監督的NLP任務的數據集相當小(機器翻譯除外)。深度神經網絡通常具有大量的參數,使其對這些小的訓練數據過度擬合,在實際應用中泛化效果不佳。因此,許多NLP任務的早期神經模型相對較淺,通常只包含1 ~ 3個神經層。

最近大量的工作表明,在大型語料庫上的預訓練模型(PTMs)可以學習通用語言表示,這對後續的NLP任務是有益的,可以避免從零開始訓練新模型。隨著計算能力的發展,深層模型(即隨著訓練技能的不斷提高,PTMs的體系結構由淺向深推進。第一代PTM的目標是學習好的詞嵌入。由於下遊任務不再需要這些模型本身,它們在計算效率方面通常非常膚淺,如Skip-Gram[116]和GloVe[120]。雖然這些預訓練的嵌入可以捕獲單詞的語義含義,但它們是上下文無關的,不能捕獲文本的高級概念,如語法結構、語義角色、回指等。第二代PTMs主要學習上下文詞嵌入,如CoVe[113]、ELMo[122]、OpenAI GPT[130]、BERT[32]等。這些學習過的編碼器仍然需要在上下文中通過下遊任務來表示單詞。此外,還提出了各種預訓練的任務,以學習PTMs的不同目的。

這篇綜述的貢獻可以總結如下:

1. 全面調研。我們為NLP提供了PTMs的全面回顧,包括背景知識、模型架構、預訓練任務、各種擴展、適應方法和應用。給出了典型模型的詳細描述,進行了必要的比較,總結了相應的算法。

2. 新分類法。我們提出了一種基於自然語言處理的PTMs分類方法,該方法從四個不同的角度對現有的PTMs進行了分類:1)單詞表示的類型;2) PTMs架構;3)培訓前的任務類型;4)特定類型場景或輸入的擴展。

3.資源豐富。我們在PTMs上收集了豐富的資源,包括開源系統、論文列表等。

4. 未來的發展方向。我們討論並分析了現有PTMs的局限性。並提出未來可能的研究方向。

綜述的其餘部分組織如下。第2節概述了PTMs的背景概念和常用符號。第3節簡要概述了PTMs,並澄清了PTMs的分類。第4節提供了PTMs的擴展。第5節討論如何將PTMs的知識遷移到下遊任務。第6節給出了PTMs的相關資源,包括開源系統、論文列表等。第7節介紹了跨各種NLP任務的應用程式集合。第8節討論了當前的挑戰並提出了未來的方向。第9節對本文進行了總結。

2. 背景

2.1 語言表示學習

分布式表示的核心思想是用低維實值向量來描述文本的意義。而向量的每一個維度都沒有對應的意義,而整體則代表一個具體的概念。圖1說明了NLP的通用神經體系結構。詞嵌入有兩種:非上下文嵌入和上下文嵌入。它們之間的區別是,一個詞的嵌入是否根據它出現的上下文動態變化。

2.2 神經上下文編碼器


大部分的神經上下文編碼器可以分為三類:卷積模型、序列模型和基於圖的模型。圖2說明了這些模型的體系結構。

(1) 卷積模型。卷積模型採用單詞在輸入句中的嵌入,通過卷積運算將相鄰詞的局部信息聚合起來,從而獲取單詞的意義[80]。卷積模型通常易於訓練,能夠捕獲局部上下文信息。

(2 )序列模型。序列模型通常採用rns(如LSTM[60]和GRU[21])來捕獲單詞的上下文表示。在實踐中,雙向RNNs被用來收集單詞兩邊的信息,但其性能往往受到長期依賴問題的影響。

(3) 基於圖模型。與上述模型不同的是,基於圖的模型以單詞為節點,學習單詞之間具有預定義語言結構的上下文表示,如句法結構[146,161]或語義關係[111]。

2.3 為什麼要預訓練?


隨著深度學習的發展,模型參數的數量迅速增加。需要更大的數據集來充分訓練模型參數並防止過度擬合。然而,對於大多數NLP任務來說,構建大規模的標記數據集是一個巨大的挑戰,因為注釋成本非常昂貴,特別是對於語法和語義相關的任務。

相比之下,大規模的未標記語料庫相對容易構建。為了利用巨大的未標記文本數據,我們可以首先從它們那裡學習良好的表示,然後將這些表示用於其他任務。最近的研究表明,藉助從大型無注釋語料庫的PTMs中提取的表示,許多NLP任務的性能都有顯著提高。

預訓練的好處可以總結如下:

在大型文本語料庫上的預訓練可以學習通用語言表示並幫助完成後續任務。

預訓練提供了更好的模型初始化,這通常會帶來更好的泛化性能,並加速對目標任務的收斂。

預訓練可以看作是一種正則化,以避免小數據[39]的過擬合。


3. 預訓練語言模型分類

為了明確現有PTMs與NLP之間的關係,我們構建了PTMs的分類法,該分類法從不同的角度對現有PTMs進行了分類: (1) PTMs使用的單詞表示類型,(2) PTMs使用的主幹網絡,(3) PTMs使用的預訓練任務類型,(4) 為特定類型的場景或輸入設計的PTMs。圖6顯示了分類以及一些相應的代表性PTMs。

此外,表1詳細區分了一些有代表性的PTMs。

4. 預訓練語言模型擴展

4.1 知識增強的PTMs


PTMs通常從通用的大型文本語料庫中學習通用語言表示,但缺乏領域特定的知識。將來自外部知識庫的領域知識整合到PTM中已被證明是有效的。外部知識範圍從語言學[87,78,123,178],語義[92],常識[48],事實[199,123,101,188,182],到具體領域的知識[54]。

4.2 多模態PTMS

由於PTMs在許多NLP任務上的成功,一些研究集中在獲得PTMs的跨模態版本上。這些模型中的絕大多數是為一般的視覺和語言特徵編碼而設計的。這些模型是在一些巨大的跨模態數據語料庫上進行預訓練的,例如帶有口語單詞的視頻或帶有字幕的圖像,結合擴展的預訓練任務來充分利用多模態特徵。VideoBERT[152]和CBT[151]是視頻和文本的聯合模型。為了獲得用於預訓練的視覺和語言標記序列,視頻分別由基於cnn的編碼器和現成的語音識別技術進行預處理。在處理後的數據上訓練一個變壓器編碼器,以學習下遊任務(如視頻字幕)的視覺語言表示。此外,UniViLM[109]提出引入生成任務來進一步預訓練下遊任務中使用的解碼器。

4.3 模型壓縮


5. 下遊任務應用

6. PTM資源


7. 應用


應用基準、機器翻譯、問答、情感分析、摘要、命名實體識別

8. 未來方向


(1) PTMs的上界


目前,PTMs還沒有達到其上限。現有的PTMs大多可以通過更多的訓練步驟和更大的語料庫來進一步完善。

通過增加模型的深度可以進一步提高NLP的技術水平,如Megatron-LM[144](83億個參數,72個隱藏尺寸為3072和32個注意頭的變壓器層)和Turing-NLG(170億個參數,78個隱藏尺寸為4256和28個注意頭的Transformer層)。

通用型PTM一直是我們學習語言固有的通用知識(甚至是世界知識)的追求,但此類PTM通常需要更深入的體系結構、更大的語料庫和更具挑戰性的訓練前任務,這又進一步導致了更高的訓練成本。然而,訓練大模型也是一個具有挑戰性的問題,需要更複雜、更高效的訓練技術,如分布式訓練、混合精度、梯度積累等。因此,更實際的方向是使用現有的硬體和軟體設計更有效的模型架構、自我監督的訓練前任務、優化器和訓練技能。ELECTRA[22]是這個方向的一個很好的解決方案。


(2) 面向任務的預訓練和模型壓縮


在實踐中,不同的下遊任務需要不同的PTMs能力。PTMs與下遊任務之間的差異通常表現在兩個方面:模型體系結構和數據分布。較大的差異可能導致PTMs的益處可能不明顯。儘管較大的PTM通常可以帶來更好的性能,但一個實際問題是如何在特殊場景(如低容量設備和低延遲應用程式)中利用這些巨大的PTM。因此,我們可以為下遊任務精心設計特定的模型架構和預訓練任務,或者從現有的PTMs中提取部分特定於任務的知識。

此外,我們可以通過使用模型壓縮等技術,用通用的現有PTM來教他們,而不是從頭開始訓練面向任務的ptm(參見4.3節)。雖然在CV[17]中,針對CNNs的模型壓縮已經得到了廣泛的研究,但針對NLP的PTMs的模型壓縮才剛剛開始。Transformer 的全連接結構也使模型壓縮更具挑戰性。

(3) PTMs架構


Transformer已被證明是一種有效的預訓練體系結構。然而,Transformer 的主要限制是它的計算複雜度,它是輸入長度的平方。由於GPU內存的限制,目前大多數PTM不能處理512個標記以上的序列。打破這一限制需要改進Transformer的架構,比如Transformer- xl[27]。因此,為PTMs搜索更有效的模型體系結構對於捕獲更長期的上下文信息非常重要。

深度架構的設計具有挑戰性,我們可以從一些自動化方法中尋求幫助,如神經架構搜索(neural architecture search, NAS)[205]。

(4)超越微調的知識遷移


目前,將PTMs的知識傳遞給下遊任務的主要方法是微調,但其缺點是參數效率低下:每個下遊任務都有自己的微調參數。一種改進的解決方案是對原有PTMs的參數進行修正,並為特定的任務添加小的可調自適應模塊[149,61]。因此,我們可以使用一個共享的PTM來服務多個下遊任務。事實上,從PTMs中挖掘知識可以更加靈活,如特徵提取、知識提取[195]、數據擴充[185,84],利用PTMs作為外部知識[125]等。期望有更有效的方法。

(5) PTMs的可解釋性和可靠性

雖然PTM的性能令人印象深刻,但其深層的非線性架構使得決策過程高度不透明。

近年來,可解釋人工智慧[4]已經成為人工智慧領域的一個研究熱點。與用於圖像的CNN不同,由於Transformer的架構和語言的複雜性,解釋PTMs更加困難。人們做了大量的工作(見3.3節)來分析PTMs中包含的語言和世界知識,這有助於我們以某種程度的透明性理解這些PMTs。然而,許多模型分析工作依賴於注意力機制,注意力對可解釋性的有效性仍存在爭議[66,142]。

此外,隨著PTMs在生產系統中的廣泛應用,PTMs的可靠性也成為一個備受關注的問題。深層神經模型容易受到對抗性樣本的影響,這些例子可能會誤導模型,使其產生一個特定的錯誤預測,而這種預測會受到來自原始輸入的難以察覺的幹擾。在CV中,對抗性攻擊和防禦被廣泛研究。然而,由於語言的離散性,文本仍然面臨著挑戰。為文本生成對抗性樣本需要具備以下品質:(1)不易被人類法官察覺,但容易被神經模型誤導;(2)語法流利,語義與原輸入一致。Jin等人[71]用對抗性的例子成功地在文本分類和文本蘊涵方面攻擊了經過微調的BERT。Wallace等人[175]定義了通用的對抗觸發器,當將模型連接到任何輸入時,該觸發器可以誘導模型產生特定目的的預測。有些觸發器甚至會導致GPT-2模型生成帶有種族主義色彩的文本。對PTM進行對抗性攻擊的研究有助於我們了解它們的能力,從而充分暴露它們的弱點。Sun等人[155]的研究表明,BERT對拼寫錯誤並不敏感。此外,針對PTMs的對抗防禦也很有前途,它提高了PTMs的魯棒性,使其對對抗攻擊免疫。

總的來說,作為許多NLP應用中的關鍵組件,PTMs的可解釋性和可靠性在很多方面還有待進一步的探索,這有助於我們理解PTMs是如何工作的,並為更好的使用和進一步的改進提供指導。



參考文獻:

Akbik et al. [2018] Alan Akbik, Duncan Blythe, and Roland Vollgraf. Contextual string embeddings for sequence labeling. In COLING, pages 1638–1649, 2018.

Alberti et al. [2019] Chris Alberti, Jeffrey Ling, Michael Collins, and David Reitter. Fusion of detected objects in text for visual question answering. In EMNLP-IJCNLP, pages 2131–2140, 2019.

Alsentzer et al. [2019] Emily Alsentzer, John R. Murphy, Willie Boag, Wei-Hung Weng, Di Jin, Tristan Naumann, and Matthew B. A. McDermott. Publicly available clinical BERT embeddings. arXiv preprint arXiv:1904.03323, 2019.

Arrieta et al. [2020] Alejandro Barredo Arrieta, Natalia Díaz-Rodríguez, Javier Del Ser, Adrien Bennetot, Siham Tabik, Alberto Barbado, Salvador García, Sergio Gil-López, Daniel Molina, Richard Benjamins, et al. Explainable artificial intelligence (xai): Concepts, taxonomies, opportunities and challenges toward responsible ai. Information Fusion, 58:82–115, 2020.

Baevski et al. [2019] Alexei Baevski, Sergey Edunov, Yinhan Liu, Luke Zettlemoyer, and Michael Auli.Cloze-driven pretraining of self-attention networks. In Kentaro Inui, Jing Jiang, Vincent Ng, and Xiaojun Wan, editors, EMNLP-IJCNLP, pages 5359–5368, 2019.

重磅!憶臻自然語言處理-學術微信交流群已成立

可以掃描下方二維碼,小助手將會邀請您入群交流,

注意:請大家添加時修改備註為 [學校/公司 + 姓名 + 方向]

例如 —— 哈工大+張三+對話系統。

號主,微商請自覺繞道。謝謝!

推薦閱讀:

全連接的圖卷積網絡(GCN)和self-attention這些機制的區別與聯繫

圖卷積網絡(GCN)新手村完全指南

論文賞析[ACL18]基於Self-Attentive的成分句法分析

相關焦點

  • PTMs|2020最新NLP預訓練模型綜述
    提出了一種預訓練模型的分類體系,通過四種分類維度來劃分目前已有的預訓練模型。這些分類方式是交叉的,也就是說同一個模型可以劃分到多個分類體系下。先一睹為快,這幅圖是該綜述的精華之一。下面將圍繞上述4種分類體系來介紹預訓練任務的工作。
  • 阿里達摩院自動駕駛新成果;邱錫鵬預訓練模型論文綜述
    機器之心&ArXiv Weekly Radiostation 參與:杜偉,楚航,羅若天 本周的重要論文有阿里達摩院在自動駕駛領域的新成果,以及復旦大學邱錫鵬教授發表的預訓練模型綜述論文
  • 復旦邱錫鵬超全NLP預訓練模型綜述論文:兩張圖帶你梳理完整脈絡
    機器之心報導 機器之心編輯部 超全預訓練語言模型概覽,入門學習、搭建知識體系、找文獻資料、找資原始碼,這裡有 NLP 預訓練模型的方方面面。
  • 復旦邱錫鵬教授:2020最新NLP預訓練模型綜述
    新智元報導編輯:SF【新智元導讀】本文該綜述系統地介紹了nlp中的預訓練模型,深入盤點了目前主流的預訓練模型,提出了一種預訓練模型的分類體系。本篇文章主要介紹邱錫鵬老師在2020年發表的一篇預訓練模型的綜述:「Pre-trained Models for Natural Language Processing: A survey」。該綜述系統地介紹了nlp中的預訓練模型。主要的貢獻包括:1、深入盤點了目前主流的預訓練模型,如word2vec,ELMo,BERT等。
  • 7 Papers & Radios | 阿里達摩院自動駕駛新成果;邱錫鵬預訓練模型...
    機器之心機器之心&ArXiv Weekly Radiostation參與:杜偉,楚航,羅若天本周的重要論文有阿里達摩院在自動駕駛領域的新成果,以及復旦大學邱錫鵬教授發表的預訓練模型綜述論文。
  • 清華大學張長水等最新《少樣本學習FSL》2020綜述論文,30頁pdf414篇參考文獻
    在此背景下,我們廣泛回顧了2000年至2019年FSL的200多篇論文,為FSL提供了及時而全面的調研。在本綜述中,我們回顧了FSL的發展歷史和目前的進展,原則上將FSL方法分為基於生成模型和基於判別模型的兩大類,並特別強調了基於元學習的FSL方法。我們還總結了FSL中最近出現的幾個擴展主題,並回顧了這些主題的最新進展。
  • UC伯克利拿下EMNLP最佳論文,復旦黃萱菁當選下一屆程序主席
    復旦大學計算機科學學院教授黃萱菁將出任下一屆大會的程序主席。除此之外,比較遺憾的是,今年的最佳短論文暫未頒發。作為國際語言學會(ACL)下屬的 SIGDAT 小組主辦的自然語言處理領域的頂級國際會議。:模型體系架構和模型預訓練的發展推動了自然語言處理的最新進展。
  • 最新《知識蒸餾》2020綜述論文,30頁pdf,雪梨大學
    來自雪梨大學的學者發布了《知識蒸餾》的綜述論文,值的關注。https://arxiv.org/abs/2006.05525近年來,深度神經網絡在工業和學術界取得了巨大的成功,特別是在視覺識別和神經語言處理方面的應用。深度學習的巨大成功,主要歸功於其巨大的可擴展性,既有大規模的數據樣本,也有數十億的模型參數。
  • [預訓練語言模型專題] BERT,開啟NLP新時代的王者
    前期回顧:[萌芽時代]、[風起雲湧]、[文本分類通用技巧] 、[GPT家族]感謝清華大學自然語言處理實驗室對預訓練語言模型架構的梳理,我們將沿此脈絡前行,探索預訓練語言模型的前沿技術,紅色框為前期腳印,綠色框為本期介紹,歡迎大家留言討論交流。
  • 顏水成、黃亮等新論文;目標檢測最新SOTA;NLP全面綜述
    這篇來自北大和紐約大學石溪分校的論文說明,整合多個主幹網絡便能刷新最佳效果。字符級嵌入甚至更加準確,其中在所有預訓練方法中,ELMo 的數字捕捉能力最強大,而使用字詞單元的 BERT 模型準確性不如 ELMo。
  • 這篇綜述文章用166篇參考文獻告訴你答案
    來自港科大和第四範式的這篇綜述論文提供了解答。數據是機器學習領域的重要資源,在數據缺少的情況下如何訓練模型呢?小樣本學習是其中一個解決方案。來自香港科技大學和第四範式的研究人員綜述了該領域的研究發展,並提出了未來的研究方向。
  • 今日論文|概念感知:將常識嵌入預訓練語言模型&上下文線索推斷視頻物體因果關係&新條件熵LiDAR數據壓縮&中文分詞綜述&MORE
    其中包含計算機視覺論文27篇[1-27],自然語言處理論文23篇[28-50],方法論論文21篇[63-83],神經網絡原理論文9篇[84-92],語音技術論文6篇[105-110],知識圖譜論文4篇[111-114],強化學習論文6篇[115-120],推薦系統論文2篇[121-122],醫療與健康論文8篇[123-130],應用論文3篇[131-133],點擊文末閱讀原文即可下載。
  • 今日論文|上下文動態知識增強預訓練語言模型&DialoGLUE域遷移對話新基準&聯合實體集擴展和同義詞發現&圖主題模型&MORE
    其中包含計算機視覺論文13篇[1-13],自然語言處理論文17篇[14-30],方法論論文7篇[32-38],神經網絡原理論文6篇[39-44],語音技術論文1篇[49],知識圖譜論文1篇[50],強化學習論文4篇[51-54],推薦系統論文2篇[55-56],醫療與健康論文1篇[57],應用論文3篇[58-60],點擊文末閱讀原文即可下載。
  • 今日論文|26億參數生成式中文預訓練語言模型CPM&互信息無/半監督並行學習&ISWC語義答案類型預測任務&元嵌入學習&MORE
    其中包含計算機視覺論文14篇[1-14],自然語言處理論文7篇[15-21],方法論論文8篇[31-38],神經網絡原理論文3篇[39-41],語音技術論文2篇[45-46],知識圖譜論文1篇[47],強化學習論文1篇[48],推薦系統論文3篇[49-51],醫療與健康論文1篇[52],應用論文2篇[53-54],點擊文末閱讀原文即可下載。
  • 基於飛槳PaddlePaddle的多種圖像分類預訓練模型強勢發布
    目前,已開源10種不同網絡結構,25個預訓練模型,包括當前效果最優的ResNet50(top-1:79.84%),助力用戶提高構建模型的效率,大大減輕「煉丹」的煩惱。當前飛槳分類模型庫提供了MobileNetV1和MobileNetV2的預訓練模型(1x),其精度指標都高於論文指標,其他大小的預訓練模型將在不久後開源。
  • 香港理工最新GAN綜述論文;小鵬汽車判別式多模態語音識別
    機器之心機器之心 & ArXiv Weekly Radiostation參與:杜偉、楚航、羅若天本周的重要論文包括香港理工大學的最新GAN綜述論文以及小鵬汽車提出的判別式多模態語音識別模型。
  • 論文寫作之如何搞定文獻綜述
    文獻綜述反映當前某一領域中某分支學科或重要專題的歷史現狀、最新進展、學術見解和建議,它往往能反映出有關問題的新動態、新趨勢、新水平、新原理和新技術等等。文獻綜述是針對某一研究領域分析和描述前人已經做了哪些工作,進展到何程度,要求對國內外相關研究的動態、前沿性問題做出較詳細的綜述,並提供參考文獻。作者一般不在其中發表個人見解和建議,也不做任何評論,只是客觀概括地反映事實。
  • 中文ELECTRA預訓練模型再升級
    在今年3月,哈工大訊飛聯合實驗室推出了中文ELECTRA預訓練模型,並將相關資源進行開源,目前在GitHub上已獲得580個star。本次更新中,我們將預訓練語料從原有的約20G提升至180G,利用接近9倍大小的數據集。
  • 文本分類綜述 | 邁向NLP大師的第一步(上)
    (文末 下期預告 別錯過)綜述內涉及的所有文本分類必讀論文清單,我們已經為大家整理打包好啦,訂閱號後臺回復『文本分類』即可獲取喔~文本分類綜述A Survey on Text Classification: From Shallow to Deep Learning,2020[1]文本分類是自然語言處理中最基本,也是最重要的任務
  • [預訓練語言模型專題] MT-DNN(KD) : 預訓練、多任務、知識蒸餾的結合
    感謝清華大學自然語言處理實驗室對預訓練語言模型架構的梳理,我們將沿此脈絡前行,探索預訓練語言模型的前沿技術,紅框中為已介紹的文章,綠框中為本期介紹的文章,歡迎大家留言討論交流。眾所周知,語言模型預訓練方法和多任務學習策略都是提高模型性能的重要手段,本文就結合了兩者的優點,提出了MT-DNN的方案,並在GLUE上的八個NLU任務上超越了之前的state-of-art模型。首先,MT-DNN考慮了四種類型的NLU任務,分別是單句文本分類(CoLA, SST-2),文本對的分類(RTE,MNLI,QQP,MRPC),文本相似度度量(STS-B),相關度排序(QNLI)。