陳丹琦新作:關係抽取新SOTA,用pipeline方式挫敗joint模型

2020-12-25 澎湃新聞

機器之心報導

編輯:魔王、小舟

端到端關係抽取涉及兩個子任務:命名實體識別和關係抽取。近期研究多採用 joint 方式建模兩個子任務,而陳丹琦等人新研究提出一種簡單高效的 pipeline 方法,在多個基準上獲得了新的 SOTA 結果。

端到端關係抽取旨在識別命名實體,同時抽取其關係。近期研究大多採取 joint 方式建模這兩項子任務,要麼將二者統一在一個結構化預測網絡中,要麼通過共享表示進行多任務學習。

而近期來自普林斯頓大學的 Zexuan Zhong、陳丹琦介紹了一種非常簡單的方法,並在標準基準(ACE04、ACE05 和 SciERC)上取得了新的 SOTA 成績。該方法基於兩個獨立的預訓練編碼器構建而成,只使用實體模型為關係模型提供輸入特徵。通過一系列精心檢驗,該研究驗證了學習不同的語境表示對實體和關係的重要性,即在關係模型的輸入層融合實體信息,併集成全局語境信息。

此外,該研究還提出了這一方法的高效近似方法,只需要在推斷時對兩個編碼器各執行一次,即可獲得 8-16 倍的加速,同時準確率僅小幅下降。

論文連結:https://arxiv.org/pdf/2010.12812.pdf

pipeline 方法重回巔峰?

從非結構化文本中抽取實體及其關係是信息抽取中的基本問題。這個問題可以分解為兩個子任務:命名實體識別和關係抽取。

早期研究採用 pipeline 方法:訓練一個模型來抽取實體,另一個模型對實體之間的關係進行分類。而近期,端到端關係抽取任務已經成為聯合建模子任務系統的天下。大家普遍認為,這種 joint 模型可以更好地捕獲實體與關係之間的交互,並有助於緩解誤差傳播問題。

然而,這一局面似乎被一項新研究打破。近期,普林斯頓大學 Zexuan Zhong 和陳丹琦提出了一種非常簡單的方法,該方法可以學習基於深度預訓練語言模型構建的兩個編碼器,這兩個模型分別被稱為實體模型和關係模型。它們是獨立訓練的,並且關係模型僅依賴實體模型作為輸入特徵。實體模型基於 span-level 表示而構建,關係模型則建立在給定 span 對的特定語境表示之上。

雖然簡單,但這一 pipeline 模型非常有效:在 3 個標準基準(ACE04、ACE05、SciERC)上,使用相同的預訓練編碼器,該模型優於此前所有的 joint 模型。

為什麼 pipeline 模型能實現如此優秀的性能呢?研究者進行了一系列分析,發現:

實體模型和關係模型的語境表示本質上捕獲了不同的信息,因此共享其表示會損害性能;

在關係模型的輸入層融合實體信息(邊界和類型)至關重要;

在兩個子任務中利用跨句(cross-sentence)信息是有效的;

更強大的預訓練語言模型能夠帶來更多的性能收益。

研究人員希望,這一模型能夠引發人們重新思考聯合訓練在端到端關係抽取中的價值。

不過,該方法存在一個缺陷:需要為每個實體對運行一次關係模型。為了緩解該問題,研究者提出一種新的有效替代方法,在推斷時近似和批量處理不同組實體對的計算。該近似方法可以實現 8-16 倍的加速,而準確率的下降卻很小(例如在 ACE05 上 F1 分數下降了 0.5-0.9%)。這使得該模型可以在實踐中快速準確地應用。

研究貢獻

該研究的主要貢獻有:

提出了一種非常簡單有效的端到端關係抽取方法,該方法學習兩個獨立編碼器,分別用於實體識別和關係抽取的。該模型在三個標準基準上達到了新 SOTA,並在使用相同的預訓練模型的時,性能超越了此前所有 joint 模型。

該研究經過分析得出結論:對於實體和關係而言,相比於聯合學習,學習不同的語境表示更加有效。

為了加快模型推斷速度,該研究提出了一種新穎而有效的近似方法,該方法可實現 8-16 倍的推斷加速,而準確率只有很小的降低。

方法

該研究提出的模型包括一個實體模型和一個關係模型。如下圖所示,首先將輸入句子饋入實體模型,該模型為每一個 span 預測實體類型;然後通過嵌入額外的 marker token 在關係模型中獨立處理每對候選實體,以突出顯示主語、賓語及其類型。

此外,研究者還介紹了該方法與 DYGIE++ 的區別(DYGIE++ 與該方法很接近,並且是最強的基線方法)。

1. 該研究提出的方法對實體模型和關係模型使用不同的編碼器,未使用多任務學習;預測得到的實體標籤直接作為關係模型的輸入特徵。

2. 關係模型中的語境表示特定於每個 span 對。

3. 該方法用額外的語境擴展輸入,從而納入跨句信息。

4. 該方法未使用束搜索或圖傳播層,因此,該模型要簡單得多。

有效的近似方法

該研究提出的方法較為簡潔有效,但是它的缺點是需要對每一個實體對運行一次關係模型。為此,研究者提出一種新型高效的替代性關係模型。核心問題在於,如何對同一個句子中的不同 span 對重用計算,在該研究提出的原始模型中這是不可能實現的,因為必須為每個 span 對分別嵌入特定的實體標記。因此,研究者提出了一種近似模型,該模型對原始模型做了兩個重要更改。

首先,該近似方法沒有選擇直接將實體標記嵌入原始句子,而是將標記的位置嵌入與對應 span 的開始和結束 token 聯繫起來:

其次,近似方法為注意力層添加了約束:使文本 token 只注意文本 token 不注意標記 token,實體標記 token 則可以注意所有文本 token,4 個標記 token 全部與同一個 span 對關聯。

這兩項更改允許模型對所有文本 token 重用計算,因為文本 token 獨立於實體標記 token。因而,該方法可以在運行一次關係模型時批量處理來自同一個句子的多個 span 對。

實驗

研究人員在三個端到端關係抽取數據集 ACE04、ACE054 和 SciERC 上進行方法評估,使用 F1 分數作為評估度量指標。

下表 2 展示了不同方法的對比結果:

從圖中可以看出,該研究提出的 single-sentence 模型實現了強大的性能,而納入跨句語境後,性能結果得到了一致提升。該研究使用的 BERT-base(或 SciBERT)模型獲得了與之前工作類似或更好的結果,包括那些基於更大型預訓練語言模型構建的模型,使用較大編碼器 ALBERT 後性能得到進一步提升。

近似方法的性能

下表展示了完全關係模型和近似模型的 F1 分數與推斷速度。在兩個數據集上,近似模型的推斷速度顯著提升。

這個 pipeline 模型為什麼超過了 joint 模型?

除了展示方法和性能以外,該研究還深入分析了這一 pipeline 模型取得如此優秀性能的原因。

鍵入文本標記(typed text marker)的重要性

該研究認為,為不同 span 對構建不同語境表示非常重要,早期融合實體類型信息可以進一步提升性能。

為了驗證鍵入文本標記的作用,研究者使用其不同變體在 ACE05 和 SciERC 數據集上進行實驗,包括 TEXT、TEXTETYPE、MARKERS、MARKERSETYPE、MARKERSELOSS、TYPEDMARKERS 六種。

下表 4 展示了這些變體的性能,從中可以看出不同的輸入表示確實對關係抽取的準確率產生影響。

實體和關係如何交互

人們對 joint 模型的主要認知是,對兩個子任務之間交互的建模對彼此有所幫助。但這項研究並未採取這種方式,而是使用了兩個獨立的編碼器。

研究人員首先研究了共享兩個表示編碼器能否提升性能。如下表 5 所示,簡單地共享編碼器對實體 F1 和關係 F1 分數均有所損害。研究人員認為,其原因在於兩個任務具備不同的輸入格式,需要不同的特徵來預測實體類型和關係,因此使用單獨的編碼器可以學得更好的任務特定特徵。

該研究的分析結果顯示:

實體信息有助於預測關係,但實驗未表明關係信息可以大幅提升實體性能。

僅共享編碼器對該研究提出的方法無益。

如何緩解 pipeline 方式中的誤差傳播問題

pipeline 訓練的一個主要缺陷是誤差傳播問題。使用 gold 實體(及其類型)進行關係模型訓練,使用預測實體進行推斷,可能會導致訓練和測試之間存在差異。

為此,研究人員首先探究在訓練階段使用預測實體(而非 gold 實體)能否緩解這一問題。該研究採用 10-way jackknifing 方法,結果發現這一策略竟然降低了最終的關係性能。研究人員假設其原因在於訓練階段引入了額外的噪聲。

在目前的 pipeline 方法中,如果在推斷階段 gold 實體沒有被實體模型識別出來,則關係模型無法預測與該實體相關的任何關係。於是,研究人員考慮在訓練和測試階段,對關係模型使用更多 span 對。實驗結果表明,這無法帶來性能提升。

這些常識未能顯著提升性能,而該研究提出的簡單 pipeline 方法卻驚人的有效。研究者認為誤差傳播問題並非不存在或無法被解決,我們需要探索更好的解決方案。

此外,該研究使用的跨句語境對性能提升有所幫助,參見表 2。

11 月 14 日,DevRun 開發者沙龍華為雲即將登陸上海。華為雲技術大咖將帶領開發者玩轉 ModelArts,並解讀華為雲 IoT 服務與 AI 如何實現互通;聚焦華為雲 ModelArts 和 IoT 智能設備,為開發者帶來一場乾貨滿滿的技術盛宴。掃描二維碼,參與報名。

© THE END

轉載請聯繫本公眾號獲得授權

投稿或尋求報導:content@jiqizhixin.com喜歡此內容的人還喜歡

原標題:《陳丹琦新作:關係抽取新SOTA,用pipeline方式挫敗joint模型》

閱讀原文

相關焦點

  • 一種簡單高效的pipeline方法,在多個基準上獲得了新的SOTA結果
    近期研究多採用 joint 方式建模兩個子任務,而陳丹琦等人新研究提出一種簡單高效的 pipeline 方法,在多個基準上獲得了新的 SOTA 結果。 端到端關係抽取旨在識別命名實體,同時抽取其關係。近期研究大多採取 joint 方式建模這兩項子任務,要麼將二者統一在一個結構化預測網絡中,要麼通過共享表示進行多任務學習。
  • 7 Papers & Radios | 陳丹琦關係抽取新SOTA;上海交大醫療版MNIST...
    機器之心 & ArXiv Weekly Radiostation參與:杜偉、楚航、羅若天本周的重要論文包括上海交大發布的醫療版 MNIST 數據集,以及陳丹琦在關係抽取方面的新探索。
  • NLP:關係抽取到底在乎什麼
    2、構建了關係預訓練模型,基於關係抽取的實體遮蔽的對比學習框架: 能幫助模型更好地的藉助上下文信息和實體類型信息,避免「死記硬背」實體表面表述; 提高了多個場景下神經關係抽取模型的有效性和魯棒性,特別是在低資源場景下; Q1: 關係抽取為什麼主要利用「上下文信息」和「實體信息」?
  • 關係抽取調研——學術界
    但該方法現如今難以尋找有效新特徵,性能提升較為有限。 2.2.1.2. 基於核函數的方法 針對特徵提取具有的局限性,便有研究者另闢蹊徑,使用核函數的方法進行關係抽取。基於核函數的方法無需人為構造顯性特徵,而是以輸入文本實例的字符串或者是句法分析樹結構作為輸入,通過計算任意兩個輸入對象間的核相似度函數來訓練分類模型。
  • 知識圖譜從哪裡來:實體關係抽取的現狀與未來
    如何提高深度模型的學習能力,實現」舉一反三「,是關係抽取需要解決的問題。複雜語境問題:現有模型主要從單個句子中抽取實體間關係,要求句子必須同時包含兩個實體。實際上,大量的實體間關係往往表現在一篇文檔的多個句子中,甚至在多個文檔中。如何在更複雜的語境下進行關係抽取,也是關係抽取面臨的問題。
  • 性能超越圖神經網絡,將標籤傳遞和簡單模型結合實現SOTA
    這些模型已經取得了很大的成功,並且在開放的圖基準排行榜上名列前茅。通常,GNN的方法主要是圍繞著創建比基本結構更具表現力的體系結構,如圖卷積網絡(GCN)或GraphSAGE;例子如圖注意力網絡,圖同構網絡和各種深層模型。許多新GNN架構的想法都是從語言(例如注意力)或視覺(例如深層CNN)模型中的新架構改編而來的,希望能成功轉化為圖形。
  • Yann LeCun新作:473種模型大對比,中日韓文本分類到底要用哪種編碼?
    例如最近有人使用字符級編碼的神經網絡(ConvNets)來處理語言中的單詞分割問題,但是很不幸的是,用字符來處理CJK語言並不很好,因為這時候字符的數量會變得非常巨大。所以能否找到一種在處理所有這些自然語言上都表現優良的模型呢?作者的方法就是,列出一系列模型(473個), 然後比較它們的表現。
  • 從IOI 競賽走出的黃金一代:王小川、樓天城、鬲融、陳丹琦、胡偉棟...
    高中時期,王小川所在 1990 數學綜合實驗班與中科院合作研究用計算機證明幾何定理,在中科院院士張景中的指導下,王小川用「吳文俊方法」做機器證明,首次實現了在計算機上求解初等幾何的全部題目,獲得楊振寧頒發的「伊利達青少年發明獎」。王小川給視察成都七中的李嵐清演示在微型機下完成初等幾何命題的全部證明。
  • pipeline什麼意思
    pipeline什麼意思pipe,管子、管道,管中有液體或氣體,能夠從一個地方流到另一個地方。你知道鍵盤上的這個符號:| 英文就是pipe嗎?linespipeline,一根非常長的管道,管中有液體或氣體,可以傳輸很遠的距離,而且這根管道通常鋪設在地下。
  • 如何通過抽樣分布估計你的模型的不確定性
    如果條件允許擁有一個大的的數據集來進行研究是非常好的情況,然而更多的時候,你將獲得一個小的數據集來構建一個基線模型,然後,隨著時間的推移,你將收集更多的數據,重新訓練你的模型,並改進它。這種情況在加入一家傳統上不是「數據驅動」,而是剛剛開始發現數據科學能為他們做什麼的公司時很常見。
  • 助你成為模型的設計高手:目標-抽取本質-概念-內涵-定義-模型!
    任何一個模型,都是要對複雜的一類事物進行簡化,從複雜的一類事物之中抽取出本質屬性,用這個本質屬性來指代這類事物,這樣子才能從複雜走向簡單。抓住事物的本質特徵,捨棄掉次要的非本質特徵,才能達到簡單。從一類事物之中抽取出關鍵的本質特徵,捨棄掉次要的特徵,以達到對一類事物的共同抽象。模型可以用來指代一類事物,模型是用來處理一類事物,一類事物是一個集合,具有共同本質特徵的許許多多具體的事物組成的一類事物。模型具有抽象性,通過抽象而達成一定範圍的普遍性。
  • 用Spark-NLP建立文本分類模型
    我們還可以在這個管道中包含一個機器學習模型。# 在訓練數據上擬合管道pipeline_model = nlp_pipeline.fit(trainingData)6.執行預測一旦訓練完成,我們就可以預測測試數據上的類標籤。# 對測試數據進行預測predictions = pipeline_model.transform(testData)7.
  • 簡述基於神經網絡的抽取式摘要方法
    2.4.1 句子排序結合新的打分方式 之前的模型都是在得到句子的表示以後對於句子進行打分,這就造成了打分與選擇是分離的,先打分,後根據得分進行選擇。沒有利用到句子之間的關係。在 ACL18 中,Zhou 等人[15]提出了一種新的打分方式,使用句子受益作為打分方式,考慮到了句子之間的相互關係。其模型 NeuSUM 如圖 3所示。
  • 推薦:二代測序數據常用的4種pipeline淺談
    下面就介紹下目前用於二代數據分析常用的pipeline:1. Mothur (http://www.mothur.org/)由密西根大學(University of Michigan) 的Dr. Patrick Schloss領銜的團隊開發的,其團隊還開發有DOTUR和SONS軟體。
  • 模型教程2 | 模型樹的幾種打開方式
    將彩色卡紙剪成大小不同的碎片,用大頭針互相搭配著串起來,這種方式下還可以通過不同顏色卡紙的搭配做出漸變的植物層次,與小比例純白模型相配,效果很和諧。硫酸紙剪成不同半徑的圓形,微微揉皺,用大頭針串入扎到基地裡,非常簡單的方式,硫酸紙微微發皺的質感配合光影,為瓦楞紙製作的建築草模添加了一分意境。單純以大頭針扎進基地進行排列也是一種不錯的選擇,既省時省力。
  • Joint Venture(JV)合營公司
    Definition of joint venture A joint venture is a business agreement in which the parties agree to develop for a finite time, a new entity and new assets
  • Unroll & Pipeline | 細粒度並行優化的完美循環
    HLS 優化設計的最關鍵指令有兩個:一個是流水線 (pipeline) 指令,一個是數據流(dataflow) 指令。正確地使用好這兩個指令能夠增強算法地並行性,提升吞吐量,降低延遲但是需要遵循一定的代碼風格。