知識圖譜從哪裡來:實體關係抽取的現狀與未來

2020-12-11 澎湃新聞

課題組高天宇同學等人工作 [32] 則從另一個角度出發,對於開放域的特定新型關係,只需要提供少量精確的實例作為種子,就可以利用預訓練的關係孿生網絡進行滾雪球(Neural SnowBall),從大量無標註文本中歸納出該新型關係的更多實例,不斷迭代訓練出適用於新型關係的關係抽取模型。

總結來說,開放域關係抽取在前深度學習時代取得了一些成效,但如何在深度學習時代與神經網絡模型優勢相結合,有力拓展神經網絡關係抽取模型的泛化能力,值得更多深入探索。

總結

為了更及時地擴展知識圖譜,自動從海量數據中獲取新的世界知識已成為必由之路。以實體關係抽取為代表的知識獲取技術已經取得了一些成果,特別是近年來深度學習模型極大地推動了關係抽取的發展。但是,與實際場景的關係抽取複雜挑戰的需求相比,現有技術仍有較大的局限性。我們亟需從實際場景需求出發,解決訓練數據獲取、少次學習能力、複雜文本語境、開放關係建模等挑戰問題,建立有效而魯棒的關係抽取系統,這也是實體關係抽取任務需要繼續努力的方向。

我們課題組從 2016 年開始耕耘實體關係抽取任務,先後有林衍凱、韓旭、姚遠、曾文遠、張正彥、朱昊、於鵬飛、於志竟成、高天宇、王曉智、吳睿東等同學在多方面開展了研究工作。去年在韓旭和高天宇等同學的努力下,發布了 OpenNRE 工具包 [33],經過近兩年來的不斷改進,涵蓋有監督關係抽取、遠程監督關係抽取、少次學習關係抽取和文檔級關係抽取等豐富場景。此外,也花費大量科研經費標註了 FewRel(1.0 和 2.0)和 DocRED 等數據集,旨在推動相關方向的研究。

本文總結了我們對實體關係抽取現狀、挑戰和未來發展方向的認識,以及我們在這些方面做出的努力,希望能夠引起大家的興趣,對大家有些幫助。期待更多學者和同學加入到這個領域研究中來。當然,本文沒有提及一個重要挑戰,即以事件抽取為代表的複雜結構的知識獲取,未來有機會我們再專文探討。

限於個人水平,難免有偏頗舛誤之處,還請大家在評論中不吝指出,我們努力改進。需要說明的是,我們沒想把這篇文章寫成嚴謹的學術論文,所以沒有面面俱到把每個方向的所有工作都介紹清楚,如有重要遺漏,還請批評指正。

廣告時間

我們課題組在實體關係抽取方面開展的多項工作(如 FewRel、DocRED 等)是與騰訊微信模式識別中心團隊合作完成的。微信模式識別中心是微信 AI(WeChat AI)下轄的中心之一,主要關注自然語言處理相關的研究和產品。研究方面,他們的研究工作涵蓋對話系統、知識學習、認知推理、機器翻譯等多個方向,今年在 ACL、EMNLP、AAAI 等會議上發表論文 20 多篇,也在多個比賽中獲得優異成績,學術成果頗豐。產品方面,他們開發的小微對話系統和微信對話開放平臺在音箱、公眾號自動客服等場景方面也有不俗的表現,但投入的人力比亞馬遜 Alex 團隊要少得多,也算是對微信「小」團隊做大事風格的一種體現。微信模式識別中心團隊學術與產品雙強的特點也為我們的合作帶來了不一樣的體驗,一方面雙方都對世界前沿技術的研究保持了高度的熱情,能夠一起勠力同心做一些需要時間打磨、但影響深遠的探索,另一方面真實的產品也為我們的研究提供了不同的視角和應用的場景,真正做到了強強聯合、優勢互補,是非常值得合作的團隊。

我們與騰訊微信的這些合作是基於「清華-騰訊聯合實驗室」開展的。我們與騰訊高校合作中心合作多年,參與了包括清華-騰訊聯合實驗室(與清華各院系開展合作的學校級平臺)、犀牛鳥專項基金(面向各類老師的前沿探索研究性項目)、犀牛鳥精英人才培養計劃(面向學生,騰訊和清華雙導師聯合在騰訊培養科研型人才)等項目。感謝騰訊高校合作中心為高校與騰訊搭建的協作共贏的產學研合作平臺,大家可以關注騰訊高校合作微信公眾號 Tencent_UR 了解最新信息。

這裡還要特別介紹我們與微信模識中心的對接人 Patrick Li(由於不可言說的原因只好用他英文名,並非為了裝 B)和林衍凱。Patrick 是我的師弟,跟我已經有十幾年的交情,清華貴系 2005 級本科生,2009 級博士生。他從本科時就加入我們課題組,當時我與他合作發表了我的第一篇 EMNLP 2009 論文,後來他來我們課題組讀博,跟隨孫茂松老師和劉洋老師從事機器翻譯研究,做出很多有影響力的成果。他是我們合作項目的負責人,目前在微信模式識別中心負責領導 NLP 基礎技術的研究和應用工作,在技術和人品方面都可謂有口皆碑,與他合作過的同學都印象深刻。現在,他主要關注自動問答、信息抽取、機器翻譯等方面工作。也許正是受到 Patrick 的」感召「,我們組的林衍凱同學(http://nlp.csai.tsinghua.edu.cn/~lyk/)今年博士畢業後,也選擇加入了他們團隊,也在和我們一起合作開展知識圖譜和自動問答方面的研究工作。

圖窮匕見,讀者中如果有希望找自然語言處理和知識圖譜方面實習或工作的同學,歡迎聯繫 Patrick Li(patrickpli@tencent.com),讓我們共同努力,開展有意思有意義的研究工作。

Patrick Li:http://www.lpeng.net

作者簡介

韓旭,清華大學計算機科學與技術系博士三年級同學,主要研究方向為自然語言處理、知識圖譜、信息抽取。在人工智慧領域國際著名會議 AAAI、ACL、EMNLP、COLING、NAACL 上發表多篇論文,是 OpenKE、OpenNRE 等開源項目的開發者之一。主頁:

https://thucsthanxu13.github.io/thucsthanxu13.github.io

高天宇,清華大學計算機系大四本科生,主要研究方向為自然語言處理、知識圖譜、關係抽取。在人工智慧領域國際著名會議 AAAI、EMNLP 上發表多篇論文,是 OpenNRE 等開源項目的主要開發者之一。主頁:

gaotianyu.xyz

劉知遠,清華大學計算機系副教授、博士生導師。主要研究方向為表示學習、知識圖譜和社會計算。主頁:

nlp.csai.tsinghua.edu.cn

原文連結:https://zhuanlan.zhihu.com/p/91762831

參考文獻

[1] ChunYang Liu, WenBo Sun, WenHan Chao, Wanxiang Che. Convolution Neural Network for Relation Extraction. The 9th International Conference on Advanced Data Mining and Applications (ADMA 2013).

[2] Daojian Zeng, Kang Liu, Siwei Lai, Guangyou Zhou, Jun Zhao. Relation Classification via Convolutional Deep Neural Network. The 25th International Conference on Computational Linguistics (COLING 2014).

[3] Dongxu Zhang, Dong Wang. Relation Classification via Recurrent Neural Network. arXiv preprint arXiv:1508.01006 (2015).

[4] Peng Zhou, Wei Shi, Jun Tian, Zhenyu Qi, Bingchen Li, Hongwei Hao, Bo Xu. Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification. The 54th Annual Meeting of the Association for Computational Linguistics (ACL 2016).

[5] Richard Socher, Brody Huval, Christopher D. Manning, Andrew Y. Ng. Semantic Compositionality through Recursive Matrix-Vector Spaces. The 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL 2012).

[6] Iris Hendrickx, Su Nam Kim, Zornitsa Kozareva, Preslav Nakov, Diarmuid Ó Séaghdha, Sebastian Padó, Marco Pennacchiotti, Lorenza Romano, Stan Szpakowicz. SemEval-2010 Task 8: Multi-Way Classification of Semantic Relations between Pairs of Nominals. The 5th International Workshop on Semantic Evaluation (SEMEVAL 2010).

[7] Thien Huu Nguyen, Ralph Grishman. Relation Extraction: Perspective from Convolutional Neural Networks. The 1st Workshop on Vector Space Modeling for Natural Language Processing (LatentVar 2015).

[8] Cícero dos Santos, Bing Xiang, Bowen Zhou. Classifying Relations by Ranking with Convolutional Neural Networks. The 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (ACL-IJCNLP 2015).

[9] Shu Zhang, Dequan Zheng, Xinchen Hu, Ming Yang. Bidirectional Long Short-Term Memory Networks for Relation Classification. The 29th Pacific Asia Conference on Language, Information and Computation (PACLIC 2015).

[10] Minguang Xiao, Cong Liu. Semantic Relation Classification via Hierarchical Recurrent Neural Network with Attention. The 26th International Conference on Computational Linguistics (COLING 2016).

[11] Kun Xu, Yansong Feng, Songfang Huang, Dongyan Zhao. Semantic Relation Classification via Convolutional Neural Networks with Simple Negative Sampling. The 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP 2015).

[12] Yan Xu, Lili Mou, Ge Li, Yunchuan Chen, Hao Peng, Zhi Jin. Classifying Relations via Long Short Term Memory Networks along Shortest Dependency Paths. The 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP 2015).

[13] Yang Liu, Furu Wei, Sujian Li, Heng Ji, Ming Zhou, Houfeng Wang. A Dependency-Based Neural Network for Relation Classification. The 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (ACL-IJCNLP 2015).

[14] Yan Xu, Ran Jia, Lili Mou, Ge Li, Yunchuan Chen, Yangyang Lu, Zhi Jin. Improved Relation Classification by Deep Recurrent Neural Networks with Data Augmentation. The 26th International Conference on Computational Linguistics (COLING 2016).

[15] Rui Cai, Xiaodong Zhang, Houfeng Wang. Bidirectional Recurrent Convolutional Neural Network for Relation Classification. The 54th Annual Meeting of the Association for Computational Linguistics (ACL 2016).

[16] Mike Mintz, Steven Bills, Rion Snow, Daniel Jurafsky. Distant Supervision for Relation Extraction without Labeled Data. The 47th Annual Meeting of the Association for Computational Linguistics and the 4th International Joint Conference on Natural Language Processing (ACL-IJCNLP 2009).

[17] Daojian Zeng, Kang Liu, Yubo Chen, Jun Zhao. Distant Supervision for Relation Extraction via Piecewise Convolutional Neural Networks. The 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP 2015).

[18] Yankai Lin, Shiqi Shen, Zhiyuan Liu, Huanbo Luan, Maosong Sun. Neural Relation Extraction with Selective Attention over Instances. The 54th Annual Meeting of the Association for Computational Linguistics (ACL 2016).

[19] Yi Wu, David Bamman, Stuart Russell. Adversarial Training for Relation Extraction. The 2017 Conference on Empirical Methods in Natural Language Processing (EMNLP 2017).

[20] Jun Feng, Minlie Huang, Li Zhao, Yang Yang, Xiaoyan Zhu. Reinforcement Learning for Relation Classification from Noisy Data. The 32th AAAI Conference on Artificial Intelligence (AAAI 2018).

[21] Xu Han, Hao Zhu, Pengfei Yu, Ziyun Wang, Yuan Yao, Zhiyuan Liu, Maosong Sun. FewRel: A Large-Scale Supervised Few-Shot Relation Classification Dataset with State-of-the-Art Evaluation. The 2018 Conference on Empirical Methods in Natural Language Processing (EMNLP 2018).

[22] Tianyu Gao, Xu Han, Zhiyuan Liu, Maosong Sun. Hybrid Attention-based Prototypical Networks for Noisy Few-Shot Relation Classification. The 33th AAAI Conference on Artificial Intelligence (AAAI 2019).

[23] Zhi-Xiu Ye, Zhen-Hua Ling. Multi-Level Matching and Aggregation Network for Few-Shot Relation Classification. The 57th Annual Meeting of the Association for Computational Linguistics (ACL 2019).

[24] Livio Baldini Soares, Nicholas FitzGerald, Jeffrey Ling, Tom Kwiatkowski. Matching the Blanks: Distributional Similarity for Relation Learning. The 57th Annual Meeting of the Association for Computational Linguistics (ACL 2019).

[25] Tianyu Gao, Xu Han, Hao Zhu, Zhiyuan Liu, Peng Li, Maosong Sun, Jie Zhou. FewRel 2.0: Towards More Challenging Few-Shot Relation Classification. 2019 Conference on Empirical Methods in Natural Language Processing and 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP 2019).

[26] Chris Quirk, Hoifung Poon. Distant Supervision for Relation Extraction beyond the Sentence Boundary. The 15th Conference of the European Chapter of the Association for Computational Linguistics (EACL 2017).

[27] Nanyun Peng, Hoifung Poon, Chris Quirk, Kristina Toutanova, Wen-tau Yih. Cross-Sentence N-ary Relation Extraction with Graph LSTMs. Transactions of the Association for Computational Linguistics (TACL 2017).

[28] Chih-Hsuan Wei, Yifan Peng, Robert Leaman, Allan Peter Davis, Carolyn J. Mattingly, Jiao Li, Thomas C. Wiegers, Zhiyong Lu. Overview of the BioCreative V Chemical Disease Relation (CDR) Task. The 5th BioCreative Challenge Evaluation Workshop (BioC 2015).

[29] Omer Levy, Minjoon Seo, Eunsol Choi, Luke Zettlemoyer. Zero-Shot Relation Extraction via Reading Comprehension. The 21st Conference on Computational Natural Language Learning (CoNLL 2017).

[30] Yuan Yao, Deming Ye, Peng Li, Xu Han, Yankai Lin, Zhenghao Liu, Zhiyuan Liu, Lixin Huang, Jie Zhou, Maosong Sun. DocRED: A Large-Scale Document-Level Relation Extraction Dataset. The 57th Annual Meeting of the Association for Computational Linguistics (ACL 2019).

[31] Ruidong Wu, Yuan Yao, Xu Han, Ruobing Xie, Zhiyuan Liu, Fen Lin, Leyu Lin, Maosong Sun. Open Relation Extraction: Relational Knowledge Transfer from Supervised Data to Unsupervised Data. 2019 Conference on Empirical Methods in Natural Language Processing and 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP 2019).

[32] Tianyu Gao, Xu Han, Ruobing Xie, Zhiyuan Liu, Fen Lin, Leyu Lin, Maosong Sun. Neural Snowball for Few-Shot Relation Learning. The 34th AAAI Conference on Artificial Intelligence (AAAI 2020).

[33] Xu Han, Tianyu Gao, Yuan Yao, Deming Ye, Zhiyuan Liu, Maosong Sun. OpenNRE: An Open and Extensible Toolkit for Neural Relation Extraction. The Conference on Empirical Methods in Natural Language Processing (EMNLP 2019).

機器之心「SOTA模型」:22大領域、127個任務,機器學習 SOTA 研究一網打盡。

相關焦點

  • 知識圖譜之知識抽取詳細解讀
    然後通過自動化或者半自動化的技術抽取出可用的知識單元,知識單元主要包括實體、關係以及屬性3個知識要素,並以此為基礎,形成一系列高質量的事實表達,為上層模式層的構建奠定基礎。1.1實體抽取實體抽取也稱為命名實體學習或命名實體識別,指的是從原始數據語料中自動識別出命名實體。
  • 知識圖譜入門 , 知識抽取
    知識抽取,即從不同來源、不同結構的數據中進行知識提取,形成知識(結構化數據)存入到知識圖譜。由於剛剛識別出來的實體可能是實體的部分表示或另類表示,因此需要結束表層名字擴展、搜尋引擎、構建查詢實體引用表等技術來對候選實體進行生成。經過該步驟生成的實體可能有多個候選項,因此需要對候選實體進行消岐,此處可使用基於圖的方法、基於概率生成模型、基於主題模型或基於深度學習的方法。經過實體消岐後得到的唯一實體候選後就可以與知識庫中的實體進行連接了。舉個例子:
  • 百分點認知智能實驗室:信息抽取在知識圖譜構建中的實踐與應用
    尤其是基於深度遷移學習,幫助構建法律百科詞條、公安文本知識圖譜等行業項目中,在實體抽取、關係抽取、事件抽取等方面都取得了理想的實踐效果。本文將從概念辨析、技術路徑、實踐總結,由虛到實、由淺入深引導大家理性看待知識圖譜技術的能與不能,以更好地在實踐中運籌帷幄。
  • 知識圖譜實體與關係抽取,這3篇新論文不要錯過
    問題定義給定一個POS標註的語料庫D,一個知識庫Ψ,一個目標實體類型集合,一個目標關係類型集合,聯合抽取的目標就是:從語料庫D中識別出entity mentions M;利用知識庫Ψ生成訓練數據;利用和上下文,預測每一個relation mentions的關係類型,以及 entity mentions的實體類型
  • 知識圖譜發展的難點&構建行業知識圖譜的重要性
    知識圖譜是真實世界的語義表示,其中每一個節點代表實體連接節點的邊則對應實體之間的關係異構數據通過整合表達為知識,圖的表達映射了人類對世界的認知方式,知識圖譜非常適合整合非結構化數據從零散數據中發現知識,從而幫助組織機構實現業務智能化。
  • 實體關係的聯合抽取總結
    方法:因此,作者提出了一種新穎的端到端模型,基於詞序信息和依存樹結構信息來抽取實體間的關係。該模型使用了雙向的LSTM和tree-LSTM結構,同時抽取實體及其關係。問題:本文論文題目是端到端的關係抽取,但利用了NER作為輔助任務幫助關係抽取,可以說是實體和關係聯合抽取的開山之作,所以往後的論文都會拿出來吊打一波。預測實體時忽略了標籤之間的長依賴關係, (Y.
  • 學習實體和關係嵌入與實體描述的知識圖譜完成
    在本文中,我們提出了一種基於描述的知識表示學習框架的新模型,該模型能夠同時利用事實三元組和實體描述。具體而言,關係投影與描述-符號表示學習相結合,學習實體和關係嵌入。採用卷積神經網絡和TransR分別得到實體和關係的描述表示和結構表示。我們使用從大知識圖譜自由基生成的FB15K數據集來評估所提出的模型的性能。實驗結果表明,我們提出的模型大大優於其他現有的基線模型。
  • 知識圖譜是什麼?
    01 什麼是知識圖譜1. 定義官方定義:知識圖譜是一種基於圖的數據結構,由節點(point)和邊(Edge)組成,每個節點表示一個「實體」,每條邊為實體與實體之間的「關係」,知識圖譜本質上是語義網絡。02 知識圖譜構建的關鍵技術知識圖譜構建的過程中,最主要的一個步驟就是把數據從不同的數據源中抽取出來,然後按一定的規則加入到知識圖譜中,這個過程我們稱為知識抽取。數據源的分為兩種:結構化的數據和非結構化的數據。
  • 知識圖譜不複雜,我來幫你理一理!
    所以,接下來就要介紹知識獲取,它包括實體識別,實體消歧,關係抽取,事件抽取。知識獲取示意圖實體識別實體(Entity)是知識圖譜的基本單元,也是本文中承載信息的重要語言單位。實體識別是抽取文本中命名性指稱項。
  • 從知識圖譜到認知圖譜:歷史、發展與展望
    2012年,谷歌發布的570億實體的大規模知識圖譜徹底改變了這一現狀1;同時,深度學習技術的發展也推波助瀾,掀起了知識圖譜領域研究的新熱潮,特別是以Trans[1]為代表的知識圖譜嵌入,以及使用大型知識圖譜增強其他應用,如推薦系統、情感分析等。然而,當知識圖譜在諸多應用中取得成功的同時,其方法論始終籠罩著幾朵「烏雲」,如歧義問題、連結困難、關係的冗餘與組合爆炸等。
  • 產品經理的知識圖譜應用
    從自然語言處理的角度來看,如何從非結構化數據、半結構化數據中提取數據,抽取其中的語義。比如,我們拿到張三的簡歷,簡歷上寫出生地是河北,通過提取規則來獲取到「張三」、「河北」這兩個實體,以及「籍貫」這個關係,並機構化存儲起來。從人工智慧視角來看,如何利用知識圖譜來輔助理解人類的語言,並進行相應關係的查詢和機器的推理。
  • 試驗知識圖譜分析
    試驗知識目前共性問題:1、試驗知識零散、分散,信息抽取困難2、缺少合適的方法、標準來融合各類試驗知識數據3、知識圖譜在試驗知識關聯挖掘方面的案例較少,沒有充分體現、發揮試驗知識的真實價值4、試驗知識積累、更新方式以人工為主,遠遠跟不上大數據、人工智慧技術發展二、試驗知識圖譜分析知識圖譜(Knowledge
  • 知識圖譜研討實錄05丨肖仰華教授帶你讀懂概念圖譜構建
    下面讓我們通過第五章課程《概念圖譜構建》的16條精華研討,來進一步學習了解知識圖譜技術內幕。文末可查看更多章節精華回顧。本課程配套教材《知識圖譜:概念與技術》。2丨概念圖譜與通用知識圖譜的區別在哪裡?(可以從定義、組成等方面)學生:概念圖譜是一類專注於實體與概念之間的 isA 關係的知識圖譜,主要由實體、概念以及 instanceOf、subClassof 關係構成。通用知識圖譜不止局限於此,它涉及的範圍更廣,由實體以及它們之間各式各樣的關係組成。
  • 自底向上——知識圖譜構建技術初探
    知識圖譜的基本單位,便是「實體(Entity)-關係(Relationship)-實體(Entity)」構成的三元組,這也是知識圖譜的核心。是的,用關係資料庫來存儲,尤其是存儲簡單的知識圖譜,從技術上來說是完全沒問題的。但需要注意的是,一旦知識圖譜變複雜,圖資料庫在關聯查詢的效率上會比傳統的關係數據存儲方式有顯著的提高。當我們涉及到2,3度的關聯查詢,基於知識圖譜的查詢效率會高出幾千倍甚至幾百萬倍。
  • 如何構建知識圖譜?
    1.1 什麼是知識圖譜知識圖譜是谷歌在2012年提出來的,最初的目的是優化其搜尋引擎。在現實世界中是存在很多的實體的,各種人、物,他們之間是相互聯繫的。知識圖譜就是對這個真實世界的符號表達,描述現實世界中存在的一些概念,以及它們之間的聯繫。具體來說是一個具有屬性的實體,通過關係連接而成的網狀知識庫。
  • AI產品經理必修課:知識圖譜的入門與應用
    Google知識圖譜團隊負責人Amit Singhal認為,「The world is not made of strings,but is made of things」。知識圖譜的主要作用在於以結構化的方式來描述客觀世界實體間的複雜關係。通過在信息與信息之間建立聯繫,人類更加容易獲取自己所需要的知識。
  • 淺談細粒度實體分類的前世今生 | AI Time PhD知識圖譜專題
    實體分類是知識圖譜構建和補全的重要子任務,其中細粒度實體分類為實體提供了更加豐富的語義信息,有助於關係抽取、實體連結、問答系統等下遊任務。細粒度實體分類是什麼?和傳統的命名實體識別有什麼區別?任務的難點在哪裡?採用什麼方法解決?目前有哪些數據集可用?未來的發展方向如何?
  • 【信息抽取】NLP中關係抽取的概念,發展及其展望
    關係抽取(Relation Extraction,RE)是IE中一個重要的任務,他聚焦於抽取實體之間的關係。 一個完整的RE系統包含命名實體識別和關係分類兩個部分。命名實體識別任務從文本中抽取出實體,關係分類任務對實體之間關係進行甄別。
  • 是時候該關注「知識圖譜」了!
    知識圖譜是什麼通俗地講,知識圖譜就是將複雜的知識通過數據挖掘、信息處理、知識計量和圖形繪製等一系列方式,把所有不同種類的信息連接在一起得到的一個關係網絡。在知識圖譜裡,用節點表示現實世界中存在的「實體」,用邊示意實體與實體之間的「關係」。
  • 清華大學韓旭:神經關係抽取模型 | AI研習社71期大講堂
    關係抽取屬於信息抽取領域的子任務,主要的功能是讓機器從一句話中抽出給定實體,並釐清相應關係,主要用於拓展知識圖譜,把無結構的自由文本變成結構化數據。在傳統任務當中,我們會把關係抽取當作分類過濾器,先人為定義好關係,接著輸入標註好實體的文本,然後判斷文本屬於定義關係中的哪一類。