[实体关系抽取|顶刊论文]OneRel:Relational Triple Extraction: One Step is Enough

这篇具有很好参考价值的文章主要介绍了[实体关系抽取|顶刊论文]OneRel:Relational Triple Extraction: One Step is Enough。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

2022.5.11 |IJCAI-2022|华中科技大学|2022年SOTA| 原文链接

Relational Triple Extraction: One Step is Enough

过去的步骤:

  1. 寻找头尾实体的边界位置(实体识别)
  2. 将特定令牌串联成三元组(关系分类)

存在误差累计问题,每个实体边界识别误差会累积到最终的组合三元组中

论文中的方法:
先通过枚举句子中的令牌序列生成候选实体,然后将三元抽取任务转化为"头->尾"二部图上的连接问题。

基础准备

名词解析:

  1. 令牌序列:令牌是自然语言的基础。令牌化是一种将文本分成称为令牌的较小单元的方法。在这里,令牌可以是单词,字符或子单词。因此,标记化可以大致分为3种类型:单词,字符和子词(n-gram字符)标记化。
  2. 重叠模式
    onerel,论文精读,NLP,关系抽取,三元组抽取,论文阅读
    EntityPairOverlap(EPO) 一个实体对具有多种关系
    SingleEntityOverlap(SEO) 两个三元组共享一个重叠的实体
    HeadTailOverlap(HTO) 三元组的头部实体和尾部实体部分或完全重叠

现有的联合抽取方法:

  1. 序列标注 :即给定一个输入序列,使用模型对这个序列的每一个位置标注一个相应的标签,是一个序列到序列的过程。(使用各种标记序列来确定实体的开始和结束位置,有时还包括关系)

2020用序列标记来识别句子中的所有实体,然后通过各种网络进行关系检测
2021用一个预测潜在关系的组件,约束到预测的关系子集,而不是所有关系
2022提出双向实体提取框架,考虑头尾和尾头的提取顺序、约束条件

  1. 表格填充 :为一个句子构造一个表,并用对应的正确的标记填充每个表单元格

2019通过关系加权图卷积网络来考虑实体和关系之间的作用
2020三元组抽取转化为令牌对链接问题,引入特定于关系的握手标记方案对其实体对的边界令牌
2021利用一个分区过滤网络,该网络生成任务特殊特征,用于建模实体识别和关系分类之间的交互

  1. 文本生成:将三元组作为令牌序列,病采用编码器-解码器结构来生成像机器翻译一样的三元组元素

2018用复制机制生成两个对应实体所遵循的关系,但只能预测实体的最后一个单词
2020使用多任务学习框架解决多令牌实体问题
2021一种带有生成变压器的对比三元组提取方法解决长期依赖问题
2021设计一个二进制指针网络来提取显式三元组和隐式三元组

文中的方法:

onerel,论文精读,NLP,关系抽取,三元组抽取,论文阅读
暴力方法:
穷举一个句子的令牌序列,结果是肯定会包含正确的实体
因此:看是否存在关系,可以直接识别三元
通过枚举令牌序列生成候选实体
为每个关系设计一个链接矩阵来检测两个候选实体是否可能构成有效的三元组
三元组的提取转化为一个关系特定的二部图链接问题

方法详解

onerel,论文精读,NLP,关系抽取,三元组抽取,论文阅读

实体: S = { w 1 , w 2 , . . . , w L } S =\lbrace {w_1, w_2, ..., w_L} \rbrace S={w1,w2,...,wL}
三元组: T = { ( h , r , t ) ∣ h , t ∈ ξ , r i ∈ R } T =\lbrace {(h, r, t)|h, t ∈ \xi, r_i ∈ R}\rbrace T={(h,r,t)h,tξ,riR} ξ \xi ξ为头部和尾部实体
k个预设的关系: R = { r 1 , r 2 , . . . , r K } R = \lbrace{r_1, r_2, ..., r_K}\rbrace R={r1,r2,...,rK}

1. 候选实体生成

例子:
枚举句子中所有长度小于C(C<L)的连续令牌作为候选实体,若C=2
“Beijing is the capital of China“
E = { “Beijing”, “Beijing is”, “is”, “is the”, “the”, “the Capital”, “Capital”, “Capital of”, “of”, “of China”, “China”}.

∣ ξ ∣ = L × C + C 2 − C 2 2 (1) | \xi| = L \times C +\frac{C}{2} - \frac{C^2}{2} \tag{1} ξ=L×C+2C2C2(1)

缺点:

  1. 负三元组占主导地位,训练偏向负三元组,会降低识别正三元组的能力
  2. 训练句子多,所以训练效率低

解决:
ξ \xi ξ随机提取 n n e g n_{neg} nneg否定实体,与所有基本真值实体一起训练模型,新的子集表示为 ξ ‾ \overline\xi ξ

2. 二部图链接

目的:句子、 ξ ‾ \overline\xi ξ、作为句子的编码器的BERT -> 每个令牌的D维上下文表示 h i h_i hi


[ h 1 , h 2 , . . . , h L ] = B E R T ( [ x 1 , x 2 , . . . , x L ] ) (2) [h_1,h_2,...,h_L] = BERT([x_1,x_2,...,x_L]) \tag{2} [h1,h2,...,hL]=BERT([x1,x2,...,xL])(2)
其中的 x i x_i xi是第i的令牌的输入表示,是令牌嵌入和位置嵌入的总和


e i = h s t a r t + h e n d 2 (3) e_i = \frac{h^{start} + h ^ {end}}{2} \tag{3} ei=2hstart+hend(3)
取实体 e i ∈ ξ ‾ e_i\in\overline\xi eiξ,即开始令牌和结束令牌之间的平均向量

为实体通常由多个令牌组成,为了便于并行计算,需要保持不同实体表示的维度一致


onerel,论文精读,NLP,关系抽取,三元组抽取,论文阅读
使用一个有向的“头->尾“二部图提取三元组,将投影实体表示为
E h e a d = W h T E + b h E_{head}= W_h^TE + b_h Ehead=WhTE+bh E t a i l = W t T E + b t E_{tail}=W_t^TE+b_t Etail=WtTE+bt

E E E是由(3)式计算得出
W h , W t W_h,W_t Wh,Wt是两个project matrices, 从令牌的特征空间D维的头部实体空间到尾部实体空间,都允许模型识别每个实体的头部或尾部角色
b ( ⋅ ) b_{(·)} b()是偏差


对于每个关系 r k r_k rk,可以通过预测之间的链接来判断是否是一个有效的实体对儿
P k = σ ( E h e a d T U k E t a i l ) (4) P^k = \sigma(E_{head}^{T}U_kE_{tail}) \tag{4} Pk=σ(EheadTUkEtail)(4)

σ \sigma σ是sigma激活函数
U k d e × d e U_k^{d_e \times d_e} Ukde×de是链接矩阵,根据第k个关系的两个实体之间的相关性生成的
如果概率超过某个阈值 θ \theta θ,则 ( e i , r k , e j ) (e_i, r_k, e_j) (ei,rk,ej)判定为是正确的
而且实体的跨度在预处理就确定了,解码更容易
即,对于每个关系 r k r_k rk,如果 p i j k > θ p_{ij}^k > \theta pijk>θ,则预测的三元组是 ( e i ⋅ s p a n , r k , e j ⋅ s p a n ) (e_i\cdot span,r_k,e_j \cdot span) (eispan,rk,ejspan)


Directrel的目标函数定义为
L = − 1 ∣ ξ ‾ ∣ × K × ∣ ξ ‾ ∣ × = ∑ i = 1 ∣ ξ ‾ ∣ ∑ k = 1 K ∑ j = 1 ∣ ξ ‾ ∣ ( y t log ⁡ ( P i j k ) + ( 1 − y t ) log ⁡ ( 1 − P i j k ) ) (5) \begin{aligned} \mathcal{L} &= - \frac{1}{|\overline\xi| \times K \times |\overline\xi|}\times \\ &=\sum_{i=1}^{|\overline\xi|} \sum_{k=1}^K \sum_{j=1}^{|\overline\xi|}(y^t\log(P_{ij}^k) + (1-y_t)\log(1-P_{ij}^k)) \tag{5} \end{aligned} L=ξ×K×ξ1×=i=1ξk=1Kj=1ξ(ytlog(Pijk)+(1yt)log(1Pijk))(5)

实验

onerel,论文精读,NLP,关系抽取,三元组抽取,论文阅读

使用了NYT与WebNLG数据集进行实验

NYT:将FreeBase中的相关事件与纽约时报语料库对其,包含56k个训练句子和5k个测试句子
WebNLG:最初为自然语言生成开发,从给定的三元组生成相应的描述,包含5k个训练句子和703个测试句子
NYT*表示只注释实体的最后一个词的版本,NYT注释了整个实体,webNLG同理
采用Precision(Prec.),Recall(Rec.),F1-score(F1)评价性能,只有当头部h,尾部t和关系r是与事实完全一致时视为正确的

P r e c i s i o n = T P T P + F P Precision = \frac{TP}{TP+FP} Precision=TP+FPTP 预测为正确的数据中,真实值为正确的比例。抽取出的三元组准确与否
R e c a l l = T P T P + F N Recall = \frac{TP}{TP+FN} Recall=TP+FNTP 在所有的真实值为正确的数据中,有多少能预测正确。抽取出的正确三元组是否全面
F 1 = 2 × P r e c i s i o n × R e c a l l P r e c i s i o n + R e c a l l F1 = \frac {2 \times Precision \times Recall} {Precision + Recall} F1=Precision+Recall2×Precision×RecallF1 得分反映了模型抽取三元组的综合能力

样本本身 预测模型
TP
FP
FN

主要结果:
onerel,论文精读,NLP,关系抽取,三元组抽取,论文阅读
F1得分优于所有其他模型


详细结果:
onerel,论文精读,NLP,关系抽取,三元组抽取,论文阅读
通过重叠模式和三元数拆分了NYT和WebNLG的测试集
第一,它有效地缓解了误差积累问题,保证了提取三元组的精度
其次,在每个实体对之间采用特定于关系的链接,保证了三重抽取的召回性


onerel,论文精读,NLP,关系抽取,三元组抽取,论文阅读
在两个子任务上的性能试验对比,选择了PRGC(最先进的三元模型之一,在关系判断和头尾对齐方面很强)


onerel,论文精读,NLP,关系抽取,三元组抽取,论文阅读
不同 n n e g n_{neg} nneg对NYT和WebNLG的影响。
训练时间(ms)是指训练一个小批处理所需的平均时间
GPU内存(MB)是训练一个Epoch所需的平均GPU内存


onerel,论文精读,NLP,关系抽取,三元组抽取,论文阅读

在WebNLG上的不足之处:跨度分裂错误、未找到实体和实体角色错误。
“跨度分裂误差”所占比例相对较小,证明了在一个有向的“头→尾”二分图上通过链接预测直接提取三元组的有效性。
“实体角色错误”最具挑战性。 其主要原因是在三重提取过程中忽略了实体的上下文信息。

感悟

作者使用了另一角度去解决三元组抽取的难题,从过去的分步抽取到该方法的直接关注抽象出来的方法,从而无需确定实体的开始和结束的位置。
使用 n n e g n_{neg} nneg解决了样本中错误样本会影响识别的问题,使用二部图法直接抽取关系文章来源地址https://www.toymoban.com/news/detail-517309.html

到了这里,关于[实体关系抽取|顶刊论文]OneRel:Relational Triple Extraction: One Step is Enough的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 信息抽取命名实体识别和关系抽取)

    信息抽取的定义为:从自然语言文本中 抽取指定类型的实体,关系、事件等事实信息 。并形成结构化数据输出的文本处理技术。 信息抽取是从文本数据中抽取特定信息的一种技术,文本数据由医学具体的单位构成,例如, 句子、段落、篇章。本文信息正式由一些小的具体的

    2024年02月01日
    浏览(43)
  • chatgpt实现NLP基本任务(实体识别、关系抽取、属性抽取、事件抽取、文本分类)

    抽取文本: 驻港部队从1993年初开始组建,1996年1月28日组建完毕,1997年7月1日0时进驻香港,取代驻港英军接管香港防务,驻港军费均由中央人民政府负担。《中华人民共和国香港特别行政区驻军法》规定了驻香港部队的职责为防备和抵抗侵略,保卫香港特别行政区的安全以及

    2024年02月13日
    浏览(47)
  • 手把手教学构建农业知识图谱:农业领域的信息检索+智能问答,命名实体识别,关系抽取,实体关系查询

    项目设计集合(人工智能方向):助力新人快速实战掌握技能、自主完成项目设计升级,提升自身的硬实力(不仅限NLP、知识图谱、计算机视觉等领域) :汇总有意义的项目设计集合,助力新人快速实战掌握技能,助力用户更好利用 CSDN 平台,自主完成项目设计升级,提升自

    2024年02月12日
    浏览(53)
  • UIE在实体识别和关系抽取上的实践

    近期有做信息抽取的需求,UIE在信息抽取方面效果不错。 huggingface上下载UIE模型:PaddlePaddle/uie-base · Hugging Face 点击“Clone Repository”,确定git clone的链接 其中包含大文件,需要在windows安装git-lfs,在https://git-lfs.com/下载git-lfs,安装。 git lfs clone 仓库链接 UIE使用需要安装paddl

    2024年02月13日
    浏览(47)
  • 自然语言处理 Paddle NLP - 基于预训练模型完成实体关系抽取

    基础 自然语言处理(NLP) 自然语言处理PaddleNLP-词向量应用展示 自然语言处理(NLP)-前预训练时代的自监督学习 自然语言处理PaddleNLP-预训练语言模型及应用 自然语言处理PaddleNLP-文本语义相似度计算(ERNIE-Gram) 自然语言处理PaddleNLP-词法分析技术及其应用 自然语言处理Pa

    2024年02月10日
    浏览(51)
  • 探索图像数据中的隐藏信息:语义实体识别和关系抽取的奇妙之旅

    关键信息抽取 (Key Information Extraction, KIE)指的是是从文本或者图像中,抽取出关键的信息。针对文档图像的关键信息抽取任务作为OCR的下游任务,存在非常多的实际应用场景,如表单识别、车票信息抽取、身份证信息抽取等。然而,使用人力从这些文档图像中提取或者收集关键

    2024年02月10日
    浏览(57)
  • 【深度学习】关系抽取概念及相关论文解读

            信息抽取是构建知识图谱的必要条件。知识图谱中以(subject,relation,object)三元组的形式表示数据。信息抽取分为两大部分,一部分是命名实体识别,识别出文本中的实体,另外就是关系抽取,对识别出来的实体构建对应的关系,两者便是构建三元组的基本组成

    2024年02月04日
    浏览(42)
  • 机器人领域顶刊TRO,TASE及RAL的区别与关系

    一、背景 机器人领域越来越火,特别是在具身智能的加持下,让机器人在不久的未来可以完成更多复杂的任务,进入到我们的日常生活(不过应该还需要很长很长时间)。作为机器人方向的Researcher,我们会看许多机器人相关的论文,如TRO,TASE,RAL等,这里简要介绍下他们的区

    2024年01月17日
    浏览(38)
  • 【事件图谱】事件抽取与事件关系抽取

    事件抽取(Event Extraction, EE)是NLP领域中一种经典的信息抽取任务,在商业、军事等领域的情报工作中应用非常广泛。本文简单介绍了事件抽取任务和事件之间的几种关系。并根据现在的研究介绍了几种事件抽取和关系抽取的方法。最后简单盘点了事件抽取的研究的发展趋势。

    2024年02月02日
    浏览(49)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包