[实体关系抽取|顶刊论文]UniRel:Unified Representation and Interaction for Joint Relational Triple Extraction

这篇具有很好参考价值的文章主要介绍了[实体关系抽取|顶刊论文]UniRel:Unified Representation and Interaction for Joint Relational Triple Extraction。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

2022.11.16|EMNLP 2022|中国科学技术大学 |原文链接|源码链接

UniRel: Unified Representation and Interaction for Joint Relational Triple Extraction

  • 解决实体和关系异构表示问题
  • 解决实体-实体交互和实体-关系交互异构建模问题
  • 通过一个串联的自然语言序列联合编码统一实体和关系的表示,同时使用一个交互映射系统来统一交互
    unirel,论文精读,深度学习,自然语言处理,人工智能
    过去(如CasRel、PRGC)都在关注于捕捉实体的上下文信息,但是忽略了同样重要的关系语义。文中例子:由is_capital_of可以得出,主语应该是城市,宾语应该是国家。上图的这个三元组中,也可以从【longdon-is_capital_of】和【Uk-is_capital_of】得出Uk和london是相关的。

我认为作者想表达的意思是过去把实体和关系分开来看了,但是实际上实体和关系本质上是有关联的,可以通过实体推断关系,通过关系推断实体,所以只捕捉实体的上下文是不够的


由此文章提出统一表示和交互的UniRel模型来解决上述问题。

  • 关系和实体都编码成序列来构造统一的表示,即联合编码
    • 基于语义,首先将候选关系转换成文本,与输入句子构成一个连续的序列
    • 使用BERT作为PLM预训练模型编码,并捕捉他们的信息相关性
  • 通过Transformer的自注意力机制,在单个交互映射中对实体-实体实体-关系建模
  • 基于WebNLG和NYT创建了一个新的数据集

UniRel方法:

Problem Formulation

给出X,识别出T

  • X = { x 1 , x 2 , … , x N } X=\{x_1,x_2,\dots,x_N\} X={x1,x2,,xN}:有n个符号的句子
  • T = [ ( s l , r l , o l ) ] l = 1 L T=[(s_l,r_l,o_l)]_{l=1} ^{L} T=[(sl,rl,ol)]l=1L:在X句子中抽取出所有的三元组集合, L L L为三元组的个数
  • E = { e 1 , e 2 , … , e k } E=\{e_1,e_2,\dots,e_k\} E={e1,e2,,ek}:X句子中的实体
  • R = { R 1 , R 2 , … , R M } R=\{R_1,R_2,\dots,R_M\} R={R1,R2,,RM}预定义的关系集,有M个类型。

Unified Reperesentation

即对实体和关系进行联合编码

unirel,论文精读,深度学习,自然语言处理,人工智能

  1. 先将图中的关系转换为文本的形式【由一个人工的词句表达器转换】
    如:/business/company/foundersfounders
  2. 将句子和关系文本组合输入到BERT模型中。 T = C o n c a t ( T s , T p ) T=Concat(T_s,T_p) T=Concat(Ts,Tp)(1)
    • T s 和 T p T_s和T_p TsTp是输入句的输入id 和 输入的关系。
  3. 通过在embeding table中搜素相应ID,将输入转为为input embeding H = E [ T ] H=E[T] H=E[T](2)
    • H ∈ R ( N + M ) × d h H\in\mathbb{R}^{ (N+M) \times d_h } HR(N+M)×dh:input embeddings(输入词向量),其中 d h d_h dh是embedding尺寸, R ( N + M ) \mathbb{R}^{ (N+M) } R(N+M)表N+M维的实数向量集合
    • E E E是BERT的向量表
  4. 编码器捕捉每个输入词的相关性。
    A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K T d h 2 ) V Attention(Q,K,V) = softmax(\frac {QK^T} {\sqrt [2] {d_h} } )V Attention(Q,K,V)=softmax(2dh QKT)V
    每层Transformer从上一层的输出中生成令牌向量, H i H_i Hi是第i层的输出。因为是将实体和关系都引入到了输入向量之中,所以编码器充分学习到了实体和关系之间丰富的内在联系

在这一步之中,解决了实体和关系之间的异构表示问题

Unified Interaction

使用实体-实体、实体-关系之间的内在联系直接提取三元组。

Entity-Entity Interaction

实体-实体:标注那些可以形成三元组的实体对(因为存在关系才能有内在联系)。进而(A,R,B)和(B,R,A)都可以识别出来,解决实体对重叠的问题。
unirel,论文精读,深度学习,自然语言处理,人工智能
unirel,论文精读,深度学习,自然语言处理,人工智能

Entity-Relation Interaction

对于关系R, ∃ \exists E为主/宾语R为关系的三元组时,E-R有内在联系。但关系是具有方向性的,所以需要不对称的定义E-R关联以区分主语、宾语
unirel,论文精读,深度学习,自然语言处理,人工智能
unirel,论文精读,深度学习,自然语言处理,人工智能

Interaction Discrimination

由BERT的最后一层( H 1 1 H_11 H11)输出的Q,K,可以将所有head的Q、K的值计算平均值,然后直接使用激活函数得到结果

  • I ∈ R ( N + M ) ( N + M ) I\in\mathbb{R}^{ (N+M)(N+M) } IR(N+M)(N+M)是相互作用矩阵
  • T T T是head的数量
  • W t Q W_t^Q WtQ W t K W_t^K WtK是权重
  • I ( ⋅ ) I(·) I()超过阈值 σ \sigma σ则认为有关联
    unirel,论文精读,深度学习,自然语言处理,人工智能

解决了体-实体交互和实体-关系交互异构建模问题

因为实体-实体、实体-关系都在Interation Map中建模,所以预测空间缩小到 O ( ( N + M ) 2 ) O((N+M)^2) O((N+M)2)【对于OneRel,使用了 O ( N × M × N ) O(N\times {M} \times {N} ) O(N×M×N)


交互映射的可视化

unirel,论文精读,深度学习,自然语言处理,人工智能

Training and Decoding

使用二值交叉熵损失(binary cross entropy loss)进行训练
L = − 1 ( N + M ) 2 ∑ i N + M ∑ j N + M ( I i , j ∗ l o g I i , j + ( 1 − I i , j ∗ ) l o g ( 1 − I i , j ) ) L=-\frac{1} { (N+M)^2 } \sum_{i} ^{N+M} \sum_{j}^ {N+M} (I_{i,j}^* logI_{i,j} + (1-I_{i,j}^*) log(1-I_{i,j} ) ) L=(N+M)21iN+MjN+M(Ii,jlogIi,j+(1Ii,j)log(1Ii,j))
其中 I ∗ I^* I是Interaction Map中的ground truth矩阵

  1. 首先从每个实体-关系的内在联系中识别出所有有效的主语和宾语
    unirel,论文精读,深度学习,自然语言处理,人工智能
  2. 然后枚举所有的候选实体对(存在于实体-实体之中的)
    unirel,论文精读,深度学习,自然语言处理,人工智能

这种解码,可以解决EPO和SEO的情况,SEO:(Homes,Lives_In,UK),EPO:(Uk,Contains,London)

Experiments

unirel,论文精读,深度学习,自然语言处理,人工智能
WebNLG的准确率超过了人类的新能。


Effect of the Unified Representation

U n i R e l u n u s e d UniRel_{unused} UniRelunused:在微调阶段,对那些被标记成[unused]的词向量随机初始化【目的为了将词无意义化,[unused]是Bert的占位符】,可以看出准确率在下降,进而得出有意义的信息的重要性。由于WebNLG数据少关系多,所有性能下降的更多。

  • 在WebNLG上不同数量样本进行训练
    unirel,论文精读,深度学习,自然语言处理,人工智能

Effect of the Unified Interaction

U n i R e l s e p a r a t e UniRel_{separate} UniRelseparate:以单独的方式对提取到的关系序列(E-R、R-E)这两种关系进行建模。
方式:

  1. 由同一个BERT获得句子的向量矩阵序列自然文本
  2. 然后使用两个转换层获得两个向量矩阵的Q、K
  3. 最后Interaction Map由Q、K的点生成出来
    因为对实体-关系作为独立输出,因此深层的Transformer只能独立的对实体对和关系的内部联系进行建模、可以看出性能下降。下图为F1指数
    unirel,论文精读,深度学习,自然语言处理,人工智能

Computational Efficiencyy

unirel,论文精读,深度学习,自然语言处理,人工智能

  • L:三元组的个数
    unirel,论文精读,深度学习,自然语言处理,人工智能
    在复杂的情况上,也超过了其他的基线模型,尤其是在SEO和EPO方面

个人心得体会

文中作者其实是使用了提示学习的方法,通过使用人工标记关系词将文章效果进行提升。文章来源地址https://www.toymoban.com/news/detail-761994.html

到了这里,关于[实体关系抽取|顶刊论文]UniRel:Unified Representation and Interaction for Joint Relational Triple Extraction的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 信息抽取命名实体识别和关系抽取)

    信息抽取的定义为:从自然语言文本中 抽取指定类型的实体,关系、事件等事实信息 。并形成结构化数据输出的文本处理技术。 信息抽取是从文本数据中抽取特定信息的一种技术,文本数据由医学具体的单位构成,例如, 句子、段落、篇章。本文信息正式由一些小的具体的

    2024年02月01日
    浏览(28)
  • chatgpt实现NLP基本任务(实体识别、关系抽取、属性抽取、事件抽取、文本分类)

    抽取文本: 驻港部队从1993年初开始组建,1996年1月28日组建完毕,1997年7月1日0时进驻香港,取代驻港英军接管香港防务,驻港军费均由中央人民政府负担。《中华人民共和国香港特别行政区驻军法》规定了驻香港部队的职责为防备和抵抗侵略,保卫香港特别行政区的安全以及

    2024年02月13日
    浏览(36)
  • 手把手教学构建农业知识图谱:农业领域的信息检索+智能问答,命名实体识别,关系抽取,实体关系查询

    项目设计集合(人工智能方向):助力新人快速实战掌握技能、自主完成项目设计升级,提升自身的硬实力(不仅限NLP、知识图谱、计算机视觉等领域) :汇总有意义的项目设计集合,助力新人快速实战掌握技能,助力用户更好利用 CSDN 平台,自主完成项目设计升级,提升自

    2024年02月12日
    浏览(34)
  • UIE在实体识别和关系抽取上的实践

    近期有做信息抽取的需求,UIE在信息抽取方面效果不错。 huggingface上下载UIE模型:PaddlePaddle/uie-base · Hugging Face 点击“Clone Repository”,确定git clone的链接 其中包含大文件,需要在windows安装git-lfs,在https://git-lfs.com/下载git-lfs,安装。 git lfs clone 仓库链接 UIE使用需要安装paddl

    2024年02月13日
    浏览(33)
  • 自然语言处理 Paddle NLP - 基于预训练模型完成实体关系抽取

    基础 自然语言处理(NLP) 自然语言处理PaddleNLP-词向量应用展示 自然语言处理(NLP)-前预训练时代的自监督学习 自然语言处理PaddleNLP-预训练语言模型及应用 自然语言处理PaddleNLP-文本语义相似度计算(ERNIE-Gram) 自然语言处理PaddleNLP-词法分析技术及其应用 自然语言处理Pa

    2024年02月10日
    浏览(35)
  • 探索图像数据中的隐藏信息:语义实体识别和关系抽取的奇妙之旅

    关键信息抽取 (Key Information Extraction, KIE)指的是是从文本或者图像中,抽取出关键的信息。针对文档图像的关键信息抽取任务作为OCR的下游任务,存在非常多的实际应用场景,如表单识别、车票信息抽取、身份证信息抽取等。然而,使用人力从这些文档图像中提取或者收集关键

    2024年02月10日
    浏览(46)
  • 【深度学习】关系抽取概念及相关论文解读

            信息抽取是构建知识图谱的必要条件。知识图谱中以(subject,relation,object)三元组的形式表示数据。信息抽取分为两大部分,一部分是命名实体识别,识别出文本中的实体,另外就是关系抽取,对识别出来的实体构建对应的关系,两者便是构建三元组的基本组成

    2024年02月04日
    浏览(26)
  • 好文推荐 A transformer-based representation-learning model with unified processing of multimodal input

    论文地址:https://www.nature.com/articles/s41551-023-01045-x 代码地址:https://github.com/RL4M/IRENE 基于Transformer的表示学习模型,作为临床诊断辅助工具,以统一的方式处理多模态输入。将图像与文字转化为visual tokens和text tokens,通过一个双向的跨模态注意力机制块共同学习不同信息间的

    2024年02月07日
    浏览(26)
  • 机器人领域顶刊TRO,TASE及RAL的区别与关系

    一、背景 机器人领域越来越火,特别是在具身智能的加持下,让机器人在不久的未来可以完成更多复杂的任务,进入到我们的日常生活(不过应该还需要很长很长时间)。作为机器人方向的Researcher,我们会看许多机器人相关的论文,如TRO,TASE,RAL等,这里简要介绍下他们的区

    2024年01月17日
    浏览(26)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包