Unified Named Entity Recognition as Word-Word Relation Classification

这篇具有很好参考价值的文章主要介绍了Unified Named Entity Recognition as Word-Word Relation Classification。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

原文链接:https://arxiv.org/pdf/2112.10070.pdf

AAAI 2022

介绍

         NER主要包括三种类型:flatoverlap和discontinuous。目前效果最好的模型主要是:span-based和seq2seq,但前者注重于边界的识别,后者可能存在exposure bias。

        作者对entity words之间的相邻关系进行建模,将NER定义为一个word-word之间的关系分类任务,一共定义三种关系NONENext-Neighboring-Word(NNW)Tail-Head-Word-*(THW-S)如下图所示:

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

方法

        模型的整体架构如下图所示,主要包括三个部分:BERT和LSTM组合而成的encoder、用于建立和完善word-pair grid表征的卷积层,Biaffine和MLP联合的分类层

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

Encoder Layer

        使用BERT+BiLSTM来作为encoder,将一个词的pieces经过一个max pooling来得到该词的表征,送入到BiLSTM来进一步获取上下文信息,得到word表征为,表示每个word embedding的维度。

Convolution Layer 

        使用CNN来优化表征,包括三个模块,1)condition layer,用于生成word-pair grid的表征;2)用于丰富word-pair grid表征的bert式grid表征;3)用于捕捉相邻词和distant word之间交互的多粒度扩张卷积。 

Conditional Layer Normalization

        为了预测word pairs之间的关系,将word-pair gird的表征视为3维的矩阵V,vij表示word pair(xi,xj),而不是(xj,xi),因为NNW和THW关系是有方向的,Vij由xi和ji计算得出。如下所示: 

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

BERT-Style Grid Representation Build-Up 

        BERT中的输出由token embedding、position embedding和segment embedding组成,作者受此启发,使用(词的信息)、(每对单词之间的相对位置)和(区域信息,用于表示网格中上三角和下三角)这三种embedding进行concate后送入MLP得到最终的网格表征: 

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

Multi-Granularity Dilated Convolution

         使用不同扩张率()的二维扩张卷积来捕获不同距离word之间的交互,经过多次扩张中,得到最终word-pair的表征,

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

Co-Predictor Layer 

        作者使用MLP和biaffine分别进行预测分类(作者说是因为之前有论文说这样效果更好),最将两者的结果进行合并。不过biaffine模型是将encoder的输出作为输入(即图中虚线的表示) ,使用两个MLP分别计算xi和yj的word presentation,然后使用biaffine classifier来计算这对词之间的关系分数作为预测结果:

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

        而NLP是基于word-pair grid表征,使用一个MLP来计算单词对之间的分数,最后将两者的结果进行结合:

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

Decoder 

        以上步骤后,模型的输出可以视为一个词的有向图,解码的目标就是利用NNW在图中找到从一个词到另一个词的特定路径,每条路对应着一个实体部分。下图描述了4种从易到难的情况:

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

         4)仅使用NNW关系的情况下能在这个例子中找到4条路径,如果只使用THW只能找到识别到ABCD,而不是ACD或者BCD,因此通过同时使用这两者关系来获得正确答案。

Learning

        损失函数:

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

        N是句子中单词的个数,y是gold relation labels的二值向量(xi,yj),r表示集合R中预定义好的第r种关系。 

实验

对比试验

        在英文flat NER数据集上进行实验,结果如下所示:

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

        在中文flat NER数据集上进行实验,结果如下图所示:

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

         在英文overlap数据集上进行实验,结果如下图所示:

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

        在discontinuousNER数据集上进行实验,结果如下图所示: 

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

        在中文overlapNER数据集上进行实验,结果如下图所示:

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

        作者在只有overlap和discontinue的数据集进行了实验,结果如下图所示,这样一对比就突出了W2NER模型的优势。

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

消融实验 

         在三个数据集上进行消融实验,结果如下所示:

Unified Named Entity Recognition as Word-Word Relation Classification,论文,NER,深度学习

         移除NNW关系时,所有数据集上的F1都有所下降,特别时CADEC数据集上,F1下降了4.2%,这是因为CADEC数据种包括不连续实体,如果没有NNW关系,discontinuedNER会被识别为连续span。

总结 

        作者将NER问题视为词与词之间的关系, 这样就能灵活的解决discontinueNER的问题,最后在discontinue的数据集上表现更为明显。不过感觉作者构建的网格有点复杂的亚子(不能用其他方式简化一下吗?),另外,作者也提到使用两个分类器进行分类,对模型的效果也有一定的提升,感觉可以借鉴一下。文章来源地址https://www.toymoban.com/news/detail-563053.html

到了这里,关于Unified Named Entity Recognition as Word-Word Relation Classification的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • PURE:A Frustratingly Easy Approach for Entity and Relation Extraction

    原文链接: https://aclanthology.org/2021.naacl-main.5.pdf ACL 2021          对于命名实体识别和关系提取,最近的研究要么在这两个任务上使用一个预训练结构,要么通过共享表征来进行多任务学习。作者认为实体模型和关系模型在上下文表征中学到了不同的信息,共享它们的表征

    2024年02月08日
    浏览(29)
  • Relation Extraction as Open-book Examination: Retrieval-enhanced Prompt Tuning

    本文是LLM系列文章,针对《Relation Extraction as Open-book Examination: Retrieval 经过预训练的语言模型通过表现出显著的小样本学习能力,对关系提取做出了重大贡献。然而,用于关系提取的提示调优方法可能仍然无法推广到那些罕见或困难的模式。注意,以前的参数学习范式可以被

    2024年02月09日
    浏览(32)
  • 【步态识别】GaitSet 算法学习+配置环境+代码调试运行《GaitSet: Regarding Gait as a Set for Cross-View Gait Recognition》

    关于GaitSet核心算法,建议直接跳到 “4. 算法核心代码——4.1 gaitset.py” 论文地址: https://ieeexplore.ieee.org/document/9351667 CASIA-B数据集下载地址: http://www.cbsr.ia.ac.cn/china/Gait%20Databases%20CH.asp 代码下载地址: https://github.com/AbnerHqC/GaitSet 1. 确定显卡型号 右键“此电脑”——“管理”

    2023年04月08日
    浏览(51)
  • 论文阅读 Interpretable Unified Language Checking

    本文提出了一种新的方法来解决多种自然语言处理任务中的问题,包括公平性检查、事实检查、虚假新闻检测和对抗攻击检测等。该方法基于大型语言模型和少量人类标注的提示信息,通过在模型中引入相应的提示,来提高模型的性能和可解释性。该论文的实际意义非常重大

    2024年02月11日
    浏览(29)
  • vue+relation-graph绘制关系图实用组件

    先在终端执行命令 创建一个vue2的项目 然后在编辑器中打开新创建的项目 在终端中执行命令 引入依赖 这样 我们relation-graph就进来了 然后 我们在需要使用的组件中编写代码如下 这里 首先 大家要缕清关系 我们每个节点都带有id 例如N1 N15 然后 我们设置根节点的id是N1 links梳理

    2024年02月13日
    浏览(32)
  • relation-graph一个vue关系图谱组件的使用

    一个Vue的关系图谱组件,使用非常方便 引入relation-graph 配置图谱的一些默认样式,工具栏等 代码如下(示例): links是指节点之间的关系(link),图谱会根据这些关系来生成线条(Line) 先上图 2、主要代码

    2024年02月17日
    浏览(32)
  • 2023-07-25 monetdb-relation-关键数据结构-记录

    monetdb-relation-关键数据结构-记录

    2024年02月15日
    浏览(26)
  • vue插件——relation-graph——实现关系图功能——技能提升

    在做组织关系图时,经常会遇到关系图的实现要求,就是要将人与人或者组织与组织或者人与组织之间的关系进行一一展示。已知的就是节点和关系。 最近在写后台管理系统时,遇到一个需求,就是要实现关系图: 如下图所示: 在前年写天眼查功能时,我也遇到过这种需求

    2024年02月11日
    浏览(30)
  • 前端-relation-graph实现关系数据展示(关系图/流程图)

    前言: 1. relation-graph 2. relation-graph数据关系组件---官方地址relation-graph - A Relationship Graph Componenthttps://www.relation-graph.com/ 3. 选择relation-graph的理由 4. 项目中引用relation-graph 4.1 下载命令 4.2 在Vue 2 中使用 4.3 在Vue 3 中使用 4.4 在React中使用 5. 简单的实例代码 6. 参考文献      

    2024年02月04日
    浏览(39)
  • Vue与relation-graph:高效打造关系图的秘诀

    产品提需求啦,有一个需求就是实现一个功能:展现各个文件之间的调用关系,通过关系图的形式进行展示出来。 之前考虑使用antv x6实现此功能,但是考虑到只是展示的功能,也不需要进行交互,所以放弃使用antv x6,选择了更加简单的relation-graph插件。 先来看一个示例项目

    2024年02月08日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包