《论文阅读》Unified Named Entity Recognition as Word-Word Relation Classification

这篇具有很好参考价值的文章主要介绍了《论文阅读》Unified Named Entity Recognition as Word-Word Relation Classification。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

总结

  • 将NER视作是word-word间的 Relation Classification。 这个word-word 间的工作就很像是TPlinker那个工作,那篇工作是使用token间的 link。
  • 推荐指数:★★★☆☆
  • 值得学习的点:
    (1)用关系抽取的方法做NER抽取
    (2)用空洞卷积解决词间交互问题
    (3)CLN(conditional LayerNorma)的使用

1. 动机

统一三类任务(flat、overlapped、nested NER)的处理
span-based 的方法 只关注边界识别。
sequence-to-sequence 的模型有暴露偏差的影响

2. 想法

  • 建模实体词间的简单邻接关系(用NNW,THW-*)
  • multi-granularity 2D convolutions for better refining the grid representations. (提出一个多粒度的二维卷积用于更好的refine grid 的表示)

3. 模型

3.1 方法介绍

下面先介绍本文的方法思想。
《论文阅读》Unified Named Entity Recognition as Word-Word Relation Classification
作者对统一的NER任务进行了介绍:
《论文阅读》Unified Named Entity Recognition as Word-Word Relation Classification
就是将三种NER统一成一个 token pairs 的关系抽取任务。(相当于将这个NER的任务转换成了关系抽取的任务。)这里的关系预定义了三种:None, Next-Neighboring-Word, Tail-Head-Word-*。那么就详细介绍一下这三种关系代表啥意思:

  • None: 这两个token之间没有关系;
  • Next-Neighboring-Word(NNW):说明这一对token pair 属于的是同一个entity mention. gird 中行的下标的紧跟着的一个词就是列下标中的那个词,例如坐标(i,j) 代表i这个词的后来者就是j这个词。
  • Tail-Head-Word-*(THW): grid 中的行所在的那个词是这个entity mention的tail,列所在的那个词是head。 * 代表的是实体类型的意思。

3.2 模型架构

上面讲了本文的主要方法思想,下面就看下本文的提出的模型的架构:

《论文阅读》Unified Named Entity Recognition as Word-Word Relation Classification
该模型主要分成三部分:

  • 第一部分:BERT+LSTM 的编码器,用于编码文本
  • 第二部分:卷积层,用于构建、改善 word-pair grid的表示,用于后面的word-word 的关系分类。
    从之前的工作中,可以看出CNN是非常适合做2D convolution的。

看下这个CLN是啥,
word-pair 的 grid是一个3维的矩阵。对于word pair ( x i , x j ) (x_i,x_j) (xi,xj) 的表示 V i j V_{ij} Vij 可以被认为是x_i 的表示 h_i 和 x_j 的表示的拼接。根据CLN这个方法来计算 V i j V_{ij} Vij
《论文阅读》Unified Named Entity Recognition as Word-Word Relation Classification
这个CLN 有啥用?为啥要用这个?

受BERT的三个输入embedding 启发,作者这里使用了是三个word embedding。其中 V 表示词向量, E d E^d Ed表示相对位置信息(每对words), E t E^t Et表示region information 用于区分出是上三角、下三角区域。然后交由一个MLP做映射处理。

接着 Multi-Granularity Dilated Convolution
受TextCNN启发,使用多个2维空洞卷积。用于捕捉不同距离间的词交互。

  • 第三部分:一个co-predictor layer,(包含一个biaffine classifier 和一个multi-layer perceptron) 用于推理出所有的word pair 间的关系

4.实验

略~文章来源地址https://www.toymoban.com/news/detail-412998.html

关键参数

问题

  • the kernel bottleneck of unified NER 是啥?
  • Current best-performing method

到了这里,关于《论文阅读》Unified Named Entity Recognition as Word-Word Relation Classification的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • 论文阅读 Interpretable Unified Language Checking

    论文阅读 Interpretable Unified Language Checking

    本文提出了一种新的方法来解决多种自然语言处理任务中的问题,包括公平性检查、事实检查、虚假新闻检测和对抗攻击检测等。该方法基于大型语言模型和少量人类标注的提示信息,通过在模型中引入相应的提示,来提高模型的性能和可解释性。该论文的实际意义非常重大

    2024年02月11日
    浏览(6)
  • 论文阅读 - Understanding Diffusion Models: A Unified Perspective

    论文阅读 - Understanding Diffusion Models: A Unified Perspective

    假设给定了一个数据集 { x 1 , x 2 , x 3 , . . . , x N } {x_1, x_2, x_3, ..., x_N} { x 1 ​ , x 2 ​ , x 3 ​ , ... , x N ​ } ,在图像生成任务中,每个 x i x_i x i ​ 就是一张图片,每个点都是独立采样于真实数据分布 p ( x ) p(x) p ( x ) 的。 生成模型 的目的就是通过有限的数据集 { x i } {x_i}

    2024年02月12日
    浏览(9)
  • Generative Diffusion Prior for Unified Image Restoration and Enhancement 论文阅读笔记

    Generative Diffusion Prior for Unified Image Restoration and Enhancement 论文阅读笔记

    这是CVPR2023的一篇用diffusion先验做图像修复和图像增强的论文 之前有一篇工作做了diffusion先验(Bahjat Kawar, Michael Elad, Stefano Ermon, and Jiaming Song, “Denoising diffusion restoration models,” arXiv preprint arXiv:2201.11793, 2022. 2, 4, 6, 7),但这个模型只能做线性的退化,对于暗图增强这种非线性

    2024年02月15日
    浏览(15)
  • 图像融合论文阅读:U2Fusion: A Unified Unsupervised Image Fusion Network

    图像融合论文阅读:U2Fusion: A Unified Unsupervised Image Fusion Network

    @ARTICLE{9151265, author={Xu, Han and Ma, Jiayi and Jiang, Junjun and Guo, Xiaojie and Ling, Haibin}, journal={IEEE Transactions on Pattern Analysis and Machine Intelligence}, title={U2Fusion: A Unified Unsupervised Image Fusion Network}, year={2022}, volume={44}, number={1}, pages={502-518}, doi={10.1109/TPAMI.2020.3012548}} SCI A1;IF 23.6 论文地址 代码

    2024年01月17日
    浏览(11)
  • 论文阅读:FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects-6DoF位姿估计

    论文阅读:FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects-6DoF位姿估计

    CVPR2024满分文章,英伟达团队工作。 文章地址:https://arxiv.org/pdf/2312.08344.pdf 代码地址:https://github.com/NVlabs/FoundationPose 提出FoundationPose,能用于6D位姿估计与跟踪,无论模型是否可用都支持。只需要CAD模型或少量参考图像就能进行zero-shot测试,泛化能力依靠大规模训练, LLM 和

    2024年04月29日
    浏览(5)
  • 【开放集检测】OpenGAN: Open-Set Recognition via Open Data Generation 论文阅读

    【开放集检测】OpenGAN: Open-Set Recognition via Open Data Generation 论文阅读

    Machine learning systems that operate in the real openworld invariably encounter test-time data that is unlike training examples, such as anomalies or rare objects that were insufficiently or even never observed during training. invariably:一贯的 … can be crisply formulated as … 可以被很清晰的定义/表述为 an elegant idea is to… 一个绝佳

    2024年02月02日
    浏览(8)
  • 【视频异常检测】Delving into CLIP latent space for Video Anomaly Recognition 论文阅读

    【视频异常检测】Delving into CLIP latent space for Video Anomaly Recognition 论文阅读

    中文题目:视频异常识别的CLIP潜在空间研究 文章信息: 原文链接:https://arxiv.org/abs/2310.02835 源代码:https://github.com/luca-zanella-dvl/AnomalyCLIP 我们介绍了一种新的方法AnomalyCLIP,它首次将大型语言和视觉(LLV)模型(如CLIP)与多实例学习相结合,用于联合视频异常检测和分类。

    2024年04月14日
    浏览(6)
  • 【论文阅读笔记】Emu Edit: Precise Image Editing via Recognition and Generation Tasks

    【论文阅读笔记】Emu Edit: Precise Image Editing via Recognition and Generation Tasks

    Emu edit是一篇 图像编辑Image Editing 的文章,和instruct pix2pix类似,选择了合成数据作为训练数据,不是zero-shot任务,并进一步将多种任务都整合为生成任务,从而提高模型的编辑能力。本篇文章的效果应该目前最好的,在local和global编辑甚至其他代理任务(分割、边缘检测等)

    2024年02月04日
    浏览(23)
  • 论文阅读:Towards a Unified View of Parameter-Efficient Transfer Learning对参数高效迁移学习的统一看法

    论文阅读:Towards a Unified View of Parameter-Efficient Transfer Learning对参数高效迁移学习的统一看法

    Towards a Unified View of Parameter-Efficient Transfer Learning对参数高效迁移学习的统一看法 参数高效的微调在NLP中是较新的方法,早期的代表工作是2019年发表的adapter。2021年开始有越来越多的人关注这一方向并有不同的方法被提出, 代表工作有prefix tuning, P-tuning, prompt tuning, bitfit, LoRA等

    2024年02月08日
    浏览(9)
  • EEG-GNN论文阅读和分析:《EEG Emotion Recognition Using Dynamical Graph Convolutional Neural Networks》

    EEG-GNN论文阅读和分析:《EEG Emotion Recognition Using Dynamical Graph Convolutional Neural Networks》

    下面所有博客是个人对EEG脑电的探索,项目代码是早期版本不完整,需要完整项目代码和资料请私聊。 数据集 1、脑电项目探索和实现(EEG) (上):研究数据集选取和介绍SEED 相关论文阅读分析: 1、EEG-SEED数据集作者的—基线论文阅读和分析 2、图神经网络EEG论文阅读和分析:《

    2024年02月07日
    浏览(5)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包