《论文阅读》Unified Named Entity Recognition as Word-Word Relation Classification

这篇具有很好参考价值的文章主要介绍了《论文阅读》Unified Named Entity Recognition as Word-Word Relation Classification。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

总结

  • 将NER视作是word-word间的 Relation Classification。 这个word-word 间的工作就很像是TPlinker那个工作,那篇工作是使用token间的 link。
  • 推荐指数:★★★☆☆
  • 值得学习的点:
    (1)用关系抽取的方法做NER抽取
    (2)用空洞卷积解决词间交互问题
    (3)CLN(conditional LayerNorma)的使用

1. 动机

统一三类任务(flat、overlapped、nested NER)的处理
span-based 的方法 只关注边界识别。
sequence-to-sequence 的模型有暴露偏差的影响

2. 想法

  • 建模实体词间的简单邻接关系(用NNW,THW-*)
  • multi-granularity 2D convolutions for better refining the grid representations. (提出一个多粒度的二维卷积用于更好的refine grid 的表示)

3. 模型

3.1 方法介绍

下面先介绍本文的方法思想。
《论文阅读》Unified Named Entity Recognition as Word-Word Relation Classification
作者对统一的NER任务进行了介绍:
《论文阅读》Unified Named Entity Recognition as Word-Word Relation Classification
就是将三种NER统一成一个 token pairs 的关系抽取任务。(相当于将这个NER的任务转换成了关系抽取的任务。)这里的关系预定义了三种:None, Next-Neighboring-Word, Tail-Head-Word-*。那么就详细介绍一下这三种关系代表啥意思:

  • None: 这两个token之间没有关系;
  • Next-Neighboring-Word(NNW):说明这一对token pair 属于的是同一个entity mention. gird 中行的下标的紧跟着的一个词就是列下标中的那个词,例如坐标(i,j) 代表i这个词的后来者就是j这个词。
  • Tail-Head-Word-*(THW): grid 中的行所在的那个词是这个entity mention的tail,列所在的那个词是head。 * 代表的是实体类型的意思。

3.2 模型架构

上面讲了本文的主要方法思想,下面就看下本文的提出的模型的架构:

《论文阅读》Unified Named Entity Recognition as Word-Word Relation Classification
该模型主要分成三部分:

  • 第一部分:BERT+LSTM 的编码器,用于编码文本
  • 第二部分:卷积层,用于构建、改善 word-pair grid的表示,用于后面的word-word 的关系分类。
    从之前的工作中,可以看出CNN是非常适合做2D convolution的。

看下这个CLN是啥,
word-pair 的 grid是一个3维的矩阵。对于word pair ( x i , x j ) (x_i,x_j) (xi,xj) 的表示 V i j V_{ij} Vij 可以被认为是x_i 的表示 h_i 和 x_j 的表示的拼接。根据CLN这个方法来计算 V i j V_{ij} Vij
《论文阅读》Unified Named Entity Recognition as Word-Word Relation Classification
这个CLN 有啥用?为啥要用这个?

受BERT的三个输入embedding 启发,作者这里使用了是三个word embedding。其中 V 表示词向量, E d E^d Ed表示相对位置信息(每对words), E t E^t Et表示region information 用于区分出是上三角、下三角区域。然后交由一个MLP做映射处理。

接着 Multi-Granularity Dilated Convolution
受TextCNN启发,使用多个2维空洞卷积。用于捕捉不同距离间的词交互。

  • 第三部分:一个co-predictor layer,(包含一个biaffine classifier 和一个multi-layer perceptron) 用于推理出所有的word pair 间的关系

4.实验

略~文章来源地址https://www.toymoban.com/news/detail-412998.html

关键参数

问题

  • the kernel bottleneck of unified NER 是啥?
  • Current best-performing method

到了这里,关于《论文阅读》Unified Named Entity Recognition as Word-Word Relation Classification的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文阅读 Interpretable Unified Language Checking

    本文提出了一种新的方法来解决多种自然语言处理任务中的问题,包括公平性检查、事实检查、虚假新闻检测和对抗攻击检测等。该方法基于大型语言模型和少量人类标注的提示信息,通过在模型中引入相应的提示,来提高模型的性能和可解释性。该论文的实际意义非常重大

    2024年02月11日
    浏览(41)
  • 论文阅读 - Understanding Diffusion Models: A Unified Perspective

    假设给定了一个数据集 { x 1 , x 2 , x 3 , . . . , x N } {x_1, x_2, x_3, ..., x_N} { x 1 ​ , x 2 ​ , x 3 ​ , ... , x N ​ } ,在图像生成任务中,每个 x i x_i x i ​ 就是一张图片,每个点都是独立采样于真实数据分布 p ( x ) p(x) p ( x ) 的。 生成模型 的目的就是通过有限的数据集 { x i } {x_i}

    2024年02月12日
    浏览(63)
  • Generative Diffusion Prior for Unified Image Restoration and Enhancement 论文阅读笔记

    这是CVPR2023的一篇用diffusion先验做图像修复和图像增强的论文 之前有一篇工作做了diffusion先验(Bahjat Kawar, Michael Elad, Stefano Ermon, and Jiaming Song, “Denoising diffusion restoration models,” arXiv preprint arXiv:2201.11793, 2022. 2, 4, 6, 7),但这个模型只能做线性的退化,对于暗图增强这种非线性

    2024年02月15日
    浏览(52)
  • 图像融合论文阅读:U2Fusion: A Unified Unsupervised Image Fusion Network

    @ARTICLE{9151265, author={Xu, Han and Ma, Jiayi and Jiang, Junjun and Guo, Xiaojie and Ling, Haibin}, journal={IEEE Transactions on Pattern Analysis and Machine Intelligence}, title={U2Fusion: A Unified Unsupervised Image Fusion Network}, year={2022}, volume={44}, number={1}, pages={502-518}, doi={10.1109/TPAMI.2020.3012548}} SCI A1;IF 23.6 论文地址 代码

    2024年01月17日
    浏览(55)
  • 论文阅读:FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects-6DoF位姿估计

    CVPR2024满分文章,英伟达团队工作。 文章地址:https://arxiv.org/pdf/2312.08344.pdf 代码地址:https://github.com/NVlabs/FoundationPose 提出FoundationPose,能用于6D位姿估计与跟踪,无论模型是否可用都支持。只需要CAD模型或少量参考图像就能进行zero-shot测试,泛化能力依靠大规模训练, LLM 和

    2024年04月29日
    浏览(49)
  • 【视频异常检测】Delving into CLIP latent space for Video Anomaly Recognition 论文阅读

    中文题目:视频异常识别的CLIP潜在空间研究 文章信息: 原文链接:https://arxiv.org/abs/2310.02835 源代码:https://github.com/luca-zanella-dvl/AnomalyCLIP 我们介绍了一种新的方法AnomalyCLIP,它首次将大型语言和视觉(LLV)模型(如CLIP)与多实例学习相结合,用于联合视频异常检测和分类。

    2024年04月14日
    浏览(91)
  • 【论文阅读笔记】Emu Edit: Precise Image Editing via Recognition and Generation Tasks

    Emu edit是一篇 图像编辑Image Editing 的文章,和instruct pix2pix类似,选择了合成数据作为训练数据,不是zero-shot任务,并进一步将多种任务都整合为生成任务,从而提高模型的编辑能力。本篇文章的效果应该目前最好的,在local和global编辑甚至其他代理任务(分割、边缘检测等)

    2024年02月04日
    浏览(54)
  • 【开放集检测】OpenGAN: Open-Set Recognition via Open Data Generation 论文阅读

    Machine learning systems that operate in the real openworld invariably encounter test-time data that is unlike training examples, such as anomalies or rare objects that were insufficiently or even never observed during training. invariably:一贯的 … can be crisply formulated as … 可以被很清晰的定义/表述为 an elegant idea is to… 一个绝佳

    2024年02月02日
    浏览(43)
  • 论文阅读:Towards a Unified View of Parameter-Efficient Transfer Learning对参数高效迁移学习的统一看法

    Towards a Unified View of Parameter-Efficient Transfer Learning对参数高效迁移学习的统一看法 参数高效的微调在NLP中是较新的方法,早期的代表工作是2019年发表的adapter。2021年开始有越来越多的人关注这一方向并有不同的方法被提出, 代表工作有prefix tuning, P-tuning, prompt tuning, bitfit, LoRA等

    2024年02月08日
    浏览(48)
  • EEG-GNN论文阅读和分析:《EEG Emotion Recognition Using Dynamical Graph Convolutional Neural Networks》

    下面所有博客是个人对EEG脑电的探索,项目代码是早期版本不完整,需要完整项目代码和资料请私聊。 数据集 1、脑电项目探索和实现(EEG) (上):研究数据集选取和介绍SEED 相关论文阅读分析: 1、EEG-SEED数据集作者的—基线论文阅读和分析 2、图神经网络EEG论文阅读和分析:《

    2024年02月07日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包