【论文阅读】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction

这篇具有很好参考价值的文章主要介绍了【论文阅读】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

标题:RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction
会议:ACL2023
网址:https://aclanthology.org/2023.acl-long.369
github:https://github.com/zweny/RE-Matching

研究背景

关系抽取:relation extraction是NLP的一个基本任务,目的是从非结构化文本中提取实体之间的关系。关系抽取有助于构建知识图谱,支持问答系统,提高信息检索的效率等。
例如,给定一个句子“史蒂夫:乔布斯创立了苹果公司”,关系抽取的任务就是识别出实体“史蒂夫乔布斯”和“苹果公司”,并识别出他们之间的关系“创立了”。

动机

关系抽取的挑战:
由于新关系的快速增长,为每个关系不断标注数据既昂贵又不切实际。因此,如何有效地进行零样本关系抽取(ZeroRE) ,即从未见过的关系中提取关系,成为了一个重要的研究问题。
关系抽取的现状和不足:
目前,主流的零样本关系抽取方法是基于语义匹配的,即给定一个输入实例和一段关系描述,计算它们之间的语义相似度。没有考虑关系数据的匹配模式,即输入中的实体应该与描述中的类别进行精确匹配,而与关系无关的上下文应该在匹配时被忽略。

创新

研究创新:
1.本文提出了一种用于零样本关系抽取的细粒度语义匹配方法。
2.该方法显式地建模了关系数据的匹配模式,将句子级别的相似度分解为实
体和上下文匹配分数。

  • 该方法还设计了一个上下文提炼模块,使用特征蒸馏方式,用于识别和减
    少与关系无关的特征对上下文匹配的负面影响。
  • 细粒度语义匹配:指将整体的句子级别的相似度分解为更细粒度的相似度,如词汇级别或短语级别的相似度,从而更准确地捕捉文本之间的语义关系。细粒度语义匹配通常需要对文本进行编码和交互两个步骤。编码步骤是将文本转换为数值向量(也称为嵌入),交互步骤是利用不同的机制(如点积、余弦、注意力等)来计算文本向量之间的相似度分数。细粒度语义匹配在自然语言处理中有很多应用,如问答、文本蕴含、关系抽取等。
  • 显示建模:“{实体1}是{实体2}的创始人”,然后用这个模式去匹配文本中的信息
    【论文阅读】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction,论文阅读
    Figure1:一个关系数据匹配模式的例子。输入的句子包含一个给定的实体对,该实体对应该匹配对应的上位概念(通常是实体类型)。上下文描述了实体之间的关系,包含了与关系无关的冗余信息,在进行匹配时应该被忽略。
    关系属于有独特的匹配模式。这是一般的匹配方法没有明确考虑到的(fig 1):输入中的实体应该与他们在描述中的上位概念完全匹配,公司就与公司匹配,地点就与地点匹配。冗余信息则需要过滤。不过问题是:冗余成分在匹配时由于缺乏显示注释,模型要学会识别他们很困难。

方法介绍

任务定义和方法概述

■任务定义:
指在零样本关系抽取(ZeroRE) 中,目标是从已知关系Rs学习并推广到未知关系Ru。这两个集
合是不相交的,即Rs∩Ru = 0,并且只有在训练阶段才能获得已知关系Rs的样本。
■方法概述:
提出了一种细粒度语义匹配方法,该方法显式地建模了关系数据的匹配模式,将句子级别的相
似度分解为实体和上下文匹配分数。此外,我们设计了一个特征蒸馏模块,以自适应地识别关
系无关的特征,并减少它们对上下文匹配的负面影响。

匹配模型

■训练集: D = {((xi, ei1,ei2,Yi,di))|i= 1…N},一共N个样本
■样本组成:xi是输入实例,ei1,ei2是 目标实体对,yi 属于Rs,di是y;对 应的关系描述
■优化匹配模型: M(x,e1,e2,d)→ s∈R
衡量方法:计算x与d之间的语义相似度。将输入和每个候选关系描述转化为数值向量,然后
通过比较向量相似度(如余弦相似度cosinesimilarity)来确认最可能对应的关系描述。
测试:将匹配模型M迁移学习,抽取未知的关系Ru .
有一个样本(x;,ei1, eiz),它表示R中的一个未见过的关系。找到与输入样本相似度最高的来进
行预测。

细粒度语义匹配方法

[传统的语义匹配方法通常将编码和匹配视为一个整体的过程。这些方法主要依赖于预定义的规则、知识图谱、本体或者语料库来进行语义匹配]
在这些方法中,文本首先被编码为数值向量(也称为嵌入),然后这些向量被用来计算文本之间的相似度。然而,这些方法通常没有显式地考虑文本中的细粒度信息,如词汇级别或短语级别的相似度,因此可能无法准确地捕捉文本之间的语义关系。此外,这些方法的性能受到手动定义规则的影响,对非线性灰度失真的抵抗力较弱,匹配效率和准确性较差。
Figure2:
【论文阅读】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction,论文阅读
■左侧: 输入实例与关系描述分开编码。编码模块负责提取输入实例和关系描述中的实体和
上下文信息, 将其编码为固定长度的表示,以便进行后续的细粒度匹配。
■中间:实体和上下文匹配计算相似度。将句子级别的相似度分解为实体匹配分数和上下文匹配分数。
■右侧:设计一个特征蒸馏模块减少无关组件对上下文匹配的影响。

输入-描述编码模块

【论文阅读】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction,论文阅读
输入实例与关系描述
分开编码。
1.将实例和候选 描述中的实体提取出来。将其编码为固定长度向量。
2.采用Sentence - BERT来扩展候选描述d的头尾实体dh,dt
3.采用BERT编码输入实例x的上下文和实体xih,xti表示。
4.计算复杂度从0(nm) →o(n +m)

  • 扩展头尾实体描述的目的是为了丰富实体信息,从而提高实体匹配的效果。在关系数据中,实体匹配是一个重要的组成部分,它要求输入中的实体与描述中的超类精确匹配。然而,在描述中,通常只有一两个词来标识实体类型,这可能导致实体信息不足,从而影响匹配的准确性。
  • 为了解决这个问题,我们探索了不同的方法来自动构建和扩展实体描述,如使用同义词、基于规则的模板填充等。这些方法可以增加实体描述的丰富性和流畅性,从而刺激预训练模型输出高质量的实体表示。实验结果表明,使用这些方法可以显著提高匹配F1分数,相比于只使用原始的关键词方法
    关系描述编码器: 例如"headquartered. in" (“the headquarters of an organization is located in a place")这个描述被编码成一个表示d,我们可以通过比较输入实例和这个表示d的相似度来判断输入实例是否具有"headquartered_ in"这个关系。
    关键词:可以直接使用d中的实体类型(entity type)作为实体描述。比如headquartered. _in, dh是organization, dt 是place
    同义词:可以使用Wikidata提取上义词的同义词。比如d’是“organization, institution, company"
    基于规则的模板填充

    输入实例编码器:输入实例xi = {W1, we… wn}用4个特殊token :“[Eh], [\Eh], [Et], [\Et]"。
    插入到头实体ei1和尾实体ei2中。通过隐藏层+MaxPool得到头尾实体表示。
    【论文阅读】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction,论文阅读

上下文关系特征蒸馏

【论文阅读】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction,论文阅读

【论文阅读】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction,论文阅读
梯度反转层:
【论文阅读】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction,论文阅读
关系特征蒸馏层
【论文阅读】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction,论文阅读
细粒度匹配训练:
【论文阅读】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction,论文阅读

实验

数据集:
1、FewRel:从维基百科收集的少样本关系分类数据集,包含80个关系,每个关系包含700
个句子。
2、Wiki-ZSL: 源自维基数据知识库,由93,383个句子组成,包含113种关系类型。
验证集:
随机选取5个关系作为验证集,再随机选择m∈{5,10,15}个作为测试集中的未知关系,其
余作为训练集的已知关系。
模型: R-BERT、ESIM、ZS-BERT、 PromptMatch、 REPrompt
使用Bert-base-uncased作为输入实例编码器,fixed sentence-Bert作为关系描述编码器
实验一:
【论文阅读】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction,论文阅读
1.ZS-Bert为ZeroRE,但siamese. scheme限制了输入和关系描述之间的细粒度交互,因此性能次优。
2.PromptMatch使用全编码方案,可以通过自注意力隐式建模细粒度交互。但所提出的方法仍然能够超越它。一个可能的原因是关系匹配模式作为一种归纳偏差,缓解了对训练集中所见关系的过拟合,因此我们的模型具有更好的泛化性。
消融实验:
【论文阅读】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction,论文阅读
如果去除上下文蒸馏模块(w/o Proi) ,匹配性能下降。说明上下文中不相关的关系信息会干扰关系数据的匹配,而在蒸馏模块中进行投影可以有效降低这种影响。
实体信息在在关系数据(见w/o Ent)中发挥着重要的作用。显式地建模实体与其上位概念之间的匹配,显著地提高了模型的性能。
作为两个至关重要的组成部分,当上下文蒸馏和实体匹配都被移除(即w/oboth)时,匹配就退化为句子级别的匹配,性能会受到严重影响文章来源地址https://www.toymoban.com/news/detail-764425.html

到了这里,关于【论文阅读】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 《论文阅读:Dataset Condensation with Distribution Matching》

    点进去这篇文章的开源地址,才发现这篇文章和DC DSA居然是一个作者,数据浓缩写了三篇论文,第一篇梯度匹配,第二篇数据增强后梯度匹配,第三篇匹配数据分布。DC是匹配浓缩数据和原始数据训练一次后的梯度差,DSA是在DC前加入了一层数据增强,DM直接就匹配浓缩数据和

    2024年02月08日
    浏览(48)
  • 【论文阅读】Circinus: Fast Redundancy-Reduced Subgraph Matching

    Jin T, Li B, Li Y, et al. Circinus: Fast redundancy-reduced subgraph matching[J]. Proceedings of the ACM on Management of Data, 2023, 1(1): 1-26. 子图匹配是图分析中的重要问题之一。目前已经提出了许多针对子图匹配的算法和系统。这些工作大部分都遵循乌尔曼的回溯方法,因为它在处理爆炸性数量的中间

    2024年02月03日
    浏览(35)
  • 论文阅读《Domain Generalized Stereo Matching via Hierarchical Visual Transformation》

    论文地址:https://openaccess.thecvf.com/content/CVPR2023/html/Chang_Domain_Generalized_Stereo_Matching_via_Hierarchical_Visual_Transformation_CVPR_2023_paper.html    立体匹配模型是近年来的研究热点。但是,现有的方法过分依赖特定数据集上的简单特征,导致在新的数据集上泛化能力不强。现有的立体匹配

    2024年02月04日
    浏览(45)
  • 《论文阅读27》SuperGlue: Learning Feature Matching with Graph Neural Networks

    研究领域: 图像特征点匹配 论文:SuperGlue: Learning Feature Matching with Graph Neural Networks CVPR 2020 veido 论文code  [参考] [参考] [参考]    SuperGlue:使用图神经网络学习特征匹配 本文介绍了SuperGlue,一种神经网络,通过 共同寻找对应点和拒绝不匹配点 来匹配两组本地特征。分配估

    2024年02月05日
    浏览(49)
  • DETR 系列有了新发现?DETRs with Hybrid Matching 论文阅读笔记

    写在前面   有个城市之星的活动,加紧赶一篇博文出来吧。这是 VALSE 2023 大会(VALSE 2023 无锡线下参会个人总结 6月11日-2)上的一篇 Poster 论文,遂找来读读。 论文地址:DETRs with Hybrid Matching 代码地址:https://github.com/HDETR 收录于:CVPR 2023 PS:2023 每周一篇博文,主页 更多干

    2024年02月07日
    浏览(47)
  • OrienterNet: visual localization in 2D public maps with neural matching 论文阅读

    题目 :OrienterNet: visual localization in 2D public maps with neural matching 作者 :Paul-Edouard Sarlin, Daniel DeTone 项目地址 :github.com/facebookresearch/OrienterNet 来源 :CVPR 时间 :2023 人类可以使用简单的 2D 地图在 3D 环境中定位自己。不同的是,视觉定位算法主要依赖于复杂的 3D 点云,随着时

    2024年02月11日
    浏览(52)
  • Llama 2 论文《Llama 2: Open Foundation and Fine-Tuned Chat Models》阅读笔记

    继2023年2月开源Llama之后,2023年7月Meta又开源了模型参数从70 亿到 700 亿不等的Llama 2,并同时开源了针对对话场景优化的LLaMA2-CHAT。LLama2 论文描述了微调和提高LLM安全性的方法以及在模型开发过程中的一些的观察。 论文摘要翻译:在这项工作中,我们开发并开源了 Llama 2,这是

    2024年02月09日
    浏览(51)
  • 论文阅读《GlueStick: Robust Image Matching by Sticking Points and Lines Together》

    论文地址:https://arxiv.org/abs/2304.02008 源码地址:https://github.com/cvg/GlueStick   针对视角变化时在闭塞、无纹理、重复纹理区域的线段匹配难的问题,本文提出一种新的匹配范式(GlueStick),该方法基于深度图神经网络将点、线的描述符统一到一个框架中,利用点之间的信息将

    2024年02月08日
    浏览(43)
  • 【论文阅读】A Deep Behavior Path Matching Network for Click-ThroughRate Prediction

    用于点击率预测的深度行为路径匹配网络 用户在电子商务应用程序上的行为不仅包含对商品的各种反馈,有时还隐含着用户决策的认知线索。为了解用户决策背后的心理过程,我们提出了行为路径,并建议将用户当前行为路径与历史行为路径相匹配,以预测用户在应用程序上

    2024年03月28日
    浏览(53)
  • 【论文阅读】Progressive Spatio-Temporal Prototype Matching for Text-Video Retrieval

    论文链接:https://openaccess.thecvf.com/content/ICCV2023/papers/Li_Progressive_Spatio-Temporal_Prototype_Matching_for_Text-Video_Retrieval_ICCV_2023_paper.pdf 代码链接:https://github.com/imccretrieval/prost 文章发表于ICCV 2023,来自中科大IMCC实验室。 文本-视频检索是近年来比较新兴的领域,随着多模态和大模型的

    2024年02月04日
    浏览(48)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包