【论文笔记】Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion

这篇具有很好参考价值的文章主要介绍了【论文笔记】Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion

arxiv时间: September 15, 2022
作者单位i: 南洋理工大学
来源: COLING 2022
模型名称: KG-S2S
论文链接: https://arxiv.org/abs/2209.07299
项目链接: https://github.com/chenchens190009/KG-S2S

摘要

以往的研究通常将 KGC 模型与特定的图结构紧密结合,这不可避免地会导致两个缺点

  1. 特定结构的 KGC 模型互不兼容
  2. 现有 KGC 方法无法适应新兴 KG。

提出了KG-S2S

1. 引言

static KGC (SKGC)

temporal KGC (TKGC)

few-shot KGC (FKGC)

KG-S2S包括:

  1. the input representations of entities and relations using Entity Description, Soft Prompt and Seq2Seq Dropout
  2. the constrained inference algorithm empowered by the Prefix Constraints

【论文笔记】Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion,论文阅读,知识图谱,人工智能

2. 相关工作

Temporal KGC

许多 TKGC 模型在现有 KGC 方法的基础上加入了额外的特定时间参数。

Few-shot KGC

For one-shot learning on relations, Xiong et al. (2018) attempts to seek a matching metric that can be used to discover similar triples given one reference triple.

3. 方法

【论文笔记】Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion,论文阅读,知识图谱,人工智能

我们按照微调 Seq2Seq PLM(即 Cross-Entropy Loss)的常见做法,直接用正向示例训练 KG-S2S(KG-S2S 不需要负向采样技巧)。

两个问题

  1. 如何在 KG-S2S 编码器中有效地表示query?【3.3】
  2. 如何准确生成实体文本作为query的答案?【3.4】

3.3 Entity & Relation Representation

Entity Description

纯文本丢失了结构信息,在encoder中我们将实体名称和描述串联起来作为实体表示。在decoder上面我们训练 KG-S2S 在交叉熵损失条件下联合预测实体名称和实体描述。【有点意思】

KG Soft Prompt

we only apply the Soft Prompt to relations.

we insert the Relation Soft Prompt embeddings Pe1, Pe2, Pr1, Pr2 ∈ R ∣ R ∣ × d R^{|R|×d} RR×d,【见上图】

Seq2Seq Dropout

由于KGC 中不同训练查询中的实体描述保持不变,这很容易导致过度拟合。最初采用encoder droppout,但是效果很差,因此使用的seq2seq dropout.we randomly select and mask p% of the input tokens in X when calculating the encoder self-attention module and decoder cross-attention module.

3.4 KGC Inference

Decoding Methods

采用beam search方法

Prefix Constraints

【论文笔记】Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion,论文阅读,知识图谱,人工智能

我们提出了前缀约束,以控制 KG-S2S 解码器在给定前缀序列 p 的情况下生成有效标记。

For example, given E = {“Grammy Award for Best Rock Song”, “Grammy Award for Best Music Video”} and p = [Grammy, Award, for, Best], the Prefix Constraints only allow “Rock” and “Music” to be generated in the next step.

4. 实验

FB15K-237 包含许多过度简化的、不切实际的卡方乘积关系(CPR),这不适当地提高了模型的精度。例如,"东京一月份的平均低温为华氏 34 度 "这一多重事实被分解为多个 CPR 事实(东京,climate./month,1 月)和(东京,climate./average_min_temp,34),这显然是不现实的,在语义上也毫无意义。

【论文笔记】Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion,论文阅读,知识图谱,人工智能

【论文笔记】Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion,论文阅读,知识图谱,人工智能

【论文笔记】Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion,论文阅读,知识图谱,人工智能

【论文笔记】Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion,论文阅读,知识图谱,人工智能

【论文笔记】Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion,论文阅读,知识图谱,人工智能

【论文笔记】Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion,论文阅读,知识图谱,人工智能

【beam search和不使用,有区别,但是区别不大】

5. 结论和未来工作

在本文中,我们介绍了针对各种知识图谱补全任务的 KG-S2S。通过将不同类型的知识图谱结构转换为 "文本-文本 "格式,KG-S2S 可以直接生成目标预测实体的文本。文章来源地址https://www.toymoban.com/news/detail-803533.html

到了这里,关于【论文笔记】Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【文本摘要(2)】pytorch之Seq2Seq

    改废了两个代码后,又找到了一个文本摘要代码 终于跑起来了 改废的两个代码: 一个是机器翻译改文本摘要,结果没跑起来。。。 一个是英文文本摘要改中文文本摘要,预测的摘要全是,,,这种 代码参考: https://github.com/jasoncao11/nlp-notebook/tree/master/4-2.Seq2seq_Att 跪谢大佬

    2024年02月03日
    浏览(45)
  • Seq2Seq在安全领域的应用实践

    非常感谢您委托我撰写这篇专业的技术博客文章。作为一位世界级人工智能专家、程序员、软件架构师,我会遵循您提供的目标和约束条件,以专业的技术语言,结合深入的研究和准确的信息,为您呈现一篇内容丰富、结构清晰、实用价值高的技术博客文章。 下面我将开始正文的

    2024年04月28日
    浏览(35)
  • 自然语言处理: 第四章Seq2Seq

    开始之前,首先提出一个问题,电脑是怎么识别人类的命令的,首先人们通过输入代码(编码) ,带入输入给计算机然后再经过处理(解码)得到最终的命令。所以可以看到这其实是一个编码 + 解码的过程。可以看到首先我们将初始的信息通过编码,得到涵盖全局的信息的特征然

    2024年02月12日
    浏览(53)
  • 从零实现深度学习框架——Seq2Seq模型尝试优化

    本着“ 凡我不能创造的,我就不能理解 ”的思想,本系列文章会基于纯Python以及NumPy从零创建自己的深度学习框架,该框架类似PyTorch能实现自动求导。 💡系列文章完整目录: 👉点此👈 要深入理解深度学习,从零开始创建的经验非常重要,从自己可以理解的角度出发,尽

    2024年02月12日
    浏览(39)
  • 【深度学习】Transformer、GPT、BERT、Seq2Seq什么区别?

    请看vcr:https://transformers.run/back/transformer/

    2024年02月08日
    浏览(43)
  • 基于transformer的Seq2Seq机器翻译模型训练、预测教程

    机器翻译(Machine Translation, MT)是一类将某种语言(源语言,source language)的句子 x x x 翻译成另一种语言(目标语言,target language)的句子 y y y 的任务。机器翻译的相关研究早在上世纪50年代美苏冷战时期就开始了,当时的机器翻译系统是基于规则的,利用两种语言的单词、

    2024年02月03日
    浏览(40)
  • 【深度学习-注意力机制attention 在seq2seq中应用】

    这是一个普通的seq2seq结构,用以实现机器对话,Encoder需要把一个输入的一个句子转化为一个最终的输出,上下文context vector,然后在Decoder中使用,但这里有些问题: 如果句子很长,这个向量很难包含sequence中最早输入的哪些词的信息,那么decoder的处理必然也缺失了这一部分

    2024年02月09日
    浏览(47)
  • NLP实战6:seq2seq翻译实战-Pytorch复现-小白版

    目录 一、前期准备 1. 搭建语言类 2. 文本处理函数 3. 文件读取函数 二、Seq2Seq 模型 1. 编码器(Encoder) 2. 解码器(Decoder) 三、训练 1. 数据预处理 2. 训练函数 四、训练与评估 🍨 本文为[🔗365天深度学习训练营]内部限免文章(版权归 *K同学啊* 所有) 🍖 作者:[K同学啊] 📌

    2024年02月12日
    浏览(36)
  • 机器学习&&深度学习——seq2seq实现机器翻译(数据集处理)

    👨‍🎓作者简介:一位即将上大四,正专攻机器学习的保研er 🌌上期文章:机器学习深度学习——从编码器-解码器架构到seq2seq(机器翻译) 📚订阅专栏:机器学习深度学习 希望文章对你们有所帮助 在理解了seq2seq以后,开始用它来实现一个机器翻译的模型。我们先要进行

    2024年02月13日
    浏览(48)
  • pytorch中的词性标注_seq2seq_比较naive的示例

    一、各种用法_查漏补缺: 1.关于numpy中的argmax的用法: numpy之argmax()函数 - 知乎 (zhihu.com) 具体看这篇文章够了 二、代码+注释: 参考: Sequence Models and Long Short-Term Memory Networks — PyTorch Tutorials 2.0.1+cu117 documentation 01 序列模型和基于LSTM的循环神经网络 - 知乎 (zhihu.com)

    2024年02月09日
    浏览(31)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包