新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战

这篇具有很好参考价值的文章主要介绍了新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

OpenKG

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

大模型专辑

导读 知识图谱和大型语言模型都是用来表示和处理知识的手段。大模型补足了理解语言的能力,知识图谱则丰富了表示知识的方式,两者的深度结合必将为人工智能提供更为全面、可靠、可控的知识处理方法。在这一背景下,OpenKG组织新KG视点系列文章——“大模型专辑”,不定期邀请业内专家对知识图谱与大模型的融合之道展开深入探讨。本期邀请到爱丁堡大学Jeff Pan教授、曼彻斯特大学陈矫彦研究员、浙江大学张文研究员、山西大学闫智超博士等分享的综述论文:“大语言模型与知识图谱的机遇与挑战”。

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

文章作者 | Jeff Pan(爱丁堡大学终身教授)、陈矫彦(曼彻斯特大学)、张文(浙江大学)、闫智超(山西大学)等

笔记整理 | 邓鸿杰

内容审定 | 陈华钧

论文链接 | https://arxiv.org/abs/2308.06374


01

引言

大语言模型(Large Language Models, LLMs)已经席卷了知识表示(Knowledge Representation, KR)和整个世界,并且在一些自然语言处理任务上达到了和人类相媲美的性能。基于此,人们逐渐接受了这种存在于大语言模型中“参数化”的知识,也宣告了知识计算时代的到来。知识计算时代,KR中的推理任务被扩展为基于知识表示的知识计算任务。

这是知识表示领域迈出的一大步。长期以来,学者们将研究重点放在显式知识上,包括非结构化知识,如文本,和结构化知识,如知识图谱(Knowledge Graphs, KGs)。尤其是在二十一世纪初期RDF和OWL两个标准的出现,使得知识图谱成为一种主流的大规模知识库,同时支持基于逻辑的图推理和基于图的学习。

大语言模型作为知识表示的一个发展拐点,将研究人员的目光从显示知识转向到了显示知识和参数化知识混合的方法上。作为显示知识代表的知识图谱,在参数化的语言模型背景下受到了广泛的研究,包括使用知识图谱增强BERT、RoBERTa,以及最近出现的生成式语言模型GPT等。相反,使用大语言模型反向去构造和完善知识图谱也进行了大量的探索,如使用大语言模型来进行知识图谱的补全。

本文深度地探讨了大语言模型出现后,在知识表示从显示表示迈向混合表示的过程中有争议的一些话题,并介绍了知识图谱和大语言模型结合的最新技术以及未来的机遇与挑战。

02

普遍争议的主题

显式知识和“参数”知识的结合使用在知识计算领域引起了多个讨论,本文将从支持者和怀疑者两个方面对一些共性问题进行讨论。

1.1 知识表示与推理

知识图谱提供了具有明确关系的知识的结构化表示,支持推理和推断。怀疑者认为大语言模型中“参数化”的知识是基于统计的,并不是真正的理解和推理,并且由于缺乏明确的知识表征,模型会生成看似合理但却荒谬的结果。另一方面,知识图谱和大语言模型的获得都需要极高的成本,但后者更加容易适配下游的任务,并将AI带入到了世界舞台的中央,因此参数化知识并不是大语言的唯一目标。综上,在知识表示和知识计算两个任务使用显式知识和“参数化”知识的比较中,知识表示更加偏向表达性和判定性的权衡,而知识计算更加偏向精确率和召回率之间的权衡。

1.2 高精度方法

知识图谱的成功在于其可以精确地提供关于实体的事实信息,如YAGO,可以提供95%以上的正确信息。同样知识图谱在用于生产环境时需要较高的精度,例如Google的Knowledge Vault未能成功落地也是因为其精度达不到要求的99%。目前基于BERT或GPT等的方法不能满足以上要求,这知识计算科学家仍然需要探索基于大语言模型的高精度的方法。

1.3 数值计算

人们普遍认为大语言模型需要具有处理数值的能力,对于语言模型来说,完成数值计算工作是一项具有挑战性的任务,该挑战同样适用于知识图谱补全任务。在基于Wikidata的数字事实来评估语言模型数值计算能力中,没有一个模型能准确地得到结果,尽管已有的模型在数值处理的能力上表现不俗,但考虑到数值具有不同的度量和类型,使得该任务难度进一步升级,因此,修改模型来处理数值的问题仍未被解决,以至于利用大语言模型来完成数值知识图谱的补全看起来是不现实的。

1.4 长尾知识

在知识计算任务中,存在的一个关键问题:大语言模型到底记住了多少的知识?在对大语言模型的调查过程中发现,使用Wikidata中随机的知识对模型进行测试时,模型的性能会急剧的恶化,尤其是在遇到长尾的实体时。这种情况的出现,究其原因就是在预训练过程中实体和关系出现的频率是不一样的,模型对长尾的信息是难以保持精准记忆的。相反,知识图谱在提供长尾实体的知识上具有天然的优势,因此可以进一步提升大语言模型在知识计算任务中的回忆能力。

1.5 偏见、公平等更多问题

批评者认为大语言模型会使训练数据中的偏见持续存在并放大,从而导致有偏见的输出。而支持者认为偏见不是大语言模型中所固有的特征,而是训练数据集中嵌入的社会偏见,他们强调了在训练数据中消除偏见和开发能够缓解偏见技术的重要性。知识图谱在构建过程中同样会嵌入“偏见”,并且会被运用到各种下游任务中。除了偏见和公平外,还有侵犯版权和错误信息等问题。与显式知识相比,大语言模型中“参数化”偏见知识更难以被去除或修改。

1.6 可解释性

在可解释性的场景中,知识图谱通常是首选的。对大语言模型持有怀疑态度的学者们认为:大模型是一个黑盒,缺乏可解释性,很难理解他们是如何产生结果的。但支持者们虽然承认了大模型可解释性差的问题,但却通过最近的一些研究,如注意力机制、模型内省等技术可以在一定程度提升模型的可解释性。思维链技术、问题解耦和答案归因等方法,是最近在大语言模型可解释性方法研究中的一些热点话题。

03

重点研究课题与挑战

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

2.1 基于大语言模型的知识图谱技术:知识提取和规范化

实体解析与匹配

KG构建是一项复杂的任务,需要从广泛的来源收集和集成信息,包括结构化、半结构化和非结构化数据。传统的方法通常需要为不同的任务设计不同的模块进行信息的抽取与匹配,而通过大语言模型这一强力的工具,可以更方便地进行信息抽取任务。在实体解析与匹配中,大语言模型通常作为一种数据标注模块,为下游模块产生相关的训练语料。

从表格和文本数据中提取知识

从数据来源的角度来看,图谱中的实体通常来源于表格或者文本中。

其中根据在使用大语言模型提取表格数据中的一些尝试中发现,面临的挑战主要有三个:

1)将表格数据转化为序列;

2)表示和利用非文本的表格数据;

3)提取表格知识。

从文本中提取信息的方法统长包含以下4个任务:

1)命名实体识别;2)关系抽取;

3)事件抽取和;4)语义角色标注。

由于大语言模型强大的能力,使得其在小样本条件下仍有不俗的表现,但仍然存在以下的挑战:

1)从超长文本中有效的提取信息;

2)高覆盖率的信息抽取。

2.2 基于大语言模型的知识图谱技术:知识图谱的构建

链接预测

大语言模型在改善知识图谱构建中具有重要作用,本文首先讨论了链接预测任务,并转向最近的热门任务:从大语言模型中提取三元组。

除了传统的链接预测方法通常使用基于嵌入表示的方法外,还可以使用提示学习的方法,通过大语言模型进一步找到实体之间的链接。基于大语言模型的方法虽然可以很容易的进行链接预测,但仍然存在以下挑战与机遇:

1)大模型不能保证由于实体名称多样化带来的生成错误问题;

2)目前的评估方法对于大模型来说是不适用的,主要原因是计算成本太过高昂;

3)由于大语言模型是基于维基百科训练的,所以并不能知道,该结果是推理的结果还是大语言模型本身的记忆结果;

4)大语言模型在归纳链接预测任务中的作用本身是一个热门话题;

5)对于提示模板的构建是需要不断尝试的,尤其是在GPT-4这种模型背景下,完成该任务是昂贵的;

6)有效的预测策略的获取是一个有前景的研究方向;

7)大语言模型与基于嵌入的方法联合也是一个很强的研究方向。

从大语言模型中提取三元组

传统上,关系知识的检索和推理都依赖于符号知识库,最近,人们研究使用自监督的方法,如构造问答对、完形填空、提示工程等,从大语言模型中直接检索关系知识的能力。这种方法主要的挑战和机遇是:

1)由于实体名称的重复性,需要进行实体消歧;

2)由于大语言模型读长尾实体记忆的不精确性,导致产生错误的信息;

3)大语言模型面临着高精度的要求;

4)大语言模型的输出不提供出处,为核验该信息的准确性带来了信息的挑战。

2.3 基于大语言模型的知识图谱技术:本体模式的构建

从知识图谱中挖掘约束和规则

现有构建知识图谱的方法通常使用pipeline的方式,这种方法容易造成误差传播问题,通过引入自动化的规则和约束来限制构建图谱时错误信息的引入可以提升数据的质量。如何生成这些约束和规则是一个根本性的挑战,在此背景下,大语言模型带来了新的机遇:

1)从输入文本中提取上下文信息的能力;

2)在训练过程中使用上下文提取信息;

3)通过归纳推理生成新的规则。

4)理解词汇信息,协调同义词和一词多义现象;

5)提供规则的解释和生成候选以及反事实样例。

本体优化

本体优化包含很多主题:知识补全、错误知识检测和修复和知识规范化等,开发基于大语言模型的本体细化工具仍然存在以下挑战:

1)利用文本及其本体的图结构和逻辑;

2)结合符合推理和大语言模型推理。

本体对齐

单个本体的知识通常是不完整的,许多真实世界的应用通常依赖于跨领域的知识。本体对齐的主要挑战是评估基于大语言模型的本体对齐系统。

2.4 基于知识图谱的大语言模型

在大语言模型中使用知识图谱主要有以下几个方面:

1)知识图谱可以作为大语言模型的训练数据;

2)知识图谱中的三元组可以用于提示模板的构建;

3)知识图谱作为一种外部知识增强大语言模型。

基于知识图谱的语言模型(预)训练

由于自然语言文本本身可能只提供有限的信息覆盖,而知识图谱可以为语言模型提供结构化的事实知识,集成知识图谱的语言模型(预)训练方法,使得向模型注入世界知识和实时更新知识更加方便。这种融合了知识图谱信息的语言模型,在知识密集型QA任务上展示了具有竞争力的结果,证明了这种方法在提升语言模型的能力具有重要意义。

基于知识图谱的提示构建

目前使用知识图谱来丰富和微调提示模板,从而在提示的数量、质量和多样性上比手动的方法更具优势,已有方法证明了通过图谱构建的提示模板进行推理比传统方法更具竞争力,但目前该方法仍存在挑战与机遇:

1)生成上下文感知的写作提示,分析不同提示之间的关系,形成具有关联关系的提示模板。

2)动态生成和用户交互的提示模板,由于知识图谱提供了知识的透明表示,因此可以很容易地将从知识图谱生成的提示追溯到它们的底层源。

3)将知识图谱集成到提示模板中,增强模型生成内容的可行度。

4)知识图谱可以创建询问问题的提示,从而触发知识图谱复杂推理能力和中间推理步骤。

检索增强的方法

基于检索增强的方法对于大模型获取外部知识是重要的,尤其是针对长尾实体和特定领域训练中缺失的实体。目前的方法(如RAG,FiD)主要是考虑文本知识,最近也开始有方法使用图谱知识去增强大模型。在可见的未来,如果大规模知识图谱构造有比较可行的方法,图谱增强可能成为主流方案之一。检索增强是一个非常有前景的方向,主要挑战有:

1)统一知识编辑与检索增强的方法;

2)半参数化大语言模型;

3)支撑复杂推理。

04

展望

综上所述,我们总结了以下显式知识和“参数化”知识的融合的机会:

1. ­简便快捷的文本知识获取长久以来文字都是人类记录知识的主要方式,大语言模型使文本知识的获取及时可得,可以避免复杂的文本知识收集、表示、存储、和查询流程,将AI开发者从信息检索的依赖中解放出来。

2. 丰富的子任务知识:大语言模型可以简化传统知识工程流程,通过少量样本作为实例语言模型即可学会结构解析、实体识别、关系抽取等任务,因此可以快速构建大规模高质量的知识图谱。

3. 实现更好的语言理解:尽管大语言模型已经具有很好的语言理解能力,将显式知识与大语言模型中的“参数化”知识融合,有可能让模型具有更强的语言理解能力,实现更好的文本蕴含推理、文本梗概、以及一致文本生成等。

大语言模型的出现是知识图谱研究的一个重要转折点,尽管在如何结合他们的优势来进一步解决问题上仍然有待深入研究,但已经出现了令人兴奋的机会。对此,我们提出了以下建议:

1)不要因为研究范式的转变而丢弃知识图谱;

2)将你的研究方法与基于大模型的方法持续进行比较;

3)保持好奇,保持批判;

4)过去的已经过去了,让我们开始新的旅程。

以上就是本次分享的内容,谢谢。

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

作者简介

INTRODUCTION

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

Jeff Pan

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

爱丁堡大学终身教授

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

Jeff Pan教授,长江学者,爱丁堡大学终身教授,华为爱丁堡知识图谱实验室主任,华为英国首席搜索科学家,阿兰图灵研究院知识图谱主席。主页:http://knowledge-representation.org/j.z.pan/

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

作者简介

INTRODUCTION

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

陈矫彦

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

曼彻斯特大学终身制讲师

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

陈矫彦博士,曼彻斯特大学计算机科学系终身制讲师,牛津大学计算机科学系兼职研究员。陈博士主要研究知识图谱、本体论、机器学习和神经符号人工智能,担任Transactions of Graph Data and Knowledge (TGDK)的副主编。个人主页:https://chenjiaoyan.github.io/

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

作者简介

INTRODUCTION

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

张文

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

浙江大学特聘研究员

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

张文,浙江大学软件学院特聘研究员,研究方向为知识图谱、知识表示、知识推理。个人主页:https://person.zju.edu.cn/zhangwen

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

作者简介

INTRODUCTION

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

闫智超

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

山西大学博士

新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战,语言模型,知识图谱,人工智能,自然语言处理

闫智超:山西大学博士在读,主要研究方向为框架语义解析。主页:

https://scholar.google.com.hk/citations?user=Tb2o2nUAAAAJ&hl=zh-CN


OpenKG

OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。

点击阅读原文,进入 OpenKG 网站。
文章来源地址https://www.toymoban.com/news/detail-679601.html

到了这里,关于新KG视点 | Jeff Pan、陈矫彦等——大语言模型与知识图谱的机遇与挑战的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 基于大语言模型知识问答应用落地实践 – 知识库构建(下)

    上篇介绍了构建知识库的大体流程和一些优化经验细节,但并没有结合一个具体的场景给出更细节的实战经验以及相关的一些 benchmark 等,所以本文将会切入到一个具体场景进行讨论。 目标场景:对于 PubMed 医疗学术数据中的 1w 篇文章进行知识库构建,实现快速的注入和查

    2024年02月10日
    浏览(38)
  • 自然语言处理从入门到应用——LangChain:模型(Models)-[大型语言模型(LLMs):基础知识]

    分类目录:《大模型从入门到应用》总目录 LangChain系列文章: 基础知识 快速入门 安装与环境配置 链(Chains)、代理(Agent:)和记忆(Memory) 快速开发聊天模型 模型(Models) 基础知识 大型语言模型(LLMs) 基础知识 LLM的异步API、自定义LLM包装器、虚假LLM和人类输入LLM(

    2024年02月16日
    浏览(46)
  • 大语言模型无代码构建知识图谱+视频链接

            之前通过系列文章介绍了如何利用HugggingFists系统无代码构建知识图谱,这次给出视频,方便大家更直观的了解如何操作。视频链接如下:         《玩转数据之利用LLM构建知识图谱》         文章链接:         《大语言模型无代码构建知识图谱(1)--提示工

    2024年03月24日
    浏览(36)
  • 大型语言模型基础知识的可视化指南

    如今,LLM(大型语言模型的缩写)在全世界都很流行。没有一天不在宣布新的语言模型,这加剧了人们对错过人工智能领域的恐惧。然而,许多人仍在为 LLM 的基本概念而苦苦挣扎,这使他们难以跟上时代的进步。本文的目标读者是那些希望深入了解此类人工智能模型的内部

    2024年01月24日
    浏览(35)
  • RAG:让大语言模型拥有特定的专属知识

    作为一个在Chatbot领域摸爬滚打了7年的从业者,笔者可以诚实地说,在大语言模型的推动下,检索增强生成(Retrieval Augmented Generation,RAG)技术正在快速崛起。 RAG的搜索请求和生成式AI技术,为搜索请求和信息检索领域带来了革命性的改变。RAG能够帮助大语言模型根据可靠的

    2024年02月02日
    浏览(26)
  • 如何用大语言模型构建一个知识问答系统

    打造  特定领域知识(Domain-specific Knowledge)   问答  系统,具体需求有: 通过自然语言问答的形式,和用户交互,同时支持中文和英文。 理解用户不同形式的问题,找到与之匹配的答案。可以对答案进行二次处理,比如将关联的多个知识点进行去重、汇总等。 支持上下文。有

    2024年02月09日
    浏览(34)
  • 大语言模型无代码构建知识图谱(1)--提示工程准备

            2023年3月15日,ChatGPT4.0的横空出世,将人们对大语言模型的关注推到了风口浪尖。由于其在智能问答、翻译以及文本生成等工作任务上的卓越表现,业界一度出现了不再需要发展知识图谱相关技术的观点,知识图谱相关概念严重受挫。无可置疑的是,大语言模型的

    2024年01月21日
    浏览(32)
  • 论文浅尝 | ChatKBQA:基于微调大语言模型的知识图谱问答框架

    第一作者:罗浩然,北京邮电大学博士研究生,研究方向为知识图谱与大语言模型协同推理 OpenKG地址:http://openkg.cn/tool/bupt-chatkbqa GitHub地址:https://github.com/LHRLAB/ChatKBQA 论文链接:https://arxiv.org/abs/2310.08975 动机 随着ChatGPT 的问世,属于大模型的时代就此开始。无可否认,大型

    2024年02月05日
    浏览(42)
  • 【AI实战】给类ChatGPT的大语言模型外挂私有知识库

    本文使用 langChain 来给大语言模型 ChatGLM-6B 外挂一个或者多个私有知识库。 原理流程图 【原图来自】https://github.com/imClumsyPanda/langchain-ChatGLM 从文档处理角度来看,实现流程如下 【原图来自】https://github.com/imClumsyPanda/langchain-ChatGLM CUDA 11.4 Ubuntu 20.04 python 3.8.10 torch 1.13.0 langchai

    2024年02月08日
    浏览(36)
  • 大型语言模型与知识图谱协同研究综述:两大技术优势互补

    机器之心报道 编辑:杜伟 多图综述理清当前研究现状,这篇 29 页的论文值得一读。 大型语言模型(LLM)已经很强了,但还可以更强。通过结合知识图谱,LLM 有望解决缺乏事实知识、幻觉和可解释性等诸多问题;而反过来 LLM 也能助益知识图谱,让其具备强大的文本和语言理

    2024年02月13日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包