Large Language Models and Knowledge Graphs: Opportunities and Challenges

这篇具有很好参考价值的文章主要介绍了Large Language Models and Knowledge Graphs: Opportunities and Challenges。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本文是LLM系列的文章,针对《Large Language Models and Knowledge Graphs:
Opportunities and Challenges》的翻译。

摘要

大型语言模型(LLM)已经席卷了知识表示和世界。这个拐点标志着从显式知识表示向重新关注显式知识和参数知识的混合表示的转变。在这篇立场文件中,我们将讨论社区内关于LLM(参数知识)和知识图谱(显性知识)的一些共同争论点,并推测新的关注带来的机遇和愿景,以及相关的研究主题和挑战。

1 引言

2 社区内的共同辩论点

3 机会和愿景

4 关键研究主题和相关挑战

5 前景

总之,大型语言模型(LLM)的最新进展标志着知识图谱(KG)研究的一个重要转折点。虽然关于能否结合他们的优势的重要问题仍然悬而未决,但这些问题为未来的研究提供了令人兴奋的机会。社区已经在迅速调整他们的研究重点,出现了KBC-LM研讨会和LM-KBC挑战等新颖论坛,资源大量转向知识提取、整合和使用的混合方法。我们提出以下建议:

  • 1.不要随着范式的转变而抛弃KG:对于一系列可靠性或安全关键型应用程序,结构化知识仍然是不可或缺的,我们已经概述了KG和LLM可以相互促进的许多方式。KGs将继续存在,而不仅仅是抛弃它们。
  • 2.谋杀你的(管道)宠儿:LLM大大推进了KG和本体构建管道中的许多任务,甚至使一些任务过时。即使是最成熟的管道组件,在检查时也要格外小心,并不断将其与基于LLM的现有技术进行比较。
  • 3.保持好奇心,保持批判性:LLM可以说是过去几年人工智能研究中最令人印象深刻的产物。尽管如此,公众和研究文献中都存在大量夸大的说法和期望,人们应该保持健康的批判性反思。特别是,目前还看不到解决所谓幻觉问题的根本办法。
  • 4.过去已经结束,让我们开始新的旅程:LLM引发的进步以前所未有的方式铲除了这个领域,并使我们能够以显著的捷径进入这个领域。

在与知识计算相关的领域,没有比现在更好的时机重新开始。尽管目前的转变方向是广泛开放的,但随着研究人员继续探索混合方法的潜力和挑战,我们可以期待在知识的表示和处理方面看到新的突破,对知识计算、NLP、人工智能等领域产生深远影响。文章来源地址https://www.toymoban.com/news/detail-687511.html

到了这里,关于Large Language Models and Knowledge Graphs: Opportunities and Challenges的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文笔记:A Simple and Effective Pruning Approach for Large Language Models

    iclr 2024 reviewer 评分 5668 大模型网络剪枝的paper 在努力保持性能的同时,舍弃网络权重的一个子集 现有方法 要么需要重新训练 这对于十亿级别的LLMs来说往往不现实 要么需要解决依赖于二阶信息的权重重建问题 这同样可能带来高昂的计算成本 ——引入了一种新颖、简单且有

    2024年04月17日
    浏览(43)
  • 【论文笔记】A Survey of Large Language Models in Medicine - Progress, Application, and Challenges

    将LLMs应用于医学,以协助医生和病人护理,成为人工智能和临床医学领域的一个有前景的研究方向。为此, 本综述提供了医学中LLMs当前进展、应用和面临挑战的全面概述 。 具体来说,旨在回答以下问题: 1)什么是LLMs,如何构建医学LLMs? 2)医学LLMs的下游表现如何? 3)

    2024年02月03日
    浏览(46)
  • Why Large Language Models Hallucinate and How to solve this//LLM为什么产生幻觉以及如何应对

    \\\" Large language models (LLMs) can generate fluent and coherent text on various topics and domains, but they are also prone to hallucinations or generating plausible sounding nonsense. This can range from minor inconsistencies to completely fabricated or contradictory statements. The causes of hallucinations are related to data quality, generation methods an

    2024年02月11日
    浏览(44)
  • 【论文阅读】Reachability Queries with Label and Substructure Constraints on Knowledge Graphs

    Wan X, Wang H. Reachability Queries With Label and Substructure Constraints on Knowledge Graphs[J]. IEEE Transactions on Knowledge and Data Engineering, 2022. 由于知识图(KGs)描述和建模了现实世界中实体和概念之间的关系,因此对KGs的推理通常对应于具有标签和实体的可达性查询穿刺约束(LSCR)。特别地,对

    2024年02月04日
    浏览(46)
  • KILM: Knowledge Injection into Encoder-Decoder Language Models

    本文是LLM系列文章,针对《KILM: Knowledge Injection into Encoder-Decoder Language Models》的翻译。 大型预训练语言模型(PLMs)已被证明在其参数内保留隐含知识。为了增强这种隐性知识,我们提出了知识注入语言模型(KILM),这是一种通过持续预训练生成知识填充目标将实体相关知识注入编

    2024年02月07日
    浏览(39)
  • Language Models as Knowledge Embeddings:语言模型用作知识嵌入 IJCAI 2022

    1)基于结构的知识嵌入 进一步分成基于翻译的模型和基于语义匹配的模型 基于翻译的模型采用基于距离的评分函数,TransE把实体和关系嵌入到一个维度为d的共享向量空间中;TransH,TransR,RotatE. 语义匹配模型采用基于相似性的评分函数,RESCAL,DistMult,CoKE. 2)基于描述的知识嵌入

    2024年02月07日
    浏览(47)
  • Automatically Correcting Large Language Models

    本文是大模型相关领域的系列文章,针对《Automatically Correcting Large Language Models: Surveying the landscape of diverse self-correction strategies》的翻译。 大型语言模型(LLM)在一系列NLP任务中表现出了卓越的性能。然而,它们的功效被不受欢迎和不一致的行为所破坏,包括幻觉、不忠实的

    2024年02月12日
    浏览(58)
  • A Survey of Large Language Models

    本文是LLM系列的第一篇文章,针对《A Survey of Large Language Models》的翻译。 自从20世纪50年代提出图灵测试以来,人类一直在探索通过机器掌握语言智能。语言本质上是一个由语法规则控制的复杂的人类表达系统。开发能够理解和掌握语言的人工智能算法是一个重大挑战。在过

    2024年02月09日
    浏览(64)
  • 文献阅读:Large Language Models as Optimizers

    文献阅读:Large Language Models as Optimizers 1. 文章简介 2. 方法介绍 1. OPRO框架说明 2. Demo验证 1. 线性回归问题 2. 旅行推销员问题(TSP问题) 3. Prompt Optimizer 3. 实验考察 结论 1. 实验设置 2. 基础实验结果 1. GSM8K 2. BBH 3. 泛化性 3. 消融实验 1. meta-prompt 2. 生成prompt的数目 3. 起始点 4.

    2024年01月19日
    浏览(42)
  • A Survey of Knowledge-Enhanced Pre-trained Language Models

    本文是LLM系列的文章,针对《A Survey of Knowledge-Enhanced Pre-trained Language Models》的翻译。 预训练语言模型(PLM)通过自监督学习方法在大文本语料库上进行训练,在自然语言处理(NLP)的各种任务中都取得了良好的性能。然而,尽管具有巨大参数的PLM可以有效地拥有从大量训练

    2024年02月09日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包