本文是LLM系列的文章,针对《Large Language Models and Knowledge Graphs:
Opportunities and Challenges》的翻译。
摘要
大型语言模型(LLM)已经席卷了知识表示和世界。这个拐点标志着从显式知识表示向重新关注显式知识和参数知识的混合表示的转变。在这篇立场文件中,我们将讨论社区内关于LLM(参数知识)和知识图谱(显性知识)的一些共同争论点,并推测新的关注带来的机遇和愿景,以及相关的研究主题和挑战。
1 引言
2 社区内的共同辩论点
3 机会和愿景
4 关键研究主题和相关挑战
5 前景
总之,大型语言模型(LLM)的最新进展标志着知识图谱(KG)研究的一个重要转折点。虽然关于能否结合他们的优势的重要问题仍然悬而未决,但这些问题为未来的研究提供了令人兴奋的机会。社区已经在迅速调整他们的研究重点,出现了KBC-LM研讨会和LM-KBC挑战等新颖论坛,资源大量转向知识提取、整合和使用的混合方法。我们提出以下建议:文章来源:https://www.toymoban.com/news/detail-687511.html
- 1.不要随着范式的转变而抛弃KG:对于一系列可靠性或安全关键型应用程序,结构化知识仍然是不可或缺的,我们已经概述了KG和LLM可以相互促进的许多方式。KGs将继续存在,而不仅仅是抛弃它们。
- 2.谋杀你的(管道)宠儿:LLM大大推进了KG和本体构建管道中的许多任务,甚至使一些任务过时。即使是最成熟的管道组件,在检查时也要格外小心,并不断将其与基于LLM的现有技术进行比较。
- 3.保持好奇心,保持批判性:LLM可以说是过去几年人工智能研究中最令人印象深刻的产物。尽管如此,公众和研究文献中都存在大量夸大的说法和期望,人们应该保持健康的批判性反思。特别是,目前还看不到解决所谓幻觉问题的根本办法。
- 4.过去已经结束,让我们开始新的旅程:LLM引发的进步以前所未有的方式铲除了这个领域,并使我们能够以显著的捷径进入这个领域。
在与知识计算相关的领域,没有比现在更好的时机重新开始。尽管目前的转变方向是广泛开放的,但随着研究人员继续探索混合方法的潜力和挑战,我们可以期待在知识的表示和处理方面看到新的突破,对知识计算、NLP、人工智能等领域产生深远影响。文章来源地址https://www.toymoban.com/news/detail-687511.html
到了这里,关于Large Language Models and Knowledge Graphs: Opportunities and Challenges的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!