LLM之幻觉(二):大语言模型LLM幻觉缓减技术综述

这篇具有很好参考价值的文章主要介绍了LLM之幻觉(二):大语言模型LLM幻觉缓减技术综述。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

LLM之幻觉(二):大语言模型LLM幻觉缓减技术综述,笔记,ChatGPT,幻觉,语言模型,人工智能,深度学习

       LLM幻觉缓减技术分为两大主流,梯度方法非梯度方法。梯度方法是指对基本LLM进行微调;而非梯度方法主要是在推理时使用Prompt工程技术。LLM幻觉缓减技术,如下图所示:

LLM之幻觉(二):大语言模型LLM幻觉缓减技术综述,笔记,ChatGPT,幻觉,语言模型,人工智能,深度学习

LLM幻觉缓减技术值得注意的是:

  • 检索增强生成(RAG)
  • 知识检索(https://arxiv.org/abs/2307.03987)
  • CoNLI(https://arxiv.org/abs/2310.03951)
  • CoVe(https://cobusgreyling.medium.com/chain-of-verification-reduces-hallucination-in-llms-20af5ea67672)

      与专注于有限任务的传统人工智能系统不同,LLM在训练过程中使用了大量的在线文本数据。当大模型语言生成功能应用在要求严格的应用程序时,LLM幻觉就变得非常令人担忧,例如:

  1. 总结医疗记录;

  2. 客户支持对话;

  3. 财务分析报告,并提供错误的法律建议。

一、幻觉缓解分类法

       这项研究对LLM幻觉缓解技术进行了总结,分类为:梯度方法非梯度方法

梯度方法包括复杂和不透明的解码策略知识图谱微调策略等。

非梯度方法包括RAG自我优化Prompt微调

值得注意的是,RAG方法分为四个部分;

  • 生成之前;
  • 生成期间;
  • 生成后;
  • 端到端

Prompt工程缓解幻觉的原理在于定义:

  • 特殊上下文&;
  • 预期输出

二、最佳预防幻觉

预防幻觉的最佳方法不是单一的方法,需要综合多种方法。

缓减幻觉需要考虑以下因素:

  1. 在多大程度上依赖标签数据?

  2. 引入无监督或弱监督学习技术以提高可扩展性和灵活性的可能性是什么?

  3. 考虑梯度和非梯度方法,以产生连贯和上下文相关的信息。

  4. 收集到的缓解幻觉的工作揭示了一系列不同的策略,每种策略都有助于解决LLM中幻觉的细微差别。

  5. 通过反馈和推理的自我完善会产生有影响力的策略。

  6. 结构化比较推理引入了一种结构化的文本偏好预测方法,增强了连贯性,减少了幻觉。

  7. 监督微调可以通过知识注入和师生方法进行探索。

  8. 特定领域的知识被注入到较弱的LLM和使用反事实数据集来提高真实性的方法中。

参考文献:

[1] https://cobusgreyling.medium.com/large-language-model-hallucination-mitigation-techniques-a75b6f873318文章来源地址https://www.toymoban.com/news/detail-799637.html

到了这里,关于LLM之幻觉(二):大语言模型LLM幻觉缓减技术综述的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 大语言模型(LLM)综述(四):如何适应预训练后的大语言模型

    随着人工智能和机器学习领域的迅速发展,语言模型已经从简单的词袋模型(Bag-of-Words)和N-gram模型演变为更为复杂和强大的神经网络模型。在这一进程中,大型语言模型(LLM)尤为引人注目,它们不仅在自然语言处理(NLP)任务中表现出色,而且在各种跨领域应用中也展示

    2024年02月08日
    浏览(51)
  • 增强LLM:使用搜索引擎缓解大模型幻觉问题

    论文题目:FRESHLLMS:REFRESHING LARGE LANGUAGE MODELS WITH SEARCH ENGINE AUGMENTATION 论文地址:https://arxiv.org/pdf/2310.03214.pdf 论文由Google、University of Massachusetts Amherst、OpenAI联合发布。         大部分大语言模型只会训练一次,不会被频繁的更新,训练用到的知识会慢慢过时,所以它无法适应

    2024年02月06日
    浏览(38)
  • ChatGPT和大型语言模型(LLM)是什么关系?

    什么是语言模型:\\\" 语言模型的本质是一个数学模型,用于捕捉和理解人类语言的结构和规律 。它通过分析大量文本数据中的单词或字符之间的关系,以概率的方式预测在给定上下文情况下下一个可能出现的单词或字符。这种模型允许计算机在生成文本、翻译语言、问答等任

    2024年02月10日
    浏览(47)
  • 类ChatGPT的各种语言大模型LLM开源Github模型集合​

    作为开发人员,面对堪称科技奇点爆发的ChatGPT,我们如何应对。当然是努力跟进,虽然ChatGPT不开源,但是有诸多不输ChatGPT的各类语言大模型LLM有分享。我们筛选出其中影响力较大的各个开源Github仓库,收录到 类ChatGPT的各种语言大模型开源Github模型集合​ http://www.webhub123.

    2024年02月08日
    浏览(48)
  • 大型语言模型与知识图谱协同研究综述:两大技术优势互补

    机器之心报道 编辑:杜伟 多图综述理清当前研究现状,这篇 29 页的论文值得一读。 大型语言模型(LLM)已经很强了,但还可以更强。通过结合知识图谱,LLM 有望解决缺乏事实知识、幻觉和可解释性等诸多问题;而反过来 LLM 也能助益知识图谱,让其具备强大的文本和语言理

    2024年02月13日
    浏览(66)
  • 大语言模型LLM微调技术:Prompt Tuning

    截止23年3月底,语言模型发展走过了三个阶段: 第一阶段 :设计一系列的自监督训练目标(MLM、NSP等),设计新颖的模型架构(Transformer),遵循Pre-training和Fine-tuning范式。典型代表是BERT、GPT、XLNet等; 第二阶段 :逐步扩大模型参数和训练语料规模,探索不同类型的架构。

    2024年02月03日
    浏览(42)
  • LLM大语言模型训练中常见的技术:微调与嵌入

    微调 (Fine-Tuning): 微调是一种用于预训练语言模型的技术。在预训练阶段,语言模型(如GPT-3.5)通过大规模的文本数据集进行训练,从而学会了语言的语法、语义和世界知识。然后,在微调阶段,模型会在特定任务或领域的小规模数据集上进行额外的训练。这个微调过程

    2024年02月06日
    浏览(46)
  • 精进语言模型:探索LLM Training微调与奖励模型技术的新途径

    LLMs Trainer 是一个旨在帮助人们从零开始训练大模型的仓库,该仓库最早参考自 Open-Llama,并在其基础上进行扩充。 有关 LLM 训练流程的更多细节可以参考 【LLM】从零开始训练大模型。 使用仓库之前,请先安装所有需要的依赖: 继续预训练是指,在一个已有的模型上继续进行

    2024年02月11日
    浏览(39)
  • 以 LLM 为核心 LLM@Core:程序员的大语言模型技术指南

    过去几个月里,我们对于大语言模型的一系列探索,如 ChatGPT 端到端实践与应用开发、LLaMA 与 ChatGLM 的微调试验、GitHub Copilot 逆向工程分析、动态上下文工程(即 LangChain)的研究,驱使着我去写一个总结,也是一个面向程序员的 LLM 指南。 也是好久没有写这个系列(程序员必

    2024年02月07日
    浏览(51)
  • 当大型语言模型(LLM)遇上知识图谱:两大技术优势互补

    大型语言模型(LLM)已经很强了,但还可以更强。通过结合知识图谱,LLM 有望解决缺乏事实知识、幻觉和可解释性等诸多问题;而反过来 LLM 也能助益知识图谱,让其具备强大的文本和语言理解能力。而如果能将两者充分融合,我们也许还能得到更加全能的人工智能。 今天我

    2024年02月02日
    浏览(58)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包