最高20倍!压缩ChatGPT等模型文本提示,极大节省AI算力

这篇具有很好参考价值的文章主要介绍了最高20倍!压缩ChatGPT等模型文本提示,极大节省AI算力。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

最高20倍!压缩ChatGPT等模型文本提示,极大节省AI算力_信息_段落_问题

在长文本场景中,ChatGPT 等大语言模型经常面临更高算力成本、更长的延迟以及更差的性能。为了解决这三大难题,微软开源了 LongLLMLingua。

据悉,LongLLMLingua 的核心技术原理是将“文本提示”实现最高 20 倍的极限压缩,同时又可以准确评估提示中内容与问题的相关程度,消除无关内容保留关键信息,达到降本增效目的。

实验结果显示,经过 LongLLMLingua 压缩后的提示,比原始提示的性能提升了 17.1%, 同时输入 GPT-3.5-Turbo 的 tokens 减少了 4 倍。在 LongBench 和 ZeroScrolls 测试中显示,每 1,000 个样本节省 28.5 美元和 27.4 美元的成本。

当压缩约 10 k tokens 的提示,压缩率在 2-10 倍范围内时,端到端延迟可以降低 1.4-3.8 倍,显著加速了推理速率。

论文地址:‌

开源地址:‌https://github.com/microsoft/LLMLingua

 github       https://github.com/microsoft/LLMLingua

从介绍论文来看,LongLLMLingua主要由问题感知的粗细粒度压缩、文档重排序、动态压缩比率和压缩后子序列恢复4大模块组成。

问题感知的粗粒度压缩模块

该模块的设计思路是,使用问题文本进行条件化,评估每个段落与问题的相关程度,保留相关度更高的段落。

最高20倍!压缩ChatGPT等模型文本提示,极大节省AI算力,自然语言,aigc,大模型,chatgpt,人工智能,AIGC

具体来说,通过计算问题文本与各段落的条件困惑度,判断二者的逻辑关联程度,条件困惑度越低表示相关性越高。

在此基础上,设置阈值保留困惑度较低的段落,过滤掉与问题不相关的段落。这实现了根据问题快速移除大量冗余信息的粗粒度压缩。

文档重排序模块

研究表明,在提示中,靠近开始和结束位置的内容对语言模型的影响最大。所以该模块根据各段落的相关程度对其进行重新排序,使关键信息出现在对模型更敏感的位置,减少中间位置信息损失。

通过利用粗粒度压缩模块计算出的各段落与问题的关联度,对段落进行排序,使关联度最高的段落排在最前面。这进一步增强了模型对关键信息的感知。

最高20倍!压缩ChatGPT等模型文本提示,极大节省AI算力,自然语言,aigc,大模型,chatgpt,人工智能,AIGC

在获取重排序后的相关段落后,需要进一步压缩每个段落内的词量。此时动态压缩比率模块对提示进行精细调控。

动态压缩比率模块

对更相关的段落使用更低的压缩比率,分配更多的保留词语预算,而对相关性较弱的段落则使用更高的压缩比率。

最高20倍!压缩ChatGPT等模型文本提示,极大节省AI算力,自然语言,aigc,大模型,chatgpt,人工智能,AIGC

通过利用粗粒度压缩结果中的段落关联度,动态确定每个段落的压缩比率。关联度最高的段落压缩比率最低,依次类推。

实现自适应、细粒度的压缩控制,有效保留关键信息。压缩后还需要提高结果的可靠性,这就需要下面的压缩后子序列恢复模块。

压缩后子序列恢复模块

在压缩过程中,一些关键词可能被过度删除,影响信息的完整性,而该模块可以检测并恢复这些关键词。

工作原理是,利用源文本、压缩文本、生成文本之间的子序列关系,从生成结果中恢复完整的关键名词词组,修复压缩带来的信息缺失,提高结果的准确性。

最高20倍!压缩ChatGPT等模型文本提示,极大节省AI算力,自然语言,aigc,大模型,chatgpt,人工智能,AIGC

整个过程有点像我们快速浏览文章、筛选信息、整合要点的工作流程等,使模型快速捕捉文本的关键信息,生成高质量的摘要。

LongLLMLingua实验数据

研究人员构建了一个基于Natural Questions的多文档问答数据集,其中每个示例包含一个问题及20个相关文档,并需要从这20个文档中查找到答案。

该数据集模拟了实际的搜索引擎和问答场景,可以评估模型在长文档中的问答性能。

此外,研究人员还采用了更为通用的长文本理解基准测试集,包括LongBench和ZeroSCROLLS,以评估方法在更广泛场景下的效果。

其中,LongBench覆盖单文档问答、多文档问答、文本摘要、少样本学习等任务,包含英文数据集。ZeroSCROLLS则包括文本摘要、问答理解、情感分析等典型语言理解任务。

最高20倍!压缩ChatGPT等模型文本提示,极大节省AI算力,自然语言,aigc,大模型,chatgpt,人工智能,AIGC

在这些数据集上,研究人员比较了LongLLMLingua压缩后的提示与原始提示在大语言模型上的性能。同时,也与其他提示压缩方法进行了对比,如基于困惑度的LLMLingua和基于检索的方法,评估了LongLLMLingua的有效性。

实验结果显示,LongLLMLingua压缩后的提示在问答准确率、生成文本质量等指标上普遍优于原始提示

例如,在NaturalQuestions上,压缩4倍的提示提升了17.1%的问答准确率。当压缩约10k tokens的提示,压缩率在2-10倍范围内时,端到端延迟可以降低1.4-3.8倍。这充分证明LongLLMLingua可以在压缩提示的同时提升关键信息提取。文章来源地址https://www.toymoban.com/news/detail-827647.html

到了这里,关于最高20倍!压缩ChatGPT等模型文本提示,极大节省AI算力的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • IP-Adapter:文本兼容图像提示适配器,用于文本到图像扩散模型

    IP-Adapter这是一种有效且轻量级的适配器,用于实现预训练文本到图像扩散模型的图像提示功能。只有 22M 参数的 IP 适配器可以实现与微调图像提示模型相当甚至更好的性能。IP-Adapter 不仅可以推广到从同一基本模型微调的其他自定义模型,还可以推广到使用现有可控工具的可

    2024年01月18日
    浏览(48)
  • IP-Adapter:用于文本到图像扩散模型的文本兼容图像提示适配器

    IP-Adapter是图像提示适配器,用于预训练的文本到图像扩散模型,以实现使用图像提示生成图像的能力; IP-Adapter的关键设计是解耦的交叉注意力机制,将交叉注意力层分离为文本特征和图像特征,实现了图像提示的能力。 img2img使用unet架构,包括一个编码器(下采样)和一个

    2024年02月01日
    浏览(57)
  • ChatGPT的Prompts关键词提示工程集合:包含AI绘画和GPT文本对话

    明确一个概念,ChatGPT是一种大型的自然语言处理模型,它基于深度神经网络和语言模型技术,可以通过对已有的海量文本数据进行训练,从而实现对自然语言的理解和生成。ChatGPT可以用于各种任务,如文本生成、对话生成、情感分析、语言翻译等。 相比于之前写过一篇关于

    2024年02月11日
    浏览(69)
  • 【AIGC】IP-Adapter:文本兼容图像提示适配器,用于文本到图像扩散模型

            IPAdapter能够通过图像给Stable Diffusion模型以内容提示,让其生成参考该图像画风,可以免去Lora的训练,达到参考画风人物的生成效果。         通过文本提示词生成的图像,往往需要设置复杂的提示词,通常设计提示词变得很复杂。文本提示可以由图像来替代

    2024年01月16日
    浏览(59)
  • 对于文本生成模型的指导性和整体性研究(chatgpt生成)

    对于文本生成模型 假设输入是唯一性的,输出是概率top——k的 只是输入某段文本完全无法续写一个有目标的结果 故而输入要具有指导性和整体性 将上面的观点写成一篇学术论文 题目:对于文本生成模型的指导性和整体性研究 摘要:在自然语言处理领域,文本生成模型在近

    2024年02月09日
    浏览(51)
  • 外贸版ChatGPT,每天节省5小时开发客户时间,可以用来干这些事情

    最近很多外贸朋友跟我说订单下降了很多,外贸市场行情不好,客户越来越难谈,获客成本也越来越高了等等 但是我还是会经常提醒:有尝试过升级转型吗,比如启用高效开发客户方法、提高跟进技巧等等 最近火爆出圈的 ChatGPT 也是越来越多外贸人知道了,已经被应用于很

    2023年04月23日
    浏览(44)
  • 【大数据模型】让chatgpt为开发增速(开发专用提示词)

    汝之观览,吾之幸也!本文主要聊聊怎样才能更好的使用提示词,给开发提速,大大缩减我们的开发时间,比如在开发中使用生成表结构脚本的提示词,生成代码的提示词等等。 一、准备 本文主要根据Claude进行演示,关于如何使用Claude技术(主要是免费),请参考文章 【大

    2024年02月10日
    浏览(32)
  • 不加班,最高20天全薪年假在微软做程序员究竟有多爽?

    66岁的比尔·盖茨离婚了… 前段时间,微软联合创始人比尔·盖茨和妻子梅琳达·盖茨双双发文官宣离婚,长达27年的婚姻正式宣告解体。声明中写道,两人认为继续保持婚姻关系已经无法让彼此继续提升。 两人的声明都设置为禁止评论。 根据福布斯实时富豪榜,截至当地时间

    2024年02月05日
    浏览(54)
  • 【回答问题】ChatGPT上线了!给我推荐20个比较流行的AI作画模型!

    好的,下面是20个比较流行的AI作画模型: DALL-E GAN Deep Dream CycleGAN StyleGAN pix2pix SketchRNN BigGAN ProGAN ESRGAN SPADE BigVAE StackGAN VQ-VAE 3D-GAN SinGAN Text2Image StarGAN FunGAN Image2StyleGAN 这些模型的具体应用可以结合你的需求来进行选择。 当然,以下是20个比较流行的AI作画模型的代码: StyleG

    2024年02月09日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包