微软 | 把local小模型当作大语言模型的插件?

这篇具有很好参考价值的文章主要介绍了微软 | 把local小模型当作大语言模型的插件?。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、概述

title:Small Models are Valuable Plug-ins for Large Language Models

论文地址:https://arxiv.org/abs/2305.08848

代码:https://github.com/JetRunner/SuperICL

1.1 Motivation

  1. 大语言模型想GPT-3和GPT-4权重没有开放出来,他们的参数量级太大没法部署到通用的硬件上面,导致在大规模的监督数据上做tuning非常具有挑战性。
  2. 因为上下长度的限制,导致In-Context Learning(ICL)只能利用一小部分监督样本数据。

1.2 Methods

  1. 本文提出了Super In-Context Learning(SuperICL),能够让黑盒的LLMs和本地的fine-tuned小模型一起结合,在监督任务中取得优越的性能。

1.3 Conclusion

  1. 本文提出了SuperICL方法,可以融合llm api和本地的fine-tuned插件模型。
  2. SuperICL可以提高性能,超过最先进的微调模型,同时解决上下文学习的不稳定性问题。
  3. SuperICL可以增强小型模型的功能,例如多语言和可解释性。

1.4 limitation

  1. 时间和成本:时间是两个模型的和,同时调用llm api的成本也比较高。
  2. 本地plug-in模型对抗攻击的能力比较弱,也会被SuperICL继承下来,如果插件模型受到攻击,整个系统的效果可能也会低于ICL。
  3. 只评估了文本分类的效果,没在摘要,QA,semantic parsing任务上做评估。

二、详细内容

1. ICL与SuperICL对比【实现方案】

workflow of ICL

微软 | 把local小模型当作大语言模型的插件?

算法过程

微软 | 把local小模型当作大语言模型的插件?

SuperICL步骤:

  • 随机sampling训练样本,并且利用plug-in models预测label和置信度
  • 测试样本也通过plug-in models预测结果,然后拼接到上述context的后面
  • 最后LLM模型预测最终的结果(如果最终结果和plug-in 模型的结果不一致,可以要求大模型进行解析)

2. 构造的样本举例

微软 | 把local小模型当作大语言模型的插件?

  • 基于本地监督数据训练一个插件的模型(见过本地很多监督数据)
  • 融合本地插件模型的结果进行预测

3. 在GLUE数据集上的结果

微软 | 把local小模型当作大语言模型的插件?

  • 大模型LLM的平均分数为81.32,本地fine-tuning后模型的效果是88.68,最终SuperICL模型的结果是89.90

4. 结合跨语言插件模型在跨语言上的效果

微软 | 把local小模型当作大语言模型的插件?

  • 结合专门为跨语言模型设计的XML-V模型,大部分任务相对于GPT-3.5 ICL提升不错
  • token的限制,导致部分语言效果比较差

5. 消融实验

微软 | 把local小模型当作大语言模型的插件?

  • Ctxt:上下文example
  • Conf:插件模型的置信度分数
  • Ref:是否在测试集中利用插件模型预测结果

6. 改写比例和正确率

微软 | 把local小模型当作大语言模型的插件?

  • MNLI,SST-2:改写率较低,准确率高
  • MRPC:改写率较高,准确率偏低
  • 上述结论可能和插件模型的结果强相关

7. 改写比例和插件执行度的关系

微软 | 把local小模型当作大语言模型的插件?文章来源地址https://www.toymoban.com/news/detail-450067.html

  • 置信度比较低的时候,被改写的比例高

到了这里,关于微软 | 把local小模型当作大语言模型的插件?的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Generative AI 新世界 | 大型语言模型(LLMs)概述

    在上一篇《Generative AI 新世界:文本生成领域论文解读》中,我带领大家一起梳理了文本生成领域(Text Generation)的主要几篇论文:InstructGPT,RLHF,PPO,GPT-3,以及 GPT-4。本期文章我将帮助大家一起梳理另一个目前炙手可热的话题: 大型语言模型 (Large Language Models,或简写为

    2024年02月07日
    浏览(47)
  • 介绍Phi-3:微软重新定义小型语言模型(SLM)的可能性

      每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与

    2024年04月28日
    浏览(30)
  • 微软 Turing Bletchley v3视觉语言模型更新:必应搜索图片更精准

    据微软新闻稿透露,在推出第三代Turing Bletchley视觉语言模型后,微软计划逐步将其整合到Bing等相关产品中,以提供更出色的图像搜索体验。这款模型最初于2021年11月面世,并在2022年秋季开始邀请用户测试。 凭借用户的反馈和建议,微软不断进行调整和改进,使模型能够根据

    2024年02月10日
    浏览(44)
  • 微软官方出品:GPT大模型编排工具,支持C#、Python等多个语言版本

    随着ChatGPT的火热,基于大模型开发应用已经成为新的风口。虽然目前的大型模型已经具备相当高的智能水平,但它们仍然无法完全实现业务流程的自动化,从而达到用户的目标。 微软官方开源的Semantic Kernel的AI编排工具,就可以很好的满足我们自定义开发。 Semantic Kernel是一

    2024年02月03日
    浏览(50)
  • 微软 & CMU - Tag-LLM:将通用大语言模型改用于专业领域

    🍉 CSDN 叶庭云 : https://yetingyun.blog.csdn.net/ 论文地址:https://arxiv.org/abs/2402.05140 Github 地址:https://github.com/sjunhongshen/Tag-LLM 大语言模型(Large Language Models,LLMs)在理解和生成自然语言方面展现出卓越的能力。然而,在预训练语料库中代表性不足的高度专业领域,例如物理和生

    2024年02月20日
    浏览(41)
  • 【概述版】悲剧先于解析:在大型语言模型的新时代,历史重演了

    这篇论文探讨了大型语言模型(LLM)的成功对自然语言处理(NLP)领域的影响,并提出了在这一新时代中继续做出有意义贡献的方向。作者回顾了2005年机器翻译中大型语法模型的第一个时代,并从中汲取教训和经验。他们强调硬件进步对于塑造规模的重要性和可获得性的重要

    2024年01月22日
    浏览(50)
  • 苹果计划 2028 年推出无人驾驶汽车;微软开始开发小型语言模型;周鸿祎谈AI

    苹果计划 2028 年推出汽车 今日凌晨,据彭博社援引知情人士消息称,之前苹果设想要推出真正的无人驾驶汽车,而目前在开发的是自动驾驶功能更为有限的电动汽车,并推迟了发布汽车的目标日期。 苹果公司现在计划 2028 年推出 Lever 2+ 级别的无人驾驶汽车, 而苹果原计划是

    2024年01月25日
    浏览(42)
  • 微软近日推出了Phi-2,这是一款小型语言模型,但其性能却十分强大

    每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未

    2024年02月04日
    浏览(73)
  • 利用微软Bing AI语言大模型辅助提高写代码、阅读代码、解bug的效率

    目录 1 怎么才能使用Bing AI 2 Bing AI使用举例 2.1 代码没看懂,可以问Bing AI 2.2 当你不确定你程序理解的是否正确时,可以问Bing AI 2.3 程序编译出现bug,可以问Bing AI 要想使用Bing AI,必须用微软的Edge浏览器,打开Edge浏览器,然后打开必应。 必应 (bing.com) 然后点击左上角的聊天

    2024年02月12日
    浏览(42)
  • 微软亚洲研究院多模态模型NÜWA:以自然语言创造视觉内容

    此前我们曾提出了一个问题:从文字脚本生成创意视频一共分几步?微软亚洲研究院的开放领域视频生成预训练模型给出了答案:只需一步。现在,我们追问:除了文字生成视频之外,还有哪些途径可以生成视频?我们能否使用自然语言对视觉内容进行编辑?微软亚洲研究院

    2024年02月04日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包