Prompt2Model: Generating Deployable Models from Natural Language Instructions

这篇具有很好参考价值的文章主要介绍了Prompt2Model: Generating Deployable Models from Natural Language Instructions。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本文是LLM系列文章,针对《 Prompt2Model: Generating Deployable Models from Natural Language Instructions》的翻译。

摘要

大型语言模型(LLM)使今天的系统构建者能够通过提示创建有能力的NLP系统,他们只需要用自然语言描述任务并提供几个例子。然而,在其他方面,LLM是传统的专用NLP模型的倒退;它们需要大量的计算资源来进行部署,并且可以在API后面进行门控。在本文中,我们提出了Prompt2Model,这是一种通用方法,它采用自然语言任务描述,如提供给LLM的提示,并使用它来训练有利于部署的专用模型。这是通过检索现有数据集和预训练模型、使用LLM生成数据集以及对这些检索和生成的数据集进行监督微调的多步骤过程来完成的。在三项任务中,我们证明,在输入相同的少量提示的情况下,Prompt2Model训练的模型比强LLM gpt-3.5-turbo的结果平均好20%,同时小700倍。我们还表明,这些数据可以用于获得模型性能的可靠性能估计,使模型开发人员能够在部署前评估模型可靠性。Prompt2Model开源地址https://github.com/neulab/prompt2model

1 引言

2 Prompt2Model框架

3 参考实现

4 实验设置

5 实验结果

6 讨论与结论

我们提出了Prompt2Model,这是一个仅使用自然语言提示自动构建任务特定模型的框架。我们的概念验证实验表明,尽管Prompt2Model使用了与LLM类似的易于使用的界面,但它提供了小而准确的模型,其生成的数据集可用于评估真实世界的性能。除了我们的参考实现提供了一个现成的工具外,Prompt2Model的可扩展设计和模块化实现使其成为推进模型提取、数据集生成、综合评估、数据集检索和模型检索的平台。
我们相信我们的Prompt2Model框架可以启发各种新颖的研究问题。我们希望我们的平台能够在未来更深入地研究生成数据和模型的质量保证。有趣的问题包括我们应该为下游模型训练生成多少数据,以及它应该有多多样化?我们如何有效地混合检索到的和生成的数据集,以实现互补优势(例如,使用数据集生成来关注检索到的数据集无法覆盖的模型的预期输入)?由于用户通常很难提前阐明他们的需求,未来的扩展还应该解决人工在环纠正的挑战——要么提供潜在的策略来帮助用户迭代地完善提示,要么允许用户在任务元数据提取和生成的数据与他们的意图不一致时执行事后修复。我们希望提出明确的挑战,并邀请社区在我们的框架中为各种组件的新实现做出贡献。

不足

我们系统的主要限制之一是,我们目前的实验都是使用gpt-3.5-turbo API(用于提示解析、数据集生成和模型检索)进行的。这种LLM是付费的、封闭的来源,这使得它作为一种科学人工制品存在问题。此外,该LLM的服务提供商OpenAI禁止使用其API创建可能与OpenAI竞争的模型,从而在商业应用中使用Prompt2Model产生潜在的法律问题。我们正在探索开源LLM的集成,以避免对专有API的依赖。
我们工作的另一个限制是Prompt2Model支持需要处理英语以外语言的任务的能力有限。虽然我们已经展示了我们的系统在支持从日语自然语言查询生成代码方面的局限性,但我们的系统可能会在较低资源语言方面遇到更多困难。在我们的参考实现中,我们使用未发表的gpt-3.5-turbo模型作为数据集生成器。该模型被认为与GPT-3相似,GPT-3在93%的英语文档、1%的德语文档、1%法语文档和<5%的其他语言文档上进行了训练。我们使用这个模型可能会加剧高资源语言和低资源语言之间现有的语言技术差异。
一个潜在的限制是,我们只在3个任务上测试了我们的方法,每个任务都有一个数据集和一个评估指标。我们证明这一决定是合理的,因为我们的重点是提供一个可扩展的软件系统,而不是在许多数据集上建立最先进的结果,但我们相信我们的结果表明了更广泛的适用性。

道德声明

任何能让公众更容易获得强大技术的系统都具有伦理意义。Widder等人讨论了与深度伪造软件库相关的开源软件包的道德问题,包括使恶意行为者能够使用他们不具备利用技术技能的技术的可能性。对于诸如Prompt2Model之类的AutoML系统来说,这也是一个风险;然而,我们认为,更大的可访问性所带来的好处超过了这种风险,特别是考虑到生成有害数据的低门槛已经以提示的web界面模型的形式存在。
虽然Prompt2Model在输入有害信息的情况下可能会生成有毒、攻击性或不准确的合成数据,但与底层提示模型相比,Prompt2Mode的风险并不更大;事实上,使用从Hugging Face检索到的模型和补充数据集可能会降低下游模型复制提示模型输出的危害的可能性,尽管还需要更多的调查。与所有ML模型一样,Prompt2Model返回的模型可能会出错,我们的目标是在文档中对系统的潜在限制保持透明。
我们希望Prompt2Model将广泛有用。我们的工作动机是希望增加非NLP社区但将从社区创新中受益的人对NLP模型的可访问性;特别是那些将在下游使用NLP模型但可能不具备设计自己的系统的领域特定知识的人。Prompt2Model也可能被证明对早期NLP研究人员有用,因为它为各种任务的基线提供了直观的起点,并能够发现所描述的任务和现有工作之间的相似性。我们开源Prompt2Model,欢迎社区贡献。文章来源地址https://www.toymoban.com/news/detail-683196.html

到了这里,关于Prompt2Model: Generating Deployable Models from Natural Language Instructions的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • TTS算法笔记:MusicLM- Generating Music From Text(AI生成音乐)

    摘要: 介绍了一个以文本作为条件,生成高保真、长时间片的音乐音频。比如文本为“由扭曲的吉他重复段伴奏的平静的小提琴旋律”,MusicLM可以可以根据文本条件,生成24kHz采样率,分钟级别的连续音乐音频。 从摘要中可以得知,这篇文章解决的根本问题其实可以非常简

    2024年02月12日
    浏览(44)
  • 论文阅读- 人工智能安全 TEXTBUGGER: Generating Adversarial Text Against Real-world Applications

     背景:  Deep Learning-based Text Understanding (DLTU)简介: 基于深度学习的文本理解(DLTU)广泛运用于问答、机器翻译和文本分类,情感分析(eg 电影评论分类)、有害内容检测(讽刺、讽刺、侮辱、骚扰和辱骂内容)等安全敏感应用中。 DLTU天生容易受到对抗性文本攻击,在对抗性

    2024年01月22日
    浏览(33)
  • PyTorch翻译官网教程-NLP FROM SCRATCH: GENERATING NAMES WITH A CHARACTER-LEVEL RNN

    NLP From Scratch: Generating Names with a Character-Level RNN — PyTorch Tutorials 2.0.1+cu117 documentation 这是我们关于“NLP From Scratch”的三篇教程中的第二篇。在第一个教程中 /intermediate/char_rnn_classification_tutorial 我们使用RNN将名字按其原始语言进行分类。这一次,我们将通过语言中生成名字。

    2024年02月13日
    浏览(36)
  • 【论文阅读】EMO: Emote Portrait Alive - Generating Expressive Portrait Videos with Audio2Video Diffusi

    在弱条件下使用音视频扩散模型生成富有表现力的肖像视频(音频+图像=动态视频) paper:[2402.17485] EMO: Emote Portrait Alive -- Generating Expressive Portrait Videos with Audio2Video Diffusion Model under Weak Conditions (arxiv.org) code:喜闻乐见没开源 通过关注音频Prompt和面部动作之间的动态和关系来解

    2024年04月13日
    浏览(38)
  • 【Prompt Engineering 教程:写 Prompt 的艺术】1、什么是 Prompt Engineering?

    解释这个词之前,首先需要解释 prompt 这个词。 简单的理解它是 给 AI 模型的指令 。 它可以是一个问题、

    2024年02月05日
    浏览(27)
  • model.train()和model.eval()两种模式的原理

    1. model.train() 在使用 pytorch 构建神经网络的时候,训练过程中会在程序上方添加一句model.train(),作用是 启用 batch normalization 和 dropout 。 如果模型中有BN层(Batch Normalization)和 Dropout ,需要在 训练时 添加 model.train()。 model.train() 是保证 BN 层能够用到 每一批数据 的均值和方差

    2024年02月20日
    浏览(25)
  • beego的model篇 - 模型定义和表生成model

    复杂的模型定义不是必须的,此功能用作数据库数据转换和自动建表。 默认的表名规则,使用驼峰转蛇形: 除了开头的大写字母以外,遇到大写会增加  _ ,原名称中的下划线保留。 1.1. 自定义表名 如果前缀设置为  prefix_  那么表名为:prefix_auth_user 1.2. 自定义索引 为单个

    2024年01月19日
    浏览(76)
  • Prompt工程师指南[应用篇]:Prompt应用、ChatGPT|Midjouney Prompt Engineering

    主题: 与 ChatGPT 对话 Python 笔记本 Topics: ChatGPT介绍 审查对话任务 与ChatGPT对话 Python笔记本 ChatGPT介绍 ChatGPT是OpenAI训练的一种新型模型,可以进行对话交互。该模型经过训练,可以按照提示中的指令,在对话上下文中提供适当的回应。ChatGPT 可以帮助回答问题、建议菜谱、按

    2024年02月04日
    浏览(44)
  • R语言有关模型方面的函数(model.)介绍-model.matrix

    最近闲暇时间大量阅读了一些机器学习方面的 R 包源码,在此对阅读过程中的一些实用但是不常见的函数进行了整理,不论以后大家是使用R建模,还是使用R或者Rcpp开发程序包,都希望对大家有所帮助! model.matrix :可以根据公式提取模型中的设计矩阵(添加了截距项),请

    2024年02月07日
    浏览(31)
  • 【四】3D Object Model之创建Creation——clear_object_model_3d()/copy_object_model_3d()算子

    😊😊😊 欢迎来到本博客 😊😊😊 🌟🌟🌟 Halcon算子太多,学习查找都没有系统的学习查找路径,本专栏主要分享Halcon各类算子含义及用法,有时间会更新具体案例。 😊😊😊 具体食用方式:可以点击本专栏【Halcon算子快速查找】–搜索你要查询的算子名称;或者点击

    2024年02月11日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包