关于提示词 Prompt

这篇具有很好参考价值的文章主要介绍了关于提示词 Prompt。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Prompt原则

原则1 提供清晰明确的指示

  1. 注意在提示词中添加正确的分割符号
prompt =  """
请给出下面文本的摘要:
<你的文本>
"""
  1. 可以指定输出格式,如:Json、HTML
  2. 提示词中可以提供少量实例,如让它写有步骤的操作,可以在提示词中添加
步骤1:
步骤2:
...
步骤N:

原则2 给模型充分的时间运算
有时候LLM的回答并不是我们需要的,这时需要将需求一步步分解,让模型做更多工作去检查

LLM可以做的工作

总结摘要
情感分析
实体提取
推理
不同语言间翻译
扩展:给定少量文字生成文本
语法拼写检查

聊天机器人

关于提示词 Prompt,LLM,prompt,LLM,提示词,system
system:有助于设置助手的行为和人设,作为高层指令用于对话,能引导assistant的回答
assistant:聊天模型
user:用户
temperature:控制模型输出的稳定度。值越小,模型针对相同输入的输出就越想同。值越大,针对相同输入,会有大概率输出不同结果

参考

AI大神吴恩达教你写提示词文章来源地址https://www.toymoban.com/news/detail-619122.html

到了这里,关于关于提示词 Prompt的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【LLM】Prompt微调

    在机器学习中,Prompt通常指的是一种生成模型的输入方式。生成模型可以接收一个Prompt作为输入,并生成与该输入相对应的输出。Prompt可以是一段文本、一个问题或者一个片段,用于指导生成模型生成相应的响应、续写文本等。 一般大模型蕴含的训练数据量往往是百亿级别甚

    2024年01月17日
    浏览(43)
  • LLM(1)之基础使用prompt

    LLM之prompt提示词 Author:Once Day Date:2023年4月30日 参考文章: 中文完整版全9集ChatGPT提示工程师|AI大神吴恩达教你写提示词 ChatGPT Shortcut - 简单易用的 ChatGPT 快捷指令表,让生产力倍增!标签筛选、搜索和一键复制 Prompts | Tag filtering, keyword search, and one-click copy prompts (

    2024年02月09日
    浏览(29)
  • 算法框架-LLM-1-Prompt设计(一)

    原文:算法框架-LLM-1-Prompt设计(一) - 知乎 目录 收起 1 prompt-engineering-for-developers 1.1 Prompt Engineering 1.1.1 提示原则 1. openai的环境 2. 两个基本原则 3. 示例 eg.1 eg.2 结构化输出 eg.3 模型检验 eg.4 提供示例 eg.5 将一个任务拆开几步去解决 eg.6 指导模型解决方案并比较 eg.7 局限性

    2024年02月07日
    浏览(35)
  • 【LLM】Prompt tuning大模型微调实战

    prompt tuning可看做是prefix tuning的简化版本,在输入层加入prompt tokens,并不需要加入MLP进行调整来解决难训练的问题,作者实验表明随着预训练模型参数量的增加,prompt tuning效果逼近fine tuning效果 之前提到过可以借助 peft 库(Parameter-Efficient Fine-Tuning)进行微调,支持如下tuni

    2024年02月13日
    浏览(51)
  • 大语言模型LLM微调技术:Prompt Tuning

    截止23年3月底,语言模型发展走过了三个阶段: 第一阶段 :设计一系列的自监督训练目标(MLM、NSP等),设计新颖的模型架构(Transformer),遵循Pre-training和Fine-tuning范式。典型代表是BERT、GPT、XLNet等; 第二阶段 :逐步扩大模型参数和训练语料规模,探索不同类型的架构。

    2024年02月03日
    浏览(42)
  • 如何引导llm为自己写prompt生成剧本

    好的,我会尝试编写一个狗血修仙穿越短剧的prompt,以激发你的想象力,让你创作出一个既有趣又生动的短剧。以下是我的prompt: 标题:《误入仙途:狗血修仙穿越记》 背景设定: 在一个现代都市,一位名叫李明的普通上班族意外穿越到了一个名为“修仙界”的奇幻世界。

    2024年02月19日
    浏览(39)
  • ssprompt:一个LLM Prompt分发管理工具

    自从OpenAI掀起了一轮新的AI革命,国内外众多玩家入场接受时代洗礼,一时间LLM相关技术井喷,而提示工程( prompt engineering )就在其中。 它就像是为大语言模型(LLM)设计的\\\"语言游戏\\\"。通过这个\\\"游戏\\\",我们可以更有效地引导 LLM 来处理问题。在真正的通用智能到来前,基于当

    2024年02月09日
    浏览(45)
  • LLM学习《Prompt Engineering for Developer》

    教程地址:https://github.com/datawhalechina/prompt-engineering-for-developers 分割符 :分隔符就像是 Prompt 中的墙,将不同的指令、上下文、输入隔开,避免意外的混淆。你可以选择用 ```,“”\\\", , ,: 等做分隔符,只要能明确起到隔断作用即可。 寻求结构化的输出 。按照某种格式组织

    2024年02月11日
    浏览(35)
  • [NLP]LLM---大模型指令微调中的“Prompt”

    大家有没有分析过 prompt对模型训练或者推理的影响?之前推理的时候,发现不加训练的时候prompt,直接输入模型性能会变差的,这个倒是可以理解。假如不加prompt直接训练,是不是测试的时候不加prompt也可以?还有一个就是多轮prompt和单轮prompt怎么构造的问题?好多模型训练

    2024年02月09日
    浏览(49)
  • LLM 大语言模型 & Prompt Technique 论文精读-3

    链接:https://arxiv.org/abs/2207.01206 摘要:现有的用于在交互环境中引导语言的基准测试要么缺乏真实世界的语言元素,要么由于数据收集或反馈信号中涉及大量人类参与而难以扩展。为了弥合这一差距,我们开发了WebShop——一个模拟的电子商务网站环境,拥有118万个真实世界的

    2024年02月16日
    浏览(76)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包