COT、COT-SC、TOT 大预言模型思考方式||底层逻辑:prompt设定

这篇具有很好参考价值的文章主要介绍了COT、COT-SC、TOT 大预言模型思考方式||底层逻辑:prompt设定。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

先讲一下具体缩写的意思 

COT-chain of thoughts
COT-SC (Self-consistency)
Tree of thoughts:Deliberate problem solving with LLM
 

COT、COT-SC、TOT 大预言模型思考方式||底层逻辑:prompt设定,LLM,prompt,LLM

 

我理解其实不复杂
1. 最简单的是:直接大白话问一次 (IO)
2. 进阶一点是:思维链,让一步步思考(CoT)
3. 再进一步是:思维链问多次,出结果后选举——少数服从多数(CoT-SC)
4. 思维树=思维链问多次+链里每一步的逐步选举(ToT)

TOT论文中文解读:

(309条消息) Tree of Thoughts: Deliberate Problem Solving with Large Language Models翻译_nopSled的博客-CSDN博客

Github链接:

princeton-nlp/tree-of-thought-llm: Official Implementation of "Tree of Thoughts: Deliberate Problem Solving with Large Language Models" (github.com)

论文原文:

[2305.10601] Tree of Thoughts: Deliberate Problem Solving with Large Language Models (arxiv.org)

REACT

Reference

GPT-4使用Tree of Thoughts框架,在解决复杂问题方面的能力提升了900%。_哔哩哔哩_bilibili文章来源地址https://www.toymoban.com/news/detail-554428.html

到了这里,关于COT、COT-SC、TOT 大预言模型思考方式||底层逻辑:prompt设定的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【LLM】大语言模型高效微调方案Lora||直击底层逻辑

    大白话:  DL的本质就是矩阵的乘法,就能实现LLM, 假设两个矩阵都很大,一个mxn,一个nxd的矩阵,m,n,d这几个数字可能几千甚至上万的场景,计算起来代价很大,如果我们可以small 这些数字,缩小到10甚至5这样的scenario,cost就非常的小。 训练的时候只训练 右边橙色的AB矩阵 那

    2024年02月05日
    浏览(36)
  • 【Python | 自动驾驶】阐发AI大模型在APS中的底层逻辑与代码实现

    当今, AI大模型 是一个火热的。随着人工智能的迅猛发展,AI大模型在各个领域展现出了巨大的潜力和应用价值。在自动驾驶领域,AI大模型的应用驱动自动驾驶算法具备更强的泛化能力。 那么 AI大模型 为自动驾驶赋能了什么?它的未来发展前景又是怎样? 本文将以

    2024年02月05日
    浏览(31)
  • 大模型思维链(CoT prompting)

    **CoT 提示过程是一种大模型提示方法,它鼓励大语言模型解释其推理过程。**思维链的主要思想是通过向大语言模型展示一些少量的 exapmles,在样例中解释推理过程,大语言模型在回答提示时也会显示推理过程。这种推理的解释往往会引导出更准确的结果。 零样本思维链(

    2024年03月11日
    浏览(49)
  • 论文笔记 CoT:提示+推理+大模型=思维链提示

    提示+推理+大模型:CoT 思维链提示 来源 Google Brain 论文:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 一、摘要 本文探讨了生成思想链一系列中间推理步骤如何显著提高大型语言模型执行复杂推理的能力。特别是,我们展示了这种推理能力是如何通过一种称为思维链

    2024年02月03日
    浏览(28)
  • 解密Prompt系列9. 模型复杂推理-思维链COT基础和进阶玩法

    终于写了一篇和系列标题沾边的博客,这一篇真的是解密prompt!我们会讨论下思维链(chain-of-Thought)提示词究竟要如何写,如何写的更高级。COT其实是Self-ASK,ReACT等利用大模型进行工具调用方案的底层逻辑,因此在Agent调用章节之前我们会有两章来讲思维链 先打预防针,COT当前

    2024年02月09日
    浏览(27)
  • 金字塔原理(思考的逻辑)

    前言:前面学习了表达的逻辑,那在表达之前,如何组织内容?如何进行思考?接下来看第二篇—— 思考的逻辑 。 目录 应用逻辑顺序 时间顺序 结构顺序 程度顺序 概括各组思想  什么是概括? 思想表达方式 如何概括? 所有的思想必须具有某种逻辑顺序。 组织在一起的思

    2024年02月11日
    浏览(31)
  • 谈谈NLP中 大语言模型LLM的 思维链 Chain-of-Thought(CoT)

    传送门:https://github.com/wzzzd/LLM_Learning_Note/blob/main/Tuning/chain-of-thought-prompting.md 在过去几年的探索中,业界发现了一个现象,在增大模型参数量和训练数据的同时,在多数任务上,模型的表现会越来越好。因而,现有的大模型LLM,最大参数量已经超过了千亿。 然而,增大模型参

    2024年02月12日
    浏览(36)
  • 怎么让英文大预言模型支持中文?(一)构建自己的tokenization

    代码地址:https://github.com/taishan1994/sentencepiece_chinese_bpe 目前,大语言模型呈爆发式的增长,其中,基于llama家族的模型占据了半壁江山。而原始的llama模型对中文的支持不太友好,接下来本文将讲解如何去扩充vocab里面的词以对中文进行token化。 对斗破苍穹语料进行预处理,每

    2024年02月10日
    浏览(30)
  • 聚类算法(KMeans)模型评估方法(SSE、SC)及案例

    一、概述         将相似的样本自动归到一个类别中,不同的相似度计算方法,会得到不同的聚类结果,常用欧式距离法;聚类算法的目的是在没有先验知识的情况下,自动发现数据集中的内在结构和模式。是 无监督学习 算法 二、分类 根据聚类 颗粒度 :细聚类、粗聚

    2024年01月20日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包