llama_index 官方文档阅读笔记 (持续更新版)

这篇具有很好参考价值的文章主要介绍了llama_index 官方文档阅读笔记 (持续更新版)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

llama 0.10.17🦙版本 阅读

链接: LlamaIndex 🦙 v0.10.17

LlamaIndex 是一个基于 LLM 的应用程序的数据框架,它受益于上下文增强。这种LLM系统被称为RAG系统,代表“检索-增强生成”LlamaIndex 提供了必要的抽象,以便更轻松地摄取、构建和访问私有或特定于域的数据,以便将这些数据安全可靠地注入 LLM,以实现更准确的文本生成。

🚀 为什么选择上下文增强?LLM的局限

LLM 在人类和数据之间提供了一个自然语言接口。广泛可用的模型是在大量公开数据(如维基百科、邮件列表、教科书、源代码等)上预先训练的。然而,虽然 LLM 是在大量数据上训练的,但它们并没有在你的数据上训练,这些数据可能是私有的,也可能是特定于你试图解决的问题。它位于 API 后面、SQL 数据库中,或被困在 PDF 和幻灯片中。

您可以选择使用您的数据微调 LLM,但是:LLM是昂贵的由于培训成本高昂,很难用最新信息更新 LLM。缺乏可观测性。当你问一个LLM一个问题时,LLM是如何得出答案的并不明显。

无需微调,而是可以使用称为检索增强生成 (RAG) 的上下文增强模式来获取与特定数据相关的更准确的文本生成。RAG 涉及以下高级步骤:首先从数据源中检索信息,将其作为上下文添加到您的问题中,然后要求 LLM 根据丰富的提示回答。

通过这样做,RAG 克服了微调方法的所有三个弱点:不涉及培训,所以很便宜只有在您提出要求时才会获取数据,因此数据始终是最新的LlamaIndex 可以向您显示检索到的文档,因此更值得信赖。

🦙 为什么选择 LlamaIndex 进行上下文增强?

首先,LlamaIndex 对您使用 LLM 的方式没有限制。您仍然可以将 LLM 用作自动完成、聊天机器人、半自主代理等(请参阅左侧的用例)。它只会使 LLM 与您更相关。LlamaIndex 提供以下工具来帮助您快速建立生产就绪的 RAG 系统:

数据连接器从其本机源和格式引入现有数据。这些可以是 API、PDF、SQL 等等。

数据索引以中间表示形式构建数据,这些表示形式对 LLM 来说既简单又高效

引擎提供对数据的自然语言访问。例如:查询引擎是用于知识增强输出的强大检索接口。聊天引擎是用于与数据进行多消息“来回”交互的对话界面。

数据代理是由 LLM 驱动的知识工作者,通过工具进行增强,从简单的帮助程序函数到 API 集成等。

应用程序集成将 LlamaIndex 重新绑定到生态系统的其余部分。这可能是 LangChain、Flask、Docker、ChatGPT 或......别的东西!

开始

要安装库,请执行以下操作:

pip install llama-index

我们建议您从如何阅读这些文档开始,这些文档将根据您的经验水平为您指明正确的位置。

社区

  • 推特:https://twitter.com/llama_index

  • 不和谐 https://discord.gg/dGcwcsnxhU

相关项目

  • 🏡 LlamaHub:https://llamahub.ai |大型(且还在不断增长)的自定义数据连接器集合

  • 🧪 LlamaLab:GitHub - run-llama/llama-lab |建立在LlamaIndex之上的雄心勃勃的项目

安装设置过程略。

检索增强生成 (RAG)

LLM 是在大量数据上训练的,但它们不是在您的数据上训练的。检索增强生成 (RAG) 通过将数据添加到 LLM 已经有权访问的数据中来解决这个问题。在本文档中,您将经常看到对 RAG 的引用。在 RAG 中,您的数据被加载并准备用于查询或“索引”。用户查询作用于索引,索引将数据筛选到最相关的上下文。然后,此上下文和您的查询会随着提示一起转到 LLM,LLM 会提供响应。即使您正在构建的是聊天机器人或代理,您也希望了解将数据导入应用程序的 RAG 技术。

llama_index 中文文档,AIGC for GPT 评分体系构架,笔记,llama,人工智能,语言模型

RAG 中的阶段

RAG 中有五个关键阶段,而这些阶段又将成为您构建的任何大型应用程序的一部分。这些是:

  • 加载:这是指将数据从其所在位置(无论是文本文件、PDF、其他网站、数据库还是 API)获取到管道中。LlamaHub 提供数百种连接器供您选择。

  • 索引:这意味着创建一个允许查询数据的数据结构。对于 LLM 来说,这几乎总是意味着创建数据含义的数字表示,以及许多其他元数据策略,以便轻松准确地找到上下文相关的数据。vector embeddings

  • 存储:数据编制索引后,您几乎总是希望存储索引以及其他元数据,以避免重新编制索引。

  • 查询:对于任何给定的索引策略,您可以通过多种方式利用 LLM 和 LlamaIndex 数据结构进行查询,包括子查询、多步查询和混合策略

  • 评估:任何管道中的关键步骤是检查它相对于其他策略的有效性,或者何时进行更改。评估提供了客观的衡量标准,以衡量您对查询的响应的准确性、忠实度和速度

llama_index 中文文档,AIGC for GPT 评分体系构架,笔记,llama,人工智能,语言模型

每个步骤中的重要概念

您还会遇到一些术语,这些术语指的是每个阶段中的步骤。

加载阶段

节点和文档:A Document 是围绕任何数据源的容器 - 例如,PDF、API 输出或从数据库检索数据。A Node是 LlamaIndex 中数据的原子单位,表示源的“块Document”。节点具有元数据,可将它们与它们所在的文档以及其他节点相关联。

连接器: 数据连接器(通常称为 Reader)将来自不同数据源和数据格式的数据引入到 DocumentsNodes中。

索引阶段

索引: 摄取数据后,LlamaIndex 将帮助您将数据索引到易于检索的结构中。这通常涉及生成矢量嵌入,这些嵌入存储在称为矢量存储的专用数据库中。索引还可以存储有关数据的各种元数据。

嵌入: LLM生成称为embeddings的数据的数字表示。在筛选数据的相关性时,LlamaIndex 会将查询转换为嵌入,并且向量存储将查找与查询嵌入在数值上相似的数据

查询阶段

猎犬: 检索器定义在给定查询时如何有效地从索引中检索相关上下文。检索策略是检索数据的相关性和效率的关键。

路由器: 路由器确定将使用哪个检索器从知识库中检索相关上下文。更具体地说,该RouterRetriever类负责选择一个或多个候选检索器来执行查询。他们使用选择器根据每个候选人的元数据和查询来选择最佳选项。

节点后处理器: 节点后处理器接收一组检索到的节点,并对其应用转换、过滤或重新排序逻辑

响应合成器: 响应合成器使用用户查询和一组给定的检索文本块从 LLM 生成响应。

把它们放在一起

数据支持的 LLM 应用程序有无穷无尽的用例,但它们可以大致分为三类:

查询引擎: 查询引擎是一个端到端管道,可用于对数据提出问题。它接受自然语言查询,并返回响应,以及检索并传递给 LLM 的引用上下文。

聊天引擎: 聊天引擎是用于与数据进行对话的端到端管道(多个来回而不是单个问答)。

代理商: 智能体是由 LLM 提供支持的自动化决策者,它通过一组工具与世界互动。座席可以采取任意数量的步骤来完成给定的任务,动态地决定最佳行动方案,而不是遵循预先确定的步骤。这使其具有更大的灵活性,可以处理更复杂的任务。

自定义任务需求:自定义教程 - LlamaIndex 🦙 v0.10.17文章来源地址https://www.toymoban.com/news/detail-846150.html

  构建 LLM 应用程序#

到了这里,关于llama_index 官方文档阅读笔记 (持续更新版)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【笔记】Spring Boot 历史官方文档学习(持续更新)

    Spring Boot 2014正式发布1.0版本,距今已经快10年了。看历史官方文档了解重点feature, 帮助自己建立知识网络。 与 Spring 5 官网历史文档学习 一样,尽量保证不误解文档作者的原意,不好翻译的会有原文摘录(包括一些专有名词),并辅以自己的理解。限于篇幅原因,只摘录工作

    2024年02月10日
    浏览(28)
  • React 新版官方文档 (一) useReducer 用法详解

    useReducer 是一个可以让你向组件中添加 reducer 的 Hook 基本用法 比 useState 多了一个处理函数,该函数可以根据不同的分发状态来对应的改变状态 注意:state 不可修改 不能这样写, reducer 函数应当返回一个新对象 不要重新执行初始函数 第一种写法会导致每次渲染时候都调用

    2024年02月13日
    浏览(29)
  • 阅读源码和查看官方文档,是解决问题最高效的办法。

    作为一个工作8年的老程序员告诉你:阅读源码和查看官方文档,是解决问题最高效的办法。不信你来看,这个困扰了读者半天的问题我查了源码和文档后瞬间解决。 上周五有位读者私信我一个问题,说困扰了他半天,研究了一个上午也没搞明白。 是一位运维转Go的朋友,最

    2024年02月06日
    浏览(20)
  • 前端常用的一些插件、UI框架、js库,样式库以及官方文档。【持续更新】

    1.1 文档地址 API文档 1.2 安装教程 1.下载安装 2.导入 2.1 文档地址 API文档 2.2 安装教程 1.下载安装 2.导入 3.1 文档地址 API文档 3.2 安装教程 1.下载安装 2.导入 3.安装遇到的问题 1)描述 ① 控制台报错 ② 终端报错 输出的内容都是 \\\"export xxx was not found in \\\'vue\\\' 2)解决 ① 先卸载 ya

    2024年02月03日
    浏览(33)
  • 《如何搭建一条私有多Geth节点的链》最新版以太坊私链搭建官方文档要点翻译

    Last edited on January 31, 2023 This guide explains how to set up a private network of multiple Geth nodes. An Ethereum network is private if the nodes are not connected to the main network. In this context private only means reserved or isolated, rather than protected or secure. A fully controlled, private Ethereum network is useful as a backend for core de

    2024年02月08日
    浏览(44)
  • 写最好的Docker安装最新版MySQL8(mysql-8.0.31)教程(参考Docker Hub和MySQL官方文档)

       MySQL官方安装包下载地址:   https://dev.mysql.com/downloads/mysql/      Docker Hub官方网址:   https://hub.docker.com/     如果需要了解Centos7下MySQL5.7最新版的安装部署,可参考教程【最新MySQL-5.7.40在云服务器Centos7.9安装部署)】。      本教程是笔者参考Docker Hub和MySQL官

    2024年02月01日
    浏览(33)
  • 论文阅读笔记整理(持续更新)

    FAST 2021 Paper 泛读笔记 针对LSM树同时优化读写性能的问题,现有方法通过压缩提升读性能,但会导致读放大或写放大。作者利用新存储硬件的性能,随机读和顺序读性能相近,因此提出构建逻辑排序视图优化范围查询,因为减少了真正的压缩操作,同时减少了写放大。 ATC 2

    2024年01月23日
    浏览(36)
  • llama笔记:官方示例解析 example_chat_completion.py

    使用预训练模型生成文本的程序的入口点 ckpt_dir (str) 指向包含预训练模型检查点文件的目录的路径 tokenizer_path (str) 分词器模型的路径,用于文本的编码和解码 temperature (float, optional) 控制生成过程中随机性的温度值。 温度值越高,生成的文本越随机,反之则更确定。 top_p (

    2024年03月22日
    浏览(24)
  • CXL论文阅读笔记整理(持续更新)

    arXiv Paper 对CXL技术进行介绍,包括CXL 1.0、CXL 2.0、CXL 3.0,对各规范的提升做介绍。整理了现有的CXL实现方法,延迟测试结果,对未来发展进行展望。 Queue 2023 Paper 泛读笔记 CXL提供的是粗力度的内存共享,没有提供细粒度的内存保护功能,作者提出用针对特定领域优化的去中心

    2024年04月15日
    浏览(34)
  • LLaMA模型论文《LLaMA: Open and Efficient Foundation Language Models》阅读笔记

    LLaMA是meta在2023年2月开源的大模型,在这之后,很多开源模型都是基于LLaMA的,比如斯坦福大学的羊驼模型。 LLaMA的重点是比通常情况下使用更多的语料,来训练一系列可在各种推理预算下实现可能的最佳性能的语言模型。 摘要翻译:我们在此介绍LLaMA,这是一个参数范围从

    2024年02月15日
    浏览(31)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包