用LangChain构建大语言模型应用

这篇具有很好参考价值的文章主要介绍了用LangChain构建大语言模型应用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

用LangChain构建大语言模型应用

自 ChatGPT 发布以来,大型语言模型 (LLM) 广受欢迎。尽管您可能没有足够的资金和计算资源从头开始训练自己的大语言模型,但您仍然可以使用预训练的大语言模型来构建一些很酷的东西,例如:

  • 可以根据您的数据与外界互动的个人助理
  • 为您的目的定制的聊天机器人
  • 分析或总结您的文档或代码

大语言模型正在改变我们构建人工智能产品的方式

利用 API 和提示工程设计,大语言模型正在改变我们构建 AI 驱动产品的方式。由此的诞生了一个新的技术名字“LLMOps”—— LangChain 就是其中最流行的工具之一。

用LangChain构建大语言模型应用

什么是LangChain?

LangChain 是一个旨在帮助您轻松构建大语言模型应用的框架,它提供如下功能:

  • 为各种不同基础模型提供统一接口(参见Models)
  • 帮助管理提示的框架(参见Prompts)
  • 一套中心化接口,用于处理长期记忆(参见Memory)、外部数据(参见Indexes)、其他 LLM(参见Chains)以及 LLM 无法处理的任务的其他代理(例如,计算或搜索)。

因为 LangChain 有很多不同的功能,所以一开始可能很难理解它的作用。因此我将在本文中介绍 LangChain 的(当前)六个关键模块,以便您更好地了解其功能。

环境搭建

要继续学习本教程,您需要安装 langchain Python 包并准备好所需的相关 API 密钥。

安装LangChain

在安装 langchain 包之前,请确保您的 Python 版本≥ 3.8.1 且 <4.0。

安装 langchain Python 包最简单的方法是通过 pip 安装。

pip install langchain

安装完成后,您可以导入 langchain 包,输出 langchain 包的版本号。如果能看到控制输出版本号,说明langchain 包安装成功。

>>> import langchain
>>> langchain.__version__
'0.0.154'

⚠注意:在本教程中,我使用的 langchain 版本为 0.0.154。 LangChain 项目非常活跃,版本库代码频繁更新;因此,请确保您使用的是与我相同或兼容的版本。

API 密钥

使用 LLM 构建应用程序需要您提供调用服务的 API 密钥,并且某些 API 会产生相关费用。

LLM 提供者(必需)——您首先需要选择一个大语言模型提供者并获取其 API 密钥。我们目前正在经历“AI 的 Linux 时刻”,开发人员必须在性能和成本之间做出权衡,在专有基础模型或开源基础模型之间做出选择。

用LangChain构建大语言模型应用

专有模型是拥有大量专家团队和大量 AI 预算的公司所拥有的闭源基础模型。它们通常比开源模型更大,因此性能更好,但它们的 API 也很昂贵。专有模型提供商的典型代表包括 OpenAI、co:here、AI21 Labs 和 Anthropic。

大部分 LangChain 教程都使用 OpenAI,但请注意 OpenAI API 不是免费的,甚至 GPT-4 API 还很昂贵,具体请参阅《GPT-4 API 接口调用及价格分析》。 要获取 OpenAI API Key,您需要一个 OpenAI 帐户,然后在 API keys 页面中点击“Create new secret key”来创建API Key(参见下图)。

用LangChain构建大语言模型应用

有了API Key后,您可以将该Key保存到环境变量中,供代码各模块使用:

import os
os.environ["OPENAI_API_KEY"] = ... # 填入OpenAI Secret Key

开源模型通常比专有模型规模更小,功能也稍弱,但开源模型比专有模型更具成本效益。 著名的开源模型有:

  • BigScience 的 BLOOM
  • Meta AI 的 LLaMA
  • Google 的 Flan-T5
  • Eleuther AI 的 GPT-J

更多开源模型请参阅《开源大语言模型(LLM)汇总》。

许多开源模型都托管在 Hugging Face 上。要获取 Hugging Face API 密钥,您需要一个 Hugging Face 帐户并在Access Tokens 下创建“New token”(参见下图)。

用LangChain构建大语言模型应用

同样,你可以将Hugging Face Access Token 保存在环境变量中供其他模块使用:

import os

os.environ["HUGGINGFACEHUB_API_TOKEN"] = ... # 插入Hugging Face Access Token

向量数据库(可选)

如果你想使用特定的向量数据库,如 Pinecone、Weaviate 或 Milvus,你需要单独注册来获得 API 密钥。在本教程中,我们使用无需注册的 Faiss。

LangChain 6大核心模块

langchain包为许多基础模型提供了一个通用接口,支持提示管理,并通过代理充当其他组件(如提示模板、其他大语言模型、外部数据和其他工具)的中央接口。

LangChain 有6大核心模块:

  • Models:从不同的 LLM 和嵌入模型中进行选择
  • Prompts:管理 LLM 输入
  • Chains:将 LLM 与其他组件相结合
  • Indexes:访问外部数据
  • Memory:记住以前的对话
  • Agents:访问其他工具

Models

目前,许多不同的大型语言模型正在不断涌现。 LangChain 了提供与各种模型的集成接口,并为所有模型提供了 streamlined 界面。

LangChain 区分三种输入和输出不同的模型:

  • LLMs接受一个字符串作为输入(prompt)输出一个字符串
# 专有模型,例如:OpenAI
# pip install openai
from langchain.llms import OpenAI
llm = OpenAI(model_name="text-davinci-003")

# 或者托管在Hugging Face 上的开源模型
# pip install huggingface_hub
from langchain import HuggingFaceHub
llm = HuggingFaceHub(repo_id = "google/flan-t5-xl")

# llm实例接受一个提示输入,返回字符串作为输出
prompt = u"中国的首都是?"
completion = llm(prompt)

用LangChain构建大语言模型应用

  • Chat Model 与 LLM 类似,将聊天消息列表输入模型并返回一条聊天消息。
  • Text embedding model 接受文本输入并返回浮点数(嵌入)列表,这是输入文本的数字表示。 文本嵌入有助于从文本中提取信息,供后续使用。例如,用于计算文本(例如电影摘要)之间的相似性。
# 专有文本嵌入模型,例如:OpenAI
# pip install tiktoken
from langchain.embeddings import OpenAIEmbeddings
embeddings = OpenAIEmbeddings()

# 或者托管在Hugging Face 上的开源文本嵌入模型
# pip install sentence_transformers
from langchain.embeddings import HuggingFaceEmbeddings
embeddings = HuggingFaceEmbeddings(model_name = "sentence-transformers/all-MiniLM-L6-v2")

# 文本嵌入模型接受文本输入输出浮点数列表
text = u"中国的首都是?"
text_embedding = embeddings.embed_query(text)

用LangChain构建大语言模型应用

Prompts

虽然用自然语言向大语言模型输入提示很直观,但想要获得预期的良好输出需要对提示进行相当多的调整。这个过程称为提示工程。

在大语言模型使用中,好的提示是珍贵的。因此,一旦你有了一个好的提示,建议你将它保存成模板供以后复用。 为此,LangChain 提供了 PromptTemplates,它可以帮助您从多个组件构建提示。

from langchain import PromptTemplate

template = u"请为宠物{animal}起一个好听的名字。"

prompt = PromptTemplate(
    input_variables=["animal"],
    template=template,
)

prompt.format(animal="猫")

上面的提示可以看作是零样本问题设置,您希望 LLM 在足够的相关数据上进行训练以提供令人满意的响应。

改进 LLM 输出的另一个技巧是在提示中添加一些示例,也就是所谓的小样本问题设置

from langchain import PromptTemplate, FewShotPromptTemplate

examples = [
    {"word": "高兴", "antonym": "悲伤"},
    {"word": "高大", "antonym": "矮小"},
]

example_template = """
词语: {word}
反义词: {antonym}\n
"""

example_prompt = PromptTemplate(
    input_variables=["word", "antonym"],
    template=example_template,
)

few_shot_prompt = FewShotPromptTemplate(
    examples=examples,
    example_prompt=example_prompt,
    prefix="给出输入词语的反义词",
    suffix="词语: {input}\n反义词:",
    input_variables=["input"],
    example_separator="\n",
)

few_shot_prompt.format(input="美丽")

上面的代码将生成一个提示模板,并根据提供的示例和输入组成以下提示:

给出输入词语的反义词

词语: 高兴
反义词: 悲伤


词语: 高大
反义词: 矮小

词语: 美丽
反义词:

Chains

LangChain 中的 Chains 描述了将大语言模型与其他组件相结合,来创建应用程序的过程。下面是 一些例子:

  • 将 LLM 与提示模板相结合(参见本节)
  • 将第一个 LLM 的输出作为第二个 LLM 的输入来串联多个 LLM(请参阅本节)
  • 将 LLM 与外部数据相结合,例如用于问答(参见Indexes)
  • 将 LLM 与 Memory 相结合,例如聊天记录(参见Memory)

在上一节中,我们创建了一个提示模板。当我们想将它与我们的 LLM 一起使用时,我们可以按如下方式使用 LLMChain

from langchain.chains import LLMChain

chain = LLMChain(llm = llm, prompt = prompt)

chain.run("猫")

如果我们想使用第一个 LLM 的输出作为第二个 LLM 的输入,我们可以使用 SimpleSequentialChain

from langchain.chains import LLMChain, SimpleSequentialChain

# 前面的代码定义了第一个chain
# ...

# 创建第二个chain
second_prompt = PromptTemplate(
    input_variables=["petname"],
    template="写一篇关于{petname}的小诗。",
)

chain_two = LLMChain(llm=llm, prompt=second_prompt)

# 将两个chain串联在一起
overall_chain = SimpleSequentialChain(chains=[chain, chain_two], verbose=True)

# 只需给出源头输入结合顺序运行整个chain
catchphrase = overall_chain.run("猫")

Indexes

LLM 的一个局限是缺乏上下文信息(例如,访问某些特定文档或电子邮件)。你可以通过授予 LLM 访问特定外部数据的权限来解决这个问题。

为此,你首先需要使用文档加载器加载外部数据。 LangChain 为不同类型的文档提供了多种加载器,从 PDF 和电子邮件再到网站和 YouTube 视频。

让我们从最简单的文本文件加载开始。

from langchain.document_loaders import TextLoader

loader = TextLoader('../state_of_the_union.txt', encoding='utf8')

documents = loader.load()

如果文本很大,可以使用 CharacterTextSplitter 对文档进行分割:

from langchain.text_splitter import CharacterTextSplitter

text_splitter = CharacterTextSplitter(chunk_size=1000, chunk_overlap=0)

texts = text_splitter.split_documents(documents)

上面的代码中 chunk_size 表示块的最大大小,由 lengh() 来度量。chunk_overlap 表示块之间的最大重叠。 有一些重叠可以很好地保持块之间的一些连续性(例如,做一个滑动窗口)。最终切分好的文本在 texts 元组中,可以通过下标索引来读取。

有了外部数据后,你可以使用向量数据库中的文本嵌入模型(请参阅Model)对其进行索引。流行的向量数据库有很多,本文中,我使用 Faiss,因为它不需要 API 密钥。

# pip install faiss-cpu
from langchain.vectorstores import FAISS

# 创建 vectorestore 用作索引
db = FAISS.from_documents(texts[0], embeddings)

上面的代码将文本以词嵌入的形式保存到向量数据库中。这些外部数据可以做很多事情,下面我们将用这些外部数据做一个带有检索功能的问答机器人:

from langchain.chains import RetrievalQA

retriever = db.as_retriever()

qa = RetrievalQA.from_chain_type(
    llm=llm, 
    chain_type="stuff", 
    retriever=retriever, 
    return_source_documents=True)

query = u"中国古典四大名著是什么?"
result = qa({"query": query})

print(result['result'])

上面的代码会用输入问题从数据库中检索最相近的答案。

Memory

对于像聊天机器人这样的应用程序,它们必须能够记住以前的对话。但默认情况下,LLM 没有任何长期记忆,除非你将聊天记录输入给它。

LangChain 提供了几种不同的选项,用于处理聊天记录:

  • 保留所有对话
  • 保留最近的 k k k 个对话
  • 总结对话

在下面示例中,我们将使用 ConversationChain 为应用程序提供会话记忆。

from langchain import ConversationChain

conversation = ConversationChain(llm=llm, verbose=True)

conversation.predict(input="所有的北极熊都是白色的")

conversation.predict(input="bob是一只北极熊")

conversation.predict(input="bob是什么颜色的?")

如果没有 ConversationChain 来保存对话记忆,大模型会说没有足够的信息,无法回答该问题。用了 ConversationChain 就能很好地回答。

Agents

尽管大语言模型非常强大,但也有一些局限性:比如训练数据中缺乏特定领域知识,再比如 ChatGPT 的训练数据截止到 2021 年 9 月。

为了对大语言模型进行增强,我们可以让大模型访问辅助工具,例如搜索引擎、计算器或维基百科。此外,我们需要 Agent 根据 LLM 的输出来决定使用哪些工具来完成任务。

下面的例子中,Agent 首先使用维基百科查找 Barack Obama 的出生日期,然后使用计算器计算他在 2023 年的年龄。

# pip install wikipedia
from langchain.agents import load_tools
from langchain.agents import initialize_agent
from langchain.agents import AgentType

tools = load_tools(["wikipedia", "llm-math"], llm=llm)
agent = initialize_agent(tools, 
                         llm, 
                         agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, 
                         verbose=True)


agent.run("奥巴马的生日是哪天? 到2023年他多少岁了?")

总结

LangChain 是一个开源 Python 库,任何可以编写代码的人都可以使用它来构建 LLM 支持的应用程序。 该包为许多基础模型提供了通用接口,支持提示管理,并在撰写本文时充当其他组件(如提示模板、其他 LLM、外部数据和其他工具)的中央接口。

该库提供的功能比本文中提到的要多得多,并且还在快速迭代,以目前的发展速度,这篇文章也可能在一个月内就过时了。建议大家关注 LangChain 项目,时刻留意其新功能发布,并多参考 LangChain 的官方文档。文章来源地址https://www.toymoban.com/news/detail-459497.html

到了这里,关于用LangChain构建大语言模型应用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • LangChain大型语言模型(LLM)应用开发(三):Chains

    LangChain是一个基于大语言模型(如ChatGPT)用于构建端到端语言模型应用的 Python 框架。它提供了一套工具、组件和接口,可简化创建由大型语言模型 (LLM) 和聊天模型提供支持的应用程序的过程。LangChain 可以轻松管理与语言模型的交互,将多个组件链接在一起,以便在不同的

    2024年02月12日
    浏览(46)
  • LangChain与大型语言模型(LLMs)应用基础教程:角色定义

    如果您还没有看过我之前写的两篇博客,请先看一下,这样有助于对本文的理解: LangChain与大型语言模型(LLMs)应用基础教程:Prompt模板 LangChain与大型语言模型(LLMs)应用基础教程:信息抽取 LangChain是大型语言模型(LLM)的应用框架,LangChain可以直接与 OpenAI 的 text-davinci-003、gpt-3.5-t

    2024年02月01日
    浏览(56)
  • 自学大语言模型的应用程序框架Langchain(初入门)

    现阶段chatGPT非常火热。带动了第三方开源库:LangChain火热。它是一个在大语言模型基础上实现联网搜索并给出回答、总结 PDF 文档、基于某个 Youtube 视频进行问答等等的功能的应用程序。 LangChain 是一个用于开发由语言模型驱动的应用程序的框架。 langchain的目标:最强大和差

    2024年02月07日
    浏览(52)
  • 自然语言处理从入门到应用——LangChain:模型(Models)-[大型语言模型(LLMs):基础知识]

    分类目录:《大模型从入门到应用》总目录 LangChain系列文章: 基础知识 快速入门 安装与环境配置 链(Chains)、代理(Agent:)和记忆(Memory) 快速开发聊天模型 模型(Models) 基础知识 大型语言模型(LLMs) 基础知识 LLM的异步API、自定义LLM包装器、虚假LLM和人类输入LLM(

    2024年02月16日
    浏览(69)
  • 自然语言处理从入门到应用——LangChain:模型(Models)-[文本嵌入模型Ⅰ]

    分类目录:《大模型从入门到应用》总目录 LangChain系列文章: 基础知识 快速入门 安装与环境配置 链(Chains)、代理(Agent:)和记忆(Memory) 快速开发聊天模型 模型(Models) 基础知识 大型语言模型(LLMs) 基础知识 LLM的异步API、自定义LLM包装器、虚假LLM和人类输入LLM(

    2024年02月15日
    浏览(53)
  • 自然语言处理从入门到应用——LangChain:模型(Models)-[文本嵌入模型Ⅱ]

    分类目录:《大模型从入门到应用》总目录 LangChain系列文章: 基础知识 快速入门 安装与环境配置 链(Chains)、代理(Agent:)和记忆(Memory) 快速开发聊天模型 模型(Models) 基础知识 大型语言模型(LLMs) 基础知识 LLM的异步API、自定义LLM包装器、虚假LLM和人类输入LLM(

    2024年02月15日
    浏览(55)
  • 使用 LangChain 搭建基于 Amazon DynamoDB 的大语言模型应用

    LangChain 是一个旨在简化使用大型语言模型创建应用程序的框架。作为语言模型集成框架,在这个应用场景中,LangChain 将与 Amazon DynamoDB 紧密结合,构建一个完整的基于大语言模型的聊天应用。 本次活动,我们特意邀请了亚马逊云科技数据库产品专家李君为大家线上讲解: 云

    2024年02月14日
    浏览(46)
  • LangChain与大型语言模型(LLMs)应用基础教程:Prompt模板

    大型语言模型 (LLM) 正在成为一种变革性技术,使开发人员能够构建他们以前无法构建的应用程序。 但是单独使用这些 LLM 往往不足以创建一个真正强大的应用程序,只有当LLM与其它各种资源介质如数据库,文档,知识库,pdf电子书等相结合时才能发挥它强大的力量。 而LangCh

    2023年04月18日
    浏览(44)
  • LangChain与大型语言模型(LLMs)应用基础教程:记忆力组件

      如果您还没有看过我之前写的两篇博客,请先看一下,这样有助于对本文的理解: LangChain与大型语言模型(LLMs)应用基础教程:Prompt模板 LangChain与大型语言模型(LLMs)应用基础教程:信息抽取 LangChain与大型语言模型(LLMs)应用基础教程:角色定义  在默认情况下Chain和LLM都是无状态

    2023年04月23日
    浏览(47)
  • LangChain与大型语言模型(LLMs)应用基础教程:神奇的Agent

      LangChain是大型语言模型(LLM)的应用框架,LangChain可以直接与 OpenAI 的 text-davinci-003、gpt-3.5-turbo 模型以及 Hugging Face 的各种开源语言模如 Google 的 flan-t5等模型集成。通过使用LangChain可以开发出更为强大和高效的LLM的各种应用。 今天我们就来实现一个神奇的功能,如何你是一个不

    2024年02月03日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包