LangChain大型语言模型(LLM)应用开发(六):Agents

这篇具有很好参考价值的文章主要介绍了LangChain大型语言模型(LLM)应用开发(六):Agents。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

LangChain是一个基于大语言模型(如ChatGPT)用于构建端到端语言模型应用的 Python 框架。它提供了一套工具、组件和接口,可简化创建由大型语言模型 (LLM) 和聊天模型提供支持的应用程序的过程。LangChain 可以轻松管理与语言模型的交互,将多个组件链接在一起,以便在不同的应用程序中使用。
今天我们来学习DeepLearning.AI的在线课程:LangChain for LLM Application Development的第六门课:Agents, 所谓Agents可以理解为那些可以代替你来完成各种任务的人,即代理人(agent)。agent在执行各种任务的时候可能会用到各种工具,那么今天我们就来讨论agent及其工具的使用。

 

首先我们还是要做一些基础性工作,比如设置openai的api key:

import os

from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv()) # read local .env file

import warnings
warnings.filterwarnings("ignore")

Langchain的内置工具

首先我们解释两个简单的Langchain的内置工具“llm-math”和"wikipedia",这里的llm-math工具具有做数学运算的能力,当我们有时候希望llm完成某些数学计算问题时就可以让llm使用该工具来获得准确的答案,而wikipedia工具则是著名的“维基百科”的查询工具,例如当我们希望llm能够准确回答一些关于历史问题时,我们就可以让llm使用该工具来查询“维基百科”从而获取准确的答案,下面我们来创建一个代理(agent),并让这个代理使用llm-math和wikipedia来完成某些特定任务:

from langchain.agents.agent_toolkits import create_python_agent
from langchain.agents import load_tools, initialize_agent
from langchain.agents import AgentType
from langchain.tools.python.tool import PythonREPLTool
from langchain.python import PythonREPL
from langchain.chat_models import ChatOpenAI

#创建llm
llm = ChatOpenAI(temperature=0)

#定义工具
tools = load_tools(["llm-math","wikipedia"], llm=llm)

#创建代理
agent= initialize_agent(
    tools, 
    llm, 
    agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION,
    handle_parsing_errors=True,
    verbose = True)

这里对上述代码稍加解释,首先我们创建了一个openai的LLM, 接着我们创建了一个工具集tools,该工具集包含了"llm-math"和"wikipedia"这两个工具,最后我们创建了一个代理(agent), 在创建代理时我们将llm 和tools作为参数传递给了代理,我们还设置了代理的类型为AgentType.ZERO_SHOT_REACT_DESCRIPTION,接下来我们来看一下agent的内置prompt模板:

print(agent.agent.llm_chain.prompt.template)

LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

 

 在该模板中LLM被告知要使用计算器工具和维基百科工具,并说明了这两个工具的使用场景,然后对完成任务的工作流程进行了介绍。

完成了创建代理的工作以后,我们就可以让代理来回答一些数学或者历史问题:

agent("300的25%是多少?")

LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

 我们看到代理在执行这个数学计算问题的时候有一个工作流程,这个流程主要包含下面几个阶段:

  1. Action: 行动要使用的工具
  2. Action Input: 行动的输入条件
  3. Observation:行动完成后的观察到的结果
  4. Thought: 思考观察到的结果是否满足要求
  5. Final Answer: 最终的答案

这里需要说明的,从Action到Thought这四个阶段是可以重复多次执行的,当Thought(思考)观察到的结果不能满足要求,就会开始下一轮的Action到Thought的执行过程,直到最后思考观察到的结果满足要求以后才会结束Action到Thought的执行过程,最后输出最终答案,下面我们来询问一个历史相关的问题:

agent("西游记的作者是谁?请用中文回答我")

LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

 这里我们看到代理认为这是一个“人物的问题”,因此它去搜索了英文版的维基百科,最后找到了西游记的作者是吴承恩。

Python Agent

前面我们在代理中使用了"llm-math","wikipedia"这两个Langchain内置工具,接下来我们来使用langchain的内置python工具PythonREPLTool,在下面这个例子中我们让agent对一组外国人姓名进行排序,排序的顺序是先last name后 first name:

#创建python agent
agent = create_python_agent(
    llm,
    tool=PythonREPLTool(),
    verbose=True
)

#待排序的customer_list 
customer_list = [["Harrison", "Chase"], 
                 ["Lang", "Chain"],
                 ["Dolly", "Too"],
                 ["Elle", "Elem"], 
                 ["Geoff","Fusion"], 
                 ["Trance","Former"],
                 ["Jen","Ayai"]
                ]

#对customer_list安last name,first name次序排序
agent.run(f"""Sort these customers by \
last name and then first name \
and print the output: {customer_list}""") 

LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

 从上面返回的结果中,Action是 Python_REPL,在Action Input中是一段python代码,也就是说代理通过python工具Python_REPL执行了这段python代码,最后得到了按last name排序的结果。

下面我们来手动执行一下Action Input中的这段代码:

sorted([['Harrison', 'Chase'], 
        ['Lang', 'Chain'], 
        ['Dolly', 'Too'], 
        ['Elle', 'Elem'], 
        ['Geoff', 'Fusion'], 
        ['Trance', 'Former'], 
        ['Jen', 'Ayai']], 
       key=lambda x: (x[1], x[0]))

 LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

 这里我们可以看到Action Input中的这段代码是有效的。

查看输出细节

下面我们来查看一下这个python agent在执行的时候所隐藏的细节,只不过我们需要打开langchain的debug功能:

import langchain
langchain.debug=True

agent.run(f"""Sort these customers by \
last name and then first name \
and print the output: {customer_list}""") 

langchain.debug=False

LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

 上图是我们截取的部分agent在执行过程中返回的部分细节信息,这里我们注意到细节信息中存在两个prompt, 这也就是说agent访问了两次LLM,我们把两个prompt的内容整理如下:

LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

从上面的第一个prompt可知,我们告知LLM,它是一个执行python代码的代理,它可以通过使用python REPL工具来执行python代码,然后我们告诉LLM必须按照一套流程来完成接下来的任务,这个流程是:Question->Thought->Action->Action Input->Oberservation->Thought->Final Answer,其中 Thought/Action/Action Input/Observation 可以重复N次,在prompt的最后,我们抛出了Question, 最后留下空白的Thought等待LLM来回答。

下面是第二个经过整理的prompt内容:

LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

 从上面的prompt中可知第二个prompt比第一个prompt又向前迈了一步,因为第二个prompt中已经有了Thought, Action 和Action Input三个步骤的内容,接下来就需执行Action Input中的代码,来完成Observation和Thought这两个步骤了。

通过上面的分析可知agent通过两次访问LLM后才完成了这个python编程的任务。其中第一次访问LLM时只是告诉LLM任务的内容是什么(也就是question)以及完成这个任务的基本流程,随后LLM返回了完成任务所需要的python 代码,然后调用python工具Python_REPL来执行代码, 第二次访问LLM时我们已经拿到了所需要的代码,还剩下Observation和Thought的步骤需要完成。最后LLM返回了代码的执行结果,并得到了最后的Final Answer。

这里我需要说明的是整个代理的执行过程是有点复杂的,我只是把里面的重点部分说明了一些,如果想仔细研究,那还需要自己亲手跑一下代码。

自定义工具

前面我们演示的都是Langchain的内置工具,其实我们还可以自定义工具,比如下面我们自定义了一个获取当前日期的函数time, 当我们向LLM询问当前日期的时候,代理都会执行这个自定义的函数:

from langchain.agents import tool
from datetime import date

@tool
def time(text: str) -> str:
    """Returns todays date, use this for any \
    questions related to knowing todays date. \
    The input should always be an empty string, \
    and this function will always return todays \
    date - any date mathmatics should occur \
    outside this function."""
    return str(date.today())


agent= initialize_agent(
    tools + [time], 
    llm, 
    agent=AgentType.CHAT_ZERO_SHOT_REACT_DESCRIPTION,
    handle_parsing_errors=True,
    verbose = True)
try:
    result = agent("whats the date today?") 
    print(result)
except: 
    print("exception on external access")

LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

 整合所有工具

下面我们把内置工具和自定义工具整合在一起开发一个多功能agent的例子,在这个例子中我们将会整合python工具,维基百科工具,duckduckgo搜索工具,自定义工具:

# pip install duckduckgo-search
from langchain.tools import DuckDuckGoSearchRun
from langchain.utilities import WikipediaAPIWrapper
from langchain.python import PythonREPL
from langchain.agents import Tool
from langchain.agents import initialize_agent
from langchain.chat_models import ChatOpenAI
import random

llm = ChatOpenAI(temperature=0)

wikipedia = WikipediaAPIWrapper()
search = DuckDuckGoSearchRun()
python_repl = PythonREPL()


#自定义工具,获取随机数
def random_num(input=""):
    return random.randint(0,5)

#定义维基百科工具
wikipedia_tool = Tool(
    name='wikipedia',
    func= wikipedia.run,
    description="Useful for when you need to look up a topic, country or person on wikipedia"
)

#定义duckduckgo 搜索工具
duckduckgo_tool = Tool(
    name='DuckDuckGo Search',
    func= search.run,
    description="Useful for when you need to do a search on the internet to find information that another tool can't find. \
    be specific with your input."
)

#定义python工具
python_tool = Tool(
    name = "python repl",
    func=python_repl.run,
    description="useful for when you need to use python to answer a question. You should input python code"
)

#定义获取随机数工具
random_tool = Tool(
    name='Random number',
    func= random_num,
    description="Useful for when you need to get a random number. input should be 'random'"
)

#整合所有工具
tools=[python_tool,wikipedia_tool,duckduckgo_tool,random_tool]

#创建代理
zero_shot_agent = initialize_agent(
    agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION,
    tools=tools,
    llm=llm,
    verbose=True,
    max_iterations=5,
)

下面我们查看一下代理的prompt模板:

print(zero_shot_agent.agent.llm_chain.prompt.template)

LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

 在上面的模板中分别就4个工具的应用场景做了介绍,它告诉LLM在什么情况下应该使用什么工具,工作流程仍然是:Question->Thought->Action->Action Input->Oberservation->Thought->Final Answer,其中 Thought/Action/Action Input/Observation 可以重复N次,下面我们就用这个多工具的agent来做一下测试:

#给我一个随机数
zero_shot_agent.run("Can you give me a random number?")

LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

#乔.拜登是哪一年出生的
zero_shot_agent.run("When was Joe Biden born?")

LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

#17×6等于几?
zero_shot_agent.run("What is 17*6?")

LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

#苹果公司现在的股票价格是多少?
zero_shot_agent.run('what is the current price of AAPL')

LangChain大型语言模型(LLM)应用开发(六):Agents,langchain,语言模型,人工智能

 参考资料

DuckDuckGo Search | 🦜️🔗 Langchain

Agent types | 🦜️🔗 Langchain

Agents | 🦜️🔗 Langchain文章来源地址https://www.toymoban.com/news/detail-566754.html

到了这里,关于LangChain大型语言模型(LLM)应用开发(六):Agents的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 自然语言处理从入门到应用——LangChain:模型(Models)-[大型语言模型(LLMs):缓存LLM的调用结果]

    分类目录:《大模型从入门到应用》总目录 LangChain系列文章: 基础知识 快速入门 安装与环境配置 链(Chains)、代理(Agent:)和记忆(Memory) 快速开发聊天模型 模型(Models) 基础知识 大型语言模型(LLMs) 基础知识 LLM的异步API、自定义LLM包装器、虚假LLM和人类输入LLM(

    2024年02月16日
    浏览(49)
  • 从零开发短视频电商 Java开发者的AI大模型(LLM)应用开发和设计-LangChain4j

    Github : https://github.com/langchain4j https://github.com/langchain4j/langchain4j https://github.com/langchain4j/langchain4j-embeddings https://github.com/langchain4j/langchain4j-examples Java版 langchain , 利用LLMs的力量增强你的java应用程序。 该项目的目标是简化 AI/LLM 功能到 Java 应用程序的集成。 可以通过以下方式实

    2024年01月16日
    浏览(44)
  • 自然语言处理从入门到应用——LangChain:快速入门-[快速开发聊天模型]

    分类目录:《大模型从入门到应用》总目录 LangChain系列文章: 基础知识 快速入门 安装与环境配置 链(Chains)、代理(Agent:)和记忆(Memory) 快速开发聊天模型 模型(Models) 基础知识 大型语言模型(LLMs) 基础知识 LLM的异步API、自定义LLM包装器、虚假LLM和人类输入LLM(

    2024年02月15日
    浏览(40)
  • 基于LangChain的LLM应用开发3——记忆

    此情可待成追忆,只是当时已惘然。我们人类会有很多或美好或痛苦的回忆,有的回忆会渐渐模糊,有的回忆午夜梦醒,会浮上心头。 然而现在的大语言模型都是没有记忆的,都是无状态的,大语言模型自身不会记住和你对话之间的历史消息。根本用不着“时时勤拂拭”,天

    2024年02月08日
    浏览(39)
  • 一文入门最热的LLM应用开发框架LangChain

    1.1. LangChain 发展史 LangChain 的作者是 Harrison Chase,最初是于 2022 年 10 月开源的一个项目,在 GitHub 上获得大量关注之后迅速转变为一家初创公司。2017 年 Harrison Chase 还在哈佛上大学,如今已是硅谷的一家热门初创公司的 CEO,这对他来说是一次重大而迅速的跃迁。Insider 独家报

    2024年02月08日
    浏览(43)
  • Dify开源大语言模型(LLM) 应用开发平台如何使用Docker部署与远程访问

    本文主要介绍如何在Linux Ubuntu系统以Docker的方式快速部署Dify,并结合cpolar内网穿透工具实现公网远程访问本地Dify! Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你

    2024年04月10日
    浏览(44)
  • AIGC:【LLM(二)】——LangChain:由LLMs驱动的应用开发框架

    在过去几年中,大型语言模型 (LLM) 席卷了人工智能世界。随着 OpenAI 的 GPT-3 在 2020 年的突破性发布,我们见证了 LLM 的受欢迎程度稳步上升,并且随着该领域最近的进步而愈演愈烈。这些强大的 AI 模型为自然语言处理应用开辟了新的可能性,使开发人员能够在聊天机器人、问

    2024年02月06日
    浏览(49)
  • ChatGPT 使用 拓展资料:吴恩达大咖 基于LangChain的LLM应用程序开发-1

    ChatGPT 使用 拓展资料:吴恩达大咖 基于LangChain的LLM应用程序开发 基于LangChain的LLM应用程序开发 LangChain for LLM Application Development [https://www.deeplearning.ai/short-courses/langchain-for-llm-application-development/] LangChain for LLM Application Development https://www.deeplearning.ai/short-courses/langchain-for-llm-app

    2024年02月07日
    浏览(53)
  • 大型语言模型LLM的基础应用

    ChatGPT是由人工智能研究实验室OpenAI在2022年11月30日发布的全新聊天机器人模型,一款人工智能技术驱动的自然语言处理工具。它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案

    2024年02月09日
    浏览(47)
  • LangChain与大型语言模型(LLMs)应用基础教程:角色定义

    如果您还没有看过我之前写的两篇博客,请先看一下,这样有助于对本文的理解: LangChain与大型语言模型(LLMs)应用基础教程:Prompt模板 LangChain与大型语言模型(LLMs)应用基础教程:信息抽取 LangChain是大型语言模型(LLM)的应用框架,LangChain可以直接与 OpenAI 的 text-davinci-003、gpt-3.5-t

    2024年02月01日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包