书生·浦语大模型全链路开源体系-第6课

这篇具有很好参考价值的文章主要介绍了书生·浦语大模型全链路开源体系-第6课。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

书生·浦语大模型全链路开源体系-第6课

为了推动大模型在更多行业落地应用,让开发人员更高效地学习大模型的开发与应用,上海人工智能实验室重磅推出书生·浦语大模型实战营,为开发人员提供大模型学习和开发实践的平台。
本文是书生·浦语大模型全链路开源体系-第6课的课程实战。

相关资源

  • InternLM项目地址

https://github.com/InternLM/InternLM

https://github.com/InternLM/LMDeploy

  • InternLM2技术报告

https://arxiv.org/pdf/2403.17297.pdf

  • 书生·万卷 数据

https://opendatalab.org.cn/

  • 课程链接

https://www.bilibili.com/video/BV1Xt4217728/

Lagent & AgentLego 智能体应用搭建

环境准备

创建虚拟环境

首先创建一个新的虚拟环境。

studio-conda -t agent -o pytorch-2.1.2
conda activate agent

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

同步Kernel。

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

创建完成。

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

安装LMDeploy

由于 Lagent 的 Web Demo 需要用到 LMDeploy 所启动的 api_server,所以需要先安装LMDeploy。

# 安装LMDeploy
pip install lmdeploy[all]==0.3.0

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

安装 Lagent

下载源码,执行命令安装Lagent。

# 安装Lagent
git clone https://gitee.com/internlm/lagent.git
cd lagent
git checkout 581d9fb
pip install -e .

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

安装 AgentLego

下载源码,执行命令安装AgentLego。

# 安装AgentLego
git clone https://gitee.com/internlm/agentlego.git
cd agentlego
git checkout 7769e0d
pip install -e .

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

Lagent 轻量级智能体框架

使用 LMDeploy 部署

执行如下代码使用 LMDeploy 启动一个 api_server。

lmdeploy serve api_server /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-7b --server-name 127.0.0.1 --model-name internlm2-chat-7b --cache-max-entry-count 0.1

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

启动并使用 Lagent Web Demo

接下来我们新建一个 terminal 以启动 Lagent Web Demo。

cd /root/code/lagent
streamlit run examples/internlm2_agent_web_demo.py --server.address 127.0.0.1 --server.port 7860

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

在本地建立SSH隧道端口映射之后,使用浏览器访问7860端口,并使用工具。

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

使用自定义工具

我们将基于 Lagent 自定义一个工具。

获取 API KEY

首先要获取 API KEY。首先打开 https://dev.qweather.com/ 后,登录。

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

通过项目管理菜单创建一个项目。

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

在项目列表里面可以查看API KEY。

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

创建工具文件

首先通过 touch /root/code/lagent/lagent/actions/weather.py(大小写敏感)新建工具文件,该文件内容如下:

import json
import os
import requests
from typing import Optional, Type

from lagent.actions.base_action import BaseAction, tool_api
from lagent.actions.parser import BaseParser, JsonParser
from lagent.schema import ActionReturn, ActionStatusCode

class WeatherQuery(BaseAction):
    """Weather plugin for querying weather information."""
    
    def __init__(self,
                 key: Optional[str] = None,
                 description: Optional[dict] = None,
                 parser: Type[BaseParser] = JsonParser,
                 enable: bool = True) -> None:
        super().__init__(description, parser, enable)
        key = os.environ.get('WEATHER_API_KEY', key)
        if key is None:
            raise ValueError(
                'Please set Weather API key either in the environment '
                'as WEATHER_API_KEY or pass it as `key`')
        self.key = key
        self.location_query_url = 'https://geoapi.qweather.com/v2/city/lookup'
        self.weather_query_url = 'https://devapi.qweather.com/v7/weather/now'

    @tool_api
    def run(self, query: str) -> ActionReturn:
        """一个天气查询API。可以根据城市名查询天气信息。
        
        Args:
            query (:class:`str`): The city name to query.
        """
        tool_return = ActionReturn(type=self.name)
        status_code, response = self._search(query)
        if status_code == -1:
            tool_return.errmsg = response
            tool_return.state = ActionStatusCode.HTTP_ERROR
        elif status_code == 200:
            parsed_res = self._parse_results(response)
            tool_return.result = [dict(type='text', content=str(parsed_res))]
            tool_return.state = ActionStatusCode.SUCCESS
        else:
            tool_return.errmsg = str(status_code)
            tool_return.state = ActionStatusCode.API_ERROR
        return tool_return
    
    def _parse_results(self, results: dict) -> str:
        """Parse the weather results from QWeather API.
        
        Args:
            results (dict): The weather content from QWeather API
                in json format.
        
        Returns:
            str: The parsed weather results.
        """
        now = results['now']
        data = [
            f'数据观测时间: {now["obsTime"]}',
            f'温度: {now["temp"]}°C',
            f'体感温度: {now["feelsLike"]}°C',
            f'天气: {now["text"]}',
            f'风向: {now["windDir"]},角度为 {now["wind360"]}°',
            f'风力等级: {now["windScale"]},风速为 {now["windSpeed"]} km/h',
            f'相对湿度: {now["humidity"]}',
            f'当前小时累计降水量: {now["precip"]} mm',
            f'大气压强: {now["pressure"]} 百帕',
            f'能见度: {now["vis"]} km',
        ]
        return '\n'.join(data)

    def _search(self, query: str):
        # get city_code
        try:
            city_code_response = requests.get(
                self.location_query_url,
                params={'key': self.key, 'location': query}
            )
        except Exception as e:
            return -1, str(e)
        if city_code_response.status_code != 200:
            return city_code_response.status_code, city_code_response.json()
        city_code_response = city_code_response.json()
        if len(city_code_response['location']) == 0:
            return -1, '未查询到城市'
        city_code = city_code_response['location'][0]['id']
        # get weather
        try:
            weather_response = requests.get(
                self.weather_query_url,
                params={'key': self.key, 'location': city_code}
            )
        except Exception as e:
            return -1, str(e)
        return weather_response.status_code, weather_response.json()
重启LMDeploy

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

重启Lagent Web

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

验证自定义工具

这里可以看到天气信息获取成功。

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

AgentLego 组装智能体

安装依赖库

由于 AgentLego 在安装时并不会安装某个特定工具的依赖,因此接下来准备安装目标检测工具运行时所需依赖。

AgentLego 所实现的目标检测工具是基于 mmdet (MMDetection) 算法库中的 RTMDet-Large 模型,因此我们首先安装 mim,然后通过 mim 工具来安装 mmdet。

conda activate lmdeploy
pip install openmim==0.3.9
mim install mmdet==3.3.0

安装 mim

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

安装 mmdet

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

直接运行AgentLego

安装完成后,创建一个direct_use.py文件。

import re

import cv2
from agentlego.apis import load_tool

# load tool
tool = load_tool('ObjectDetection', device='cuda')

# apply tool
visualization = tool('road.jpg')
print(visualization)

# visualize
image = cv2.imread('road.jpg')

preds = visualization.split('\n')
pattern = r'(\w+) \((\d+), (\d+), (\d+), (\d+)\), score (\d+)'

for pred in preds:
    name, x1, y1, x2, y2, score = re.match(pattern, pred).groups()
    x1, y1, x2, y2, score = int(x1), int(y1), int(x2), int(y2), int(score)
    cv2.rectangle(image, (x1, y1), (x2, y2), (0, 255, 0), 1)
    cv2.putText(image, f'{name} {score}', (x1, y1), cv2.FONT_HERSHEY_SIMPLEX, 0.8, (0, 255, 0), 1)

cv2.imwrite('road_detection_direct.jpg', image)

然后通过命令直接执行。

python direct_use.py

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

在等待 RTMDet-Large 权重下载并推理完成后,我们就可以看到如下输出。

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

作为智能体工具使用

由于 AgentLego 算法库默认使用 InternLM2-Chat-20B 模型,因此我们首先需要修改 /root/code/agentlego/webui/modules/agents/lagent_agent.py 文件的第105行位置,将 internlm2-chat-20b 修改为 internlm2-chat-7b,即

def llm_internlm2_lmdeploy(cfg):
    url = cfg['url'].strip()
    llm = LMDeployClient(
-         model_name='internlm2-chat-20b',
+         model_name='internlm2-chat-7b',
        url=url,
        meta_template=INTERNLM2_META,
        top_p=0.8,
        top_k=100,
        temperature=cfg.get('temperature', 0.7),
        repetition_penalty=1.0,
        stop_words=['<|im_end|>'])
    return llm
使用 LMDeploy 部署

执行如下代码使用 LMDeploy 启动一个 api_server。

lmdeploy serve api_server /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-7b --server-name 127.0.0.1 --model-name internlm2-chat-7b --cache-max-entry-count 0.1
启动 AgentLego WebUI

新建一个 terminal 以启动 AgentLego WebUI。执行如下指令:

conda activate agent
cd /root/code/agentlego/webui
python one_click.py

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

启动完成后,服务端口是7860。

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

建立端口映射。

ssh -CNg -L 7860:127.0.0.1:7860 -L 23333:127.0.0.1:23333 root@ssh.intern-ai.org.cn -p 你的 ssh 端口号

在浏览器中访问相应的地址即可访问AgentLego WebUI。

首先需要在Agent页面配置一个Agent。

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

然后配置相关的工具。

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

最后就可以基于工具进行问答。

书生·浦语大模型全链路开源体系-第6课,人工智能,开源,人工智能,大模型,书生浦语

至此,课程内容完成。文章来源地址https://www.toymoban.com/news/detail-855557.html

到了这里,关于书生·浦语大模型全链路开源体系-第6课的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 书生·浦语大模型全链路开源体系【大模型第2课-笔记】

    1.1 什么是大模型?   大模型通常指的是机器学习或人工智能领域中参数数量巨大、拥有庞大计算能力和参数规模的模型。这些模型利用大量数据进行训练,并且拥有数十亿甚至数千亿个参数。大模型的出现和发展得益于增长的数据量、计算能力的提升以及算法优化等因素

    2024年01月19日
    浏览(93)
  • 【 书生·浦语大模型实战营】学习笔记(一):全链路开源体系介绍

    🎉 AI学习星球推荐: GoAI的学习社区 知识星球是一个致力于提供《机器学习 | 深度学习 | CV | NLP | 大模型 | 多模态 | AIGC 》各个最新AI方向综述、论文等成体系的学习资料,配有全面而有深度的专栏内容,包括不限于 前沿论文解读、资料共享、行业最新动态以、实践教程、求

    2024年04月23日
    浏览(40)
  • 【AI大模型开发者指南】书生·浦语大模型全链路开源体系

    https://intern-ai.org.cn/home https://github.com/InternLM 书生·浦语 - 语言大模型来自上海ailab、商汤科技,是国内领先的AI相关开源社区 其中许多开发者都来自OpenMMLab,相信接触过cv领域的朋友或多或少都使用过旗下的产品,例如mmpretrain、mmdet、mmseg等一系列开箱即用的cv炼丹框架。 可以

    2024年04月09日
    浏览(83)
  • 《书生·浦语大模型全链路开源开放体系》第五课作业 LMDeploy 的量化和部署

    使用 LMDeploy 以本地对话、网页Gradio、API服务中的一种方式部署 InternLM-Chat-7B 模型,生成 300 字的小故事(需截图) 这一部分主要涉及本地推理和部署。我们先看一张图。 我们把从架构上把整个服务流程分成下面几个模块。 模型推理/服务。主要提供模型本身的推理,一般来说

    2024年03月09日
    浏览(57)
  • 《书生·浦语大模型全链路开源开放体系》笔记第五课 LMDeploy 的量化和部署

    首先我们可以使用  vgpu-smi  查看显卡资源使用情况。 可以点击终端(TERMINAL)窗口右侧的「+」号创建新的终端窗口。大家可以新开一个窗口,执行下面的命令实时观察 GPU 资源的使用情况。 结果如下图所示,该窗口会实时检测 GPU 卡的使用情况。 接下来我们切换到刚刚的终

    2024年01月21日
    浏览(52)
  • 书生浦语大模型--开源体系

    一、大模型的发展   大模型与通用人工智能(AGI),大模型通常被视为发展通用人工智能的重要途径。AI研究从专用模型向通用模型转变,在过去的一二十年中,研究重点在于针对特定任务的专用模型。 专用模型的已经再多个领域取得显著成就,包裹大规模语音识别、图像识

    2024年01月20日
    浏览(51)
  • 书生·浦语大模型开源体系(二)笔记

    💗💗💗欢迎来到我的博客,你将找到有关如何使用技术解决问题的文章,也会找到某个技术的学习路线。无论你是何种职业,我都希望我的博客对你有所帮助。最后不要忘记订阅我的博客以获取最新文章,也欢迎在文章下方留下你的评论和反馈。我期待着与你分享知识、互

    2024年04月09日
    浏览(88)
  • 书生·浦语大模型开源体系(四)笔记

    💗💗💗欢迎来到我的博客,你将找到有关如何使用技术解决问题的文章,也会找到某个技术的学习路线。无论你是何种职业,我都希望我的博客对你有所帮助。最后不要忘记订阅我的博客以获取最新文章,也欢迎在文章下方留下你的评论和反馈。我期待着与你分享知识、互

    2024年04月28日
    浏览(30)
  • 书生·浦语:大模型全链路开源体系(二)——InternLM、Lagent、浦语·灵笔Demo调用

    pip、conda换源: pip临时换源: 设置pip默认源,避免每次下载依赖包都要加上一长串的国内源 conda换源: 镜像站提供了 Anaconda 仓库与第三方源(conda-forge、msys2、pytorch 等),各系统都可以通过修改用户目录下的  .condarc  文件来使用镜像站。 不同系统下的  .condarc  目录如下

    2024年02月02日
    浏览(41)
  • 书生.浦语大模型实战一

    从专用模型到通用大模型 书生.万卷1.0 文本 图像-文本 视频数据 OpenDataLab开放平台 图像:ImageNet tokens语料:WikiQA 音频 视频:MovieNet 3D模型 增量续训 使用场景:让基座模型学习到一些新知识,如某个垂类领域知识 训练数据:文章、书籍、代码等 有监督微调 使用场景:让模型

    2024年01月16日
    浏览(49)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包