大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型

这篇具有很好参考价值的文章主要介绍了大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

注册算力平台(驱动云平台)

1.平台注册

平台注册链接:
https://growthdata.virtaicloud.com/t/SA

2.查看算力

注册完成后,点击右上角:费用中心,可查看领取的算力。
大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

3.进入平台中心

https://platform.virtaicloud.com/

部署ChatGLM3-6B模型

ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。
推理速度比上一代提高了很多,虽然本教程有两种启动方式,但教程作者强烈推荐使用streamlit体验,效果极佳。

1.创建项目

  • 创建好账号之后,进入自己的空间,点击右上角的创建项目。

大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

  • 给项目起一个你喜欢的名称,选择添加镜像
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
  • 镜像选择pytorch2.0.1,Conda3.9
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
  • 选择预训练模型,点击公开,选择不要葱姜蒜上传的这个ChtaGLM3-6B模型。
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
  • 都选完之后,点击右下角的创建,代码选择暂不上传。待会直接clone代码。
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
  • 点击运行代码
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
  • 资源配置选择:B1.large, 24G的显存足够加载模型了。其他的不需要设置,然后点击右下角的开始运行。
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

2.配置环境

  • 等右边两个工具全部加载完毕之后,再点击JupyterLab进入开发环境~

大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

  • 进入界面之后是这样的,然后点击这个小加号。
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
  • 点击terminal,进入终端。
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

设置镜像源、克隆项目

  • 升级apt,安装unzip

apt-get update && apt-get install unzip

  • 设置镜像源,升级pip

git config --global url.“https://gitclone.com/”.insteadOf https://
pip config set global.index-url https://pypi.virtaicloud.com/repository/pypi/simple
python3 -m pip install --upgrade pip

  • 克隆项目,并进入项目目录

git clone https://github.com/THUDM/ChatGLM3.git
cd ChatGLM3

大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

修改requirements

  • 双击左侧的requirements.txt文件,把其中的torch删掉,因为我们的环境中已经有torch了,避免重复下载浪费时间【注意:删除之后要保存文件,可以使用快捷键Ctrl+S或者点击左上角的File,再点击保存】。
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
  • 点击左上选项卡,重新返回终端,安装依赖,依赖安装完毕后还需要安装peft

pip install -r requirements.txt
pip install peft

大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

3.修改web_demo_gradio.py代码

1、修改模型目录

  • 双击basic_demo 编辑web_demo_gradio.py,将加载模型的路径修改为:/gemini/pretrain,如下图所示

大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

2、修改启动代码

  • 接下来还需要修改一段启动代码,将滚动条拉到最后一行,启动代码修改为如下~

demo.queue().launch(share=False, server_name=“0.0.0.0”,server_port=7000)

大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

3、添加外部端口映射

  • 在界面的右边添加外部端口:7000
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

4、运行gradio界面

  • 点击左上选项卡,重新返回终端,运行web_demo_gradio.py

cd basic_demo
python web_demo_gradio.py

大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

  • 等待模型慢慢加载完毕,可能需要个五六分钟叭保持一点耐心 ~
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

5、访问gradio页面

  • 加载完毕之后,复制外部访问的连接,到浏览器打打开

大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

4.修改web_demo_streamlit.py代码

如果你运行了gradio,需要先杀掉这个进程,不然内存不够。
CTRL+C 可以杀掉进程~
杀掉进程之后,显存不会立刻释放,可以观察右边的GPU内存占用,查看显存释放情况。

1、修改模型目录

  • 双击basic_demo 编辑web_demo_streamlit.py,将加载模型的路径修改为:/gemini/pretrain,如下图所示~
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

2、运行streamlit界面

  • 点击左上选项卡,重新返回终端,运行web_demo_stream.py并指定7000端口,这样就不用再次添加外部端口映射啦~

streamlit run web_demo_streamlit.py --server.port 7000

大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

3、访问streamlit界面

  • 复制外部访问地址到浏览器打开,之后模型才会开始加载。等待模型记载完毕~
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
  • 以下是模型在加载时Streamlit的画面,在工作台中看到加载完成后刷新即可正常使用。
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
  • 加载成功后工作台后端画面

大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

用免费GPU部署自己的stable-diffusion

1.创建项目

  1. 进入趋动云用户工作台,选择:当前空间,请确保当前所在空间是注册时系统自动生成的空间。
    注:非系统自动生成的空间,没有赠送的算力金
  2. 点击:快速创建,选择创建项目,创建新项目。
  3. 填写相关的项目信息,其中镜像选择如下。
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
    4.数据集选择如下。
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
    5.待项目信息完善后,镜像和数据集选择完毕之后,点击 “创建”。
    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
  4. 弹出的上传代码对话框,选择 “暂不上传”。

2. 初始化开发环境实例

之后找到最右侧 “开发”-> “初始化开发环境实例
大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
按照下图进行选择

大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
运行初始化中,等待约 5-10 分钟,当右侧的 网页终端 和 JupyterLab 不再是灰色时,表明工具注入成功。此时您便可在此开发环境上通过工具进行模型调优,详情可参见下一步。
大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

3. 部署模型

初始化完毕,点击下图所示右侧 “网页终端
大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
依次输入以下4串命令就可以啦,注意每一次命令输入之后要等它运行完毕之后再输入下一条指令,建议复制命令而不是手动输入,容易出现遗漏空格或者路径出错的情况(网页终端无法使用Ctrl+C复制和Ctrl+V粘贴,可以鼠标在页面点击右键,然后选择“复制”或者“粘贴”)。

1、解压代码及模型

tar xf /gemini/data-1/stable-diffusion-webui.tar -C /gemini/code/

2、解压配置文件到隐藏目录/root/.cache

tar xf /gemini/data-1/cache.tar -C /root/ (文件位置可能发生变化,如果报错请删除该行)

3、拷贝frpc内网穿透文件 (注意有两行 -> 两条指令)

cp /gemini/data-1/frpc_linux_amd64 /root/miniconda3/lib/python3.10/site-packages/gradio/frpc_linux_amd64_v0.2 (文件位置可能发生变化,如果报错请删除该行)
chmod +x /root/miniconda3/lib/python3.10/site-packages/gradio/frpc_linux_amd64_v0.2

4、拷贝模型文件到项目目录下

cp /gemini/data-1/v1-5-pruned-emaonly.safetensors /gemini/code/stable-diffusion-webui/

大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
5、更新系统httpx依赖

pip install httpx==0.24.1

6、运行项目

cd /gemini/code/stable-diffusion-webui && python launch.py --deepdanbooru --share --xformers --listen

当命令窗口出现如下两个网址时表示部署成功,可以复制右侧的外部访问网址访问webui
大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion
访问这个网址就可以直接使用啦
大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

4. 体验自己的stable diffusion

登录进去之后输入prompt提示词

(masterpiece),(best quality),(Realistic photos),a cute girl, war a cap, headphones, summer, sunset, mountain road, flowers, nice weather, healing sense, detailed, half-length shot, anime style, 8k

注意:体验完后,一定要停止项目运转。一定要停止项目运转。一定要停止项目运转。不然会一直消耗GPU资源。
大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型,人工智能,大模型,stable-diffusion

参考资料:https://datawhaler.feishu.cn/docx/BwjzdQPJRonFh8xeiSOcRUI3n8b文章来源地址https://www.toymoban.com/news/detail-841529.html

到了这里,关于大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • (二)ChatGLM-6B模型部署以及ptuning微调详细教程

    下面是官方原话, 选择他的原因完全是因为可以消费级电脑上使用,更强的130B模型看https://github.com/THUDM/GLM-130B ChatGLM-6B 是一个 开源 的、支持 中英双语 的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合 模型量化 技术,用户可以在 消费级的显卡 上进行

    2024年02月07日
    浏览(33)
  • (十六) AIGC、AI绘画、SD-WebUI、本地部署、Stable-Diffusion本地模型、最新Controlnet扩展

    1、简介 AI绘画的工具网站很多,大部分收费/限制数量,而且速度很慢,如果部署本地的模型,不仅免费无限制、还可以提高出图效率,随意生成自己想象中的图,部署中发现有各种各样的环境配置问题,无法正确运行。 本博整理了SD-WebUI的整合包(Windows环境下),包括启动器

    2024年02月13日
    浏览(48)
  • Stable-Diffusion 在线部署

    1. 注册 链接:https://aistudio.baidu.com/aistudio/newbie?invitation=1sharedUserId=4982053sharedUserName=2019%E7%9F%A5%E5%90%A6 2. 复制项目: https://aistudio.baidu.com/aistudio/projectdetail/4905623 点击 Fork,复制为自己的项目 3. 点击启动项目 点击“启动环境”,选择合适的 32G版本的GPU,进入项目。 AIStudio 每天

    2024年02月11日
    浏览(39)
  • 大模型笔记之-低成本部署CharGLM3|chatglm.cpp基于ggml 的纯 C++ 实现

    之前两篇文章已经分别在云上和本地搭建了chatGLM3的API接口 和综合web_demo.py 本篇文章记录如何仅使用CPU和内存在没有GPU(cuda)的情况下推理chatGLM3 ps:表示原始模型位置,如果本地没有模型会从hf联网下载 位于convert.py的512行修改默认模型位置 此外还有 位于convert.py的529行修改

    2024年01月19日
    浏览(30)
  • 使用docker部署stable-diffusion

    wsl2 ubuntu20.04 docker python3.10 git 设置软件包存储库和 GPG 密钥 更新包列表后安装nvidia-container-toolkit包 配置Docker运行时环境 或者在配置文件 /etc/docker/daemon.json 中添加以下设置(docker-desktop在设置中修改) 对于wls2+docker,只需要更改下图位置的配置即可 运行一个基本的CUDA容器验证

    2024年02月14日
    浏览(36)
  • Stable-Diffusion——Windows部署教程

    参考文章:从零开始,手把手教你本地部署Stable Diffusion Webui AI绘画(非最新版) 一键脚本安装 默认环境安装在项目路径的 venv 下 安装pytorch:(正常用国内网就行) 运行核心脚本 安装依赖: 踩坑特定环境版本: 运行 模型网站: 配置网络: 在webui路径下创建openai文件夹:

    2024年02月05日
    浏览(38)
  • Stable-diffusion复现笔记

    目前正在学习有关扩撒模型的相关知识,最近复现了Stable-diffuison,此文主要是想记录一下整体的复现过程以及我在复现过程中出现的一些奇怪的问题以及我的处理方法。这里我的复现主要是针对官网文档实现的,并没有用到webui版本,如果是想体验Stable-diffusion可以去下载we

    2024年04月09日
    浏览(47)
  • AI-绘画:Stable-Diffusion部署分析

    目录 1.介绍下AI绘画(水一下) 1.1使用条件 2.工具准备和安装 2.1.工具下载 2.2.环境安装 3.Stable-Diffusion服务的启动 4.Stable-Diffusion的使用 5.模型文件 5.1模型文件下载  5.2模型文件安装 6. Stable-Diffusion优秀教程推荐 7.我的心得体会(水) 8.学习经历(水) 9.Git 的基本概念和使用方

    2024年02月11日
    浏览(60)
  • Stable-Diffusion的WebUI部署实战

    1.1、linux环境 安装完成前期的环境准备之后,之后每次运行只需要: 该种方式会将进程运行在本地,可以通过ip+port的方式直接在网页上访问。 也可以通过如下方式进行简单的改造: 参数说明: --listen :将本地连接从127.0.0.1修改为0.0.0.0,即可通过服务器 IP:7861进行访问 --s

    2024年03月14日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包