CentOS7上部署langchain-chatglm或stable-diffusion可能遇到的Bug的解决方案

这篇具有很好参考价值的文章主要介绍了CentOS7上部署langchain-chatglm或stable-diffusion可能遇到的Bug的解决方案。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

第一步 官网官方驱动 | NVIDIA下载驱动

# 切换root账号操作
# 进行一些依赖库的升级也很必要, eg:
# yum -y install epel-release
# yum -y install gcc gcc-c++ kernel-headers kernel-devel dkms

# 卸载驱动和cuda(非必要操作,直接更新cuda即可)
# nvidia-uninstall
# cuda-uninstaller
#安装(非必要操作,直接更新cuda即可)
# chmod a+x NVIDIA-Linux-x86_64-515.76.run
# ./NVIDIA-Linux-x86_64-470.86.run

# nvidia 安装成功
# nvidia-smi

# 安装cuda:
sh cuda_11.7.1_515.65.01_linux.run #默认更新driver从495到515,cuda从11.5到11.7
# 不要勾选 nvidia-fs(mofed是啥?)

# 成功之后按照提示添加路径:
vim /etc/profile
export CUDA_HOME=/usr/local/cuda-11.7
export LD_LIBRARY_PATH=${CUDA_HOME}/lib64:${CUDA_HOME}/extras/CUPTI/lib64
export PATH=${CUDA_HOME}/bin:${PATH}
source /etc/profile

第二步 下载官方代码包  

git clone https://github.com/imClumsyPanda/langchain-ChatGLM.git

安装python环境,此处建议使用conda管理环境。

conda create -n glm python=3.10.6

比如glm就 conda activate glm

sd 就conda activate sd

第三步 重新更新你的cuda的支持(非常重要)

进入你的代码目录下

pip install -r requment.txt 

下载依赖
这里可能有的朋友会有问题会出现某些包下载不了,这里建议直接使用阿里源即可,在确定你的cuda版本之后(使用nvidia-smi确定cuda版本)
命令行执行

pip uninstall torch torchvision torchaudio


卸载掉刚才pip安装的版本!!!!因为此处安装的版本还缺少cuda的支持,确定卸载掉之后
执行

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cuX

此处X为你的cuda版本,例如你的cuda版本为11.8那么此处就是118。
在安装完成后 执行pip list,如果此处是这样的 CentOS7上部署langchain-chatglm或stable-diffusion可能遇到的Bug的解决方案,langchain,stable diffusion,bug

那么恭喜你,成功了

第四步 下载对应的模型包

无论是chatglm-6b还是int4 int8的量化版本都可以,根据自己服务器的显存来决定

第五步 进入代码目录,修改config/model_config.py文件

将里面的模型目录修改为你本地的即可

第六步 启动项目

python webui.py 

启动,这一步很多人会出现报错,大部分人都会报错,但按照第三步来执行操作,基本99%不会出问题

另外:


有少部分报错会提示cudnn没有运行,那是因为你真的没有安装cuda,直接百度搜索即可解决 。
如果报out of memory 是你的显存太小了运行不起来。
如果代码运行起来了,你上传docx知识库报错,那么你需要安装libreoffice扩展,看该文章https://blog.csdn.net/an129/article/details/126766228进行安装,安装后有少部分朋友还是会报这个错误,你需要把你安装目录加入到环境变量(/etc/profile)中,如下图所示

CentOS7上部署langchain-chatglm或stable-diffusion可能遇到的Bug的解决方案,langchain,stable diffusion,bug
该问题即可解决。文章来源地址https://www.toymoban.com/news/detail-579770.html

到了这里,关于CentOS7上部署langchain-chatglm或stable-diffusion可能遇到的Bug的解决方案的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • Langchain-ChatGLM配置文件参数测试

    Langchain-ChatGLM配置文件参数测试

    1 已知可能影响对话效果的参数(位于configs/model_config.py文件): 其中可能对读取知识库影响较大的变量有CHUNK_SIZE(单段参考上下文的长度),VECTOR_SEARCH_TOP_K(知识库参考文段数量),和VECTOR_SEARCH_SCORE_THRESHOLD(知识库匹配内容需要达到的最小相关度)。本实验将通过向不同

    2024年02月16日
    浏览(5)
  • langchain-ChatGLM源码阅读:参数设置

    langchain-ChatGLM源码阅读:参数设置

    上下文关联相关参数: 知识相关度阈值score_threshold 内容条数k 是否启用上下文关联chunk_conent 上下文最大长度chunk_size 其主要作用是在所在文档中扩展与当前query相似度较高的知识库的内容,作为相关信息与query按照prompt规则组合后作为输入获得模型的回答。 获取查询句query嵌

    2024年02月14日
    浏览(8)
  • langchain-ChatGLM源码阅读:模型加载

    langchain-ChatGLM源码阅读:模型加载

    loader.py shared.py loader.py 在加载模型前先清空显存 loader.py loader.py 的 _load_model 方法 auto_factory.py 的 from_pretrained 方法 包路径:site-packages/transformers/models/auto/auto_factory.py 作用:将配置对象的类与模型类或对象建立关联,以便根据配置来获取相应的模型类或对象。这通常用于管理不

    2024年02月12日
    浏览(6)
  • langchain-ChatGLM源码阅读:webui.py

    使用gradio设置页面的视觉组件和交互逻辑,位于 webui.py 监听到前端的事件后调用的回调函数,负责实现前后端交互。需要注意的一点是,chatbot中显示新的聊天内容并不是在原来的基础上添加,而是从头到尾的重新打印,所以基本上每个函数都要传旧的history和返回新的histor

    2024年02月14日
    浏览(7)
  • 2M大小的PDF文档上传到LangChain-ChatGLM知识图谱中,大致需要的时间

    对于将2M大小的PDF文档上传到LangChain-ChatGLM知识图谱中,大致需要的时间如下: PDF到文本的提取转换:若PDF内容主要为文本,此步骤约需要1-2分钟。 提取的文本经过预处理与分析:此步骤需要对文本进行分词、命名实体识别等处理,约需要2-5分钟。 抽取文本中的结构化知识(实体、关

    2024年02月08日
    浏览(6)
  • 阿里云部署 ChatGLM2-6B 与 langchain+ChatGLM

    阿里云部署 ChatGLM2-6B 与 langchain+ChatGLM

    更新系统 安装git 克隆 ChatGLM2-6B 源码 克隆 chatglm2-6b 模型 安装 ChatGLM2-6B 依赖 修改模型的路径 修改成 启动服务 启动成功后 克隆 langchain-ChatGLM 源码 git clone https://github.com/imClumsyPanda/langchain-ChatGLM.git 克隆模型 安装 langchain-ChatGLM 依赖 修改配置 修改一 修改成 修改二 修改成 修改

    2024年02月15日
    浏览(16)
  • 大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型

    大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型

    平台注册链接: https://growthdata.virtaicloud.com/t/SA 注册完成后,点击右上角: 费用中心 ,可查看领取的算力。 https://platform.virtaicloud.com/ ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。 推理速度比上一代提高了很多,虽然本教程有两种启动方式,但教

    2024年03月19日
    浏览(11)
  • chatglm2-6b模型在9n-triton中部署并集成至langchain实践

    近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已经正式发布,引入了如下新特性: ①. 基座模型升级,性能更强大,在中文C-Eval榜单中,以51.7分位列第6; ②. 支持8K-32k的上下文; ③. 推理性能提升了42%; ④. 对学术研究完全开放,允许申请商用授权。 目前大多数部署方案采用的是

    2024年02月12日
    浏览(13)
  • AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知识库

    AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知识库

    手把手教你搭建本地知识库问答AI机器人 LangChain-Chatchat:基于LangChain和ChatGLM2-6B构建本地离线私有化知识库 在家庭私有云上部署体验语言模型chatglm3-6b,打造私人助理 手把手教大家在本地运行ChatGLM3-6B大模型(一) 自从去年GPT模型火爆以来,降低了很多个人和企业进入人工智

    2024年02月20日
    浏览(10)
  • chatglm2-6b模型在9n-triton中部署并集成至langchain实践 | 京东云技术团队

    chatglm2-6b模型在9n-triton中部署并集成至langchain实践 | 京东云技术团队

    近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已经正式发布,引入了如下新特性: ①. 基座模型升级,性能更强大,在中文C-Eval榜单中,以51.7分位列第6; ②. 支持8K-32k的上下文; ③. 推理性能提升了42%; ④. 对学术研究完全开放,允许申请商用授权。 目前大多数部署方案采用的是

    2024年02月12日
    浏览(10)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包