windows环境下的langchain-ChatGLM的本地部署

这篇具有很好参考价值的文章主要介绍了windows环境下的langchain-ChatGLM的本地部署。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

首先是项目开源地址 https://github.com/imClumsyPanda/langchain-ChatGLM

下载这个项目的源码非常简单,但运行起来十分麻烦,各种环境的搭配简直是折磨人,尤其是电脑上缺少各种安装环境的,我首先先列举几个,例如conda安装python的虚拟环境,用这个比较方便,还有Anoconda的安装,Visual Studio 的安装等等,反正运行时缺少什么,我们就安装什么就完事了。

B站有一个类似的本地部署值得参考一下:【防坑指南】手把手演示本机部署langchain+chatGLM本地知识库_哔哩哔哩_bilibili

一、跟着B站的这个视频安装下去,我们可能在第一步的安装依赖 pip install -r requirements.txt 会报一个编码检测不到的错误需要把这个文档改成utf-8的格式,但我们的文档查看本身就是utf-8的,这时候我们需要修改encoding的代码。

1、没用使用虚拟环境的一般在C盘的安装python目录下,我这里给出我的路径参考C:\Program Files\Python39\Lib\site-packages\pip\_internal\utils\encoding.py

在encoding.py的data.decode函数后面加上一个ignore属性,这样pip install -r requirements.txt就可以正常安装。

windows环境下的langchain-ChatGLM的本地部署,langchain

 2、如果我们使用的是conda创建的虚拟环境我们就要在conda的安装目录下面找到类似的,我的conda安装到的是d盘,我的参考路径为D:\Anaconda\envs\langchain\Lib\site-packages\pip\_internal\utils\encoding.py,同样也是将在encoding.py的data.decode函数后面加上一个ignore属性

windows环境下的langchain-ChatGLM的本地部署,langchain

这样我们就可以正常使用安装命令 pip install -r requirements.txt,如果安装失败,我们就根据提示安装缺少的环境就可以了,安装成功后,我们的第一步就完成了。

 二、更具项目文档提示,我们需要设置webui的交互界面,我们需要修改configs目录下的model_config.py文件,我们需要将自己的本地模型放进来,B站的视频只修改了一个chatglm-6b模型,我是用的是chatglm-6b-int8和text2vec-base-chinese这两个模型,这两个模型的下载地址为:数据集 - LangChain-ChatGLM-Webui - OpenI - 启智AI开源社区提供普惠算力! (pcl.ac.cn),新建一个model文件夹存放这两个目录。

根据文提示修改路径和默认模型:模型的本地地址必须是绝对地址

1、text2vec-base-chinese模型windows环境下的langchain-ChatGLM的本地部署,langchain

2、chatglm-6b-int8模型

windows环境下的langchain-ChatGLM的本地部署,langchain

windows环境下的langchain-ChatGLM的本地部署,langchain

 值得注意的是,B站视频上面的和我们下载下来的源文件有些许的不同,我们需要在我们下载的代码里面加入加载本地的model

加入NO_REMOTE_MODEL = True和MODEL_DIR = "model/"这两个命令,后面这个是否对程序有影响我没有验证,加上肯定没有问题。windows环境下的langchain-ChatGLM的本地部署,langchain

 这样model_config.py就修改成功了。

 三、和视频一样可能会爆torch错误,根据视频下载相同的torch就行了,视频地址:【防坑指南】手把手演示本机部署langchain+chatGLM本地知识库_哔哩哔哩_bilibili

 四、我们需要修改项目的启动地址,将webui.py文件的项目启动地质“0.0.0.0”修改为localhost,将share属性修改为Ture就完事了。

windows环境下的langchain-ChatGLM的本地部署,langchain

 最后的运行界面可以支持LLM对话和知识库问答、Bing搜索:

LLM对话界面:

windows环境下的langchain-ChatGLM的本地部署,langchain

知识库问答,知识库问答需要我们上传知识库。

windows环境下的langchain-ChatGLM的本地部署,langchain

 以上就是我的全部安装过程,欢迎大家交流。文章来源地址https://www.toymoban.com/news/detail-548124.html

到了这里,关于windows环境下的langchain-ChatGLM的本地部署的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Langchain-ChatGLM配置文件参数测试

    1 已知可能影响对话效果的参数(位于configs/model_config.py文件): 其中可能对读取知识库影响较大的变量有CHUNK_SIZE(单段参考上下文的长度),VECTOR_SEARCH_TOP_K(知识库参考文段数量),和VECTOR_SEARCH_SCORE_THRESHOLD(知识库匹配内容需要达到的最小相关度)。本实验将通过向不同

    2024年02月16日
    浏览(29)
  • langchain-ChatGLM源码阅读:模型加载

    loader.py shared.py loader.py 在加载模型前先清空显存 loader.py loader.py 的 _load_model 方法 auto_factory.py 的 from_pretrained 方法 包路径:site-packages/transformers/models/auto/auto_factory.py 作用:将配置对象的类与模型类或对象建立关联,以便根据配置来获取相应的模型类或对象。这通常用于管理不

    2024年02月12日
    浏览(34)
  • langchain-ChatGLM源码阅读:webui.py

    使用gradio设置页面的视觉组件和交互逻辑,位于 webui.py 监听到前端的事件后调用的回调函数,负责实现前后端交互。需要注意的一点是,chatbot中显示新的聊天内容并不是在原来的基础上添加,而是从头到尾的重新打印,所以基本上每个函数都要传旧的history和返回新的histor

    2024年02月14日
    浏览(29)
  • 2M大小的PDF文档上传到LangChain-ChatGLM知识图谱中,大致需要的时间

    对于将2M大小的PDF文档上传到LangChain-ChatGLM知识图谱中,大致需要的时间如下: PDF到文本的提取转换:若PDF内容主要为文本,此步骤约需要1-2分钟。 提取的文本经过预处理与分析:此步骤需要对文本进行分词、命名实体识别等处理,约需要2-5分钟。 抽取文本中的结构化知识(实体、关

    2024年02月08日
    浏览(32)
  • CentOS7上部署langchain-chatglm或stable-diffusion可能遇到的Bug的解决方案

    进入你的代码目录下 下载依赖 这里可能有的朋友会有问题会出现某些包下载不了,这里建议直接使用阿里源即可,在确定你的cuda版本之后(使用nvidia-smi确定cuda版本) 命令行执行 卸载掉刚才pip安装的版本!!!!因为此处安装的版本还缺少cuda的支持,确定卸载掉之后 执行 此处X为

    2024年02月16日
    浏览(30)
  • 本地化GPT:LangChain + ChatGLM == 知识本地库

    OpenAI发布的ChatGPT Plugin刚刚杀死了一个创业公司LangChain(刚获得1000万美金种子轮融资) 由于语言模型的输出是通过自回归+采样[可选]完成的,在高精度场景下,即使是超大语言模型,发生错误概率也是指数级的。同时,采样也很容易引入错误。比如地址中的数字门牌号,模型

    2024年02月11日
    浏览(37)
  • Windows环境下清华ChatGLM3+docker-desktop镜像制作和配置GPU环境docker容器本地运行

    (1)下载或git拉取ChatGLM3镜像   拉取镜像,配置环境在此文就不多赘述   git clone https://github.com/THUDM/ChatGLM3.git (2)docker-desktop的安装 这里引用这位大佬的文章,讲的很详细

    2024年02月19日
    浏览(48)
  • 使用Langchain与ChatGLM实现本地知识库(二)

      大语言模型也只是将用户提供的大规模数据集训练而来,也并非万能的什么都知道,特别是一些小众知识、内部数据或私密的个人数据等,此时ChatGLM3肯定会胡乱回答就是ChatGPT4也不一定能给出满意回答;不少公司、个人都有自己的知识库或日志等此时如有可将这些数据以

    2024年02月05日
    浏览(42)
  • 使用LangChain与ChatGLM实现本地知识库(一)

      本篇主要内容为介绍ChatGLM3的安装使用,后续才会涉及到使用LangChain实现本地知识库的内容;   ChatGLM为智谱与清华大学开源的一个大语言模型,支持多轮对话、内容创作等,ChatGLM3-6B为ChatGLM3系列中门槛相对较低的一个,本地部署提供兼容OpenAI的API;   LangChain用于快

    2024年02月05日
    浏览(36)
  • 【ChatGLM】基于 ChatGLM-6B + langchain 实现本地化知识库检索与智能答案生成: 中文 LangChain 项目的实现开源工作

      目录 【ChatGLM】基于 ChatGLM-6B + langchain 实现本地化知识库检索与智能答案生成: 中文 LangChain 项目的实现开源工作 1.克隆源代码:

    2024年02月11日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包