chatglm2-2b+sdxl1.0+langchain打造私有AIGC(一)

这篇具有很好参考价值的文章主要介绍了chatglm2-2b+sdxl1.0+langchain打造私有AIGC(一)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、背景及目标

在ChatGPT爆火之后,我对AI技术也开始关注,一是出于好奇,而是出于危机。想必对于应用开发人员来说从“面面向对象编程”转成“面向AI编程”也是极好的。

最初的时候我也是抱着试一试的心态,开始魔法上网使用chatgpt,然后尝试调用openai的开放接口,搭建了一个自己的chat网站,后来由于免费的token用完了,以及openai对中国的不开放态度,遂放弃。

在找遍了国内所有的知名厂商的语言大模型接口之后,突然发现一个神奇的网站,https://huggingface.co(开源模型发布平台,类似于github,当然也是需要魔法上网才能实现自由访问的)。在huggingface上面发现了中国人自己的开源语言大模型ChatGLM,岁藤摸瓜又发现了Langchain这个开源的AI中间件......

于是开始从单纯的部署,写代码调用ChatGLM开始,到将其与langchain集成,再到后来想要开发一套属于自己的AIGC应用,实现旅行游记,图文小说的生产

差不多2个多月的时间,目前已经跑通了整个流程,在没有lora微调SDXL的情况下已经成功发布一篇小红书(实验性的发布)西北日常生成

二、整体思路

废话也不必多说,先看看AIGC的整体实现思路

chatglm2-2b+sdxl1.0+langchain打造私有AIGC(一),AIGC,langchain,AIGC,chatgpt

其实最初的时候并没有考虑过SDXL,但是后来发现光有文字没有图片可不行,依旧是在huggingface上面找到了SDXL,才有了这一套思路,资源库的向量化用的模型依然是在huggingface找到的,香,香,香。(后面会详细将每一步是怎么实现的)。至于爬虫爬了什么平台在这里就不方便讲了,后面直接会上爬虫的代码...

至于为什么要爬取外部素材,是因为需要获取点赞最高的文章,让AI仿造着写(这是数据提示词工程的范畴),否则AI写出来的东西会缺乏真实性,逻辑性,虽然还可以采用微调的方式解决,但微调也是需要足够质量的数据才能进行微调,数据从哪里来?想必各位都清楚了。

那么问题来了,为什么要将内容正则化呢?因为NLP里面计算词句段的相似性都是采用正则化计算的余弦距离或者欧氏距离或者其他空间距离。用户输入的关键字要想匹配出最接近的文章,不能用数据库的模糊查询,这不符合机器学习的科学

三、基础环境搭建

进入主题,如何搭建基础环境,在环境搭建上,本人亲测,踩坑无数,我整理出来了完整的步骤,按照步骤进行,一气呵成,避免踩坑(重要的事说三遍,基于Windows,基于Windows,基于Windows)

1.python安装

本人安装python版本为3.9.10

python官网windows版本下载地址:Python Releases for Windows | Python.org

chatglm2-2b+sdxl1.0+langchain打造私有AIGC(一),AIGC,langchain,AIGC,chatgpt 

然后双击打开安装文件 

chatglm2-2b+sdxl1.0+langchain打造私有AIGC(一),AIGC,langchain,AIGC,chatgpt 

为了避免配置环境变量这么麻烦&#文章来源地址https://www.toymoban.com/news/detail-813696.html

到了这里,关于chatglm2-2b+sdxl1.0+langchain打造私有AIGC(一)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • AIGC - ChatGLM大模型:ChatGLM2-6B模型推理部署

    如果你要问我为什么直接部署ChatGLM2的模型? 因为当我在8月份在上海召开的全球人工智能大会上了解到清华-智谱发布的ChatGLM模型时,它已经发布了新的版本ChatGLM2,并且推理的效果提升了不少,那么本着只要最好的原则,我就直接上手先玩新版本了。 作为AIGC方面的小白来说

    2024年02月06日
    浏览(41)
  • 【ChatGLM_02】LangChain知识库+Lora微调chatglm2-6b模型+提示词Prompt的使用原则

    运行langchain-ChatGLM-master下面的webui.py文件 (1) 配置知识库 新建知识库 向知识库当中添加文件 支持上传的数据格式:word、pdf、excel、csv、txt、文件夹等。但是此处我试了一下 (2) 文档数据测试 word文档测试: (3) 知识库测试模式 知识库测试只会返回输入内容在当前知识库当中的

    2024年02月14日
    浏览(34)
  • chatglm2-6b模型在9n-triton中部署并集成至langchain实践

    近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已经正式发布,引入了如下新特性: ①. 基座模型升级,性能更强大,在中文C-Eval榜单中,以51.7分位列第6; ②. 支持8K-32k的上下文; ③. 推理性能提升了42%; ④. 对学术研究完全开放,允许申请商用授权。 目前大多数部署方案采用的是

    2024年02月12日
    浏览(74)
  • 【AIGC】Chatglm2-lora微调

    ChatGLM2-6B 源码地址:https://github.com/THUDM/ChatGLM2-6B ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的 第二代版本 ,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性: 1、 更强大的性能 :基于 ChatGLM 初代模型的开发经验,我们全面

    2024年02月11日
    浏览(34)
  • 开源大模型ChatGLM2-6B 2. 跟着LangChain参考文档搭建LLM+知识库问答系统

    租用了1台GPU服务器,系统 ubuntu20,Tesla V100-16GB (GPU服务器已经关机结束租赁了) SSH地址:* 端口:17520 SSH账户:root 密码:Jaere7pa 内网: 3389 , 外网:17518 VNC地址:* 端口:17519 VNC用户名:root 密码:Jaere7pa 硬件需求,ChatGLM-6B和ChatGLM2-6B相当。 量化等级    最低 GPU 显存 F

    2024年02月03日
    浏览(44)
  • 以大语言模型ChatGLM2-6B为后台,打造个人语音交互机器人Demo

    随着以ChatGLM2-6B为代表的开源大型语言模型的兴起,人工智能革命正席卷全球…… ChatGLM2-6B这一代表性的开源大型模型,以其易于部署、适度的参数量和强大的中文处理能力,为个人用户提供了在个人显卡上部署大型模型的便捷途径。 然而,在大型语言模型领域,人机交互仍

    2024年02月05日
    浏览(41)
  • chatglm2-6b模型在9n-triton中部署并集成至langchain实践 | 京东云技术团队

    近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已经正式发布,引入了如下新特性: ①. 基座模型升级,性能更强大,在中文C-Eval榜单中,以51.7分位列第6; ②. 支持8K-32k的上下文; ③. 推理性能提升了42%; ④. 对学术研究完全开放,允许申请商用授权。 目前大多数部署方案采用的是

    2024年02月12日
    浏览(44)
  • 【AIGC】ChatGLM2-6B大模型 据称推理性能超越Chat4.0

    models ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性: 更强大的性能:基于 ChatGLM 初代模型的开发经验,我们全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了

    2024年02月11日
    浏览(34)
  • stable diffusion实践操作-大模型介绍-SDXL1大模型

    大家移步下面链接中,里面详细介绍了stable diffusion的原理,操作等(本文只是下面系列文章的一个写作模板)。 stable diffusion实践操作 提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档 经过SDXL0.9和SDXL Beta的迭代,终于SDXL1.0正式版发布了! 之前使用A

    2024年02月09日
    浏览(38)
  • AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知识库

    手把手教你搭建本地知识库问答AI机器人 LangChain-Chatchat:基于LangChain和ChatGLM2-6B构建本地离线私有化知识库 在家庭私有云上部署体验语言模型chatglm3-6b,打造私人助理 手把手教大家在本地运行ChatGLM3-6B大模型(一) 自从去年GPT模型火爆以来,降低了很多个人和企业进入人工智

    2024年02月20日
    浏览(56)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包