【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型)

这篇具有很好参考价值的文章主要介绍了【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、简介

(1)ChatGLM2-6B

ChatGLM2-6B是一个开源的、支持中英双语的对话语言模型,基于General Language Model (GLM)架构。

ChatGLM2-6B具备的能力:

  • 自我认知:“介绍一下你的优点”
  • 提纲写作:“帮我写一个介绍ChatGLM的博客提纲”
  • 文案写作:“写10条热评文案”
  • 信息抽取:‘从上述信息中抽取人、时间、事件’

大语言模型通常基于通识知识进行训练,因此在面向如下场景时,常常需要借助模型微调或提示词工程提升语言模型应用效果:

  • 垂直领域知识
  • 基于私有数据的问答

【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型),【Phthon】,# 【数据挖掘】,# 【大数据分析】,语言模型,人工智能,自然语言处理

(2)LangChain

LangChain是一个用于开发由语言模型驱动的应用程序的框架。
主要功能:

  • 调用语言模型
  • 将不同数据源接入到语言模型的交互中
  • 允许语言模型与运行环境交互

LangChain中提供的模块

  • Modules:支持的模型类型和集成。
  • Prompt:提示词管理、优化和序列化。
  • Memory:内存是指在链/代理调用之间持续存在的状态。
  • Indexes:当语言模型与特定于应用程序的数据相结合时,会变得更加强大-此模块包含用于加载、查询和更新外部数据的接口和集成。
  • Chain:链是结构化的调用序列(对LLM或其他实用程序)。
  • Agents:代理是一个链,其中LLM在给定高级指令和一组工具的情况下,反复决定操作,执行操作并观察结果,直到高级指令完成。
  • Callbacks:回调允许您记录和流式传输任何链的中间步骤,从而轻松观察、调试和评估应用程序的内部。

LangChain的运用场景:

  • 文档问答
  • 个人助理
  • 查询表格数据
  • 与API交互
  • 信息提取
  • 文档总结

(3)基于单一文档问答的实现原理

1、加载本地文档:读取本地文档加载为文本
2、文本拆分:将文本按照字符、长度或语义进行拆分
3、根据提问匹配文本:根据用户提问对文本进行字符匹配或语义检索
4、构建Prompt:将匹配文本、用户提问加入Prompt模板
5、LLM生成回答:将Pronpt发送给LLM获得基于文档内容的回答

(4)大规模语言模型系列技术:以GLM-130B为例

  • 自编码模型BERT:双向注意力,文本理解
  • 自回归模型GPT:单向注意力,长文本生成
  • 编码器-解码器模型T5:编解码,对话任务

【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型),【Phthon】,# 【数据挖掘】,# 【大数据分析】,语言模型,人工智能,自然语言处理
GLM本质是类似一个自回归填空的过程

(5)新建知识库

新建知识库的过程相当于在本地新建一个路径,因此不支持路径当中存在中文。但是知识库的文件可以使用中文名称。

1、上传文件:将文件上传到知识库当中,这个过程相当于将文件加载成文本并进行向量化的过程。

【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型),【Phthon】,# 【数据挖掘】,# 【大数据分析】,语言模型,人工智能,自然语言处理
【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型),【Phthon】,# 【数据挖掘】,# 【大数据分析】,语言模型,人工智能,自然语言处理

(6)效果优化方向

1、模型微调:对llm和embedding基于专业领域数据进行微调。

2、文档加工:在文本分段后,对每段分别进行总结,基于总结内容语义进行匹配。

3、借助不同的模型能力:在text2sql、text2cpyher场景下需要产生代码时,可借助不同模型能力。

2、ChatGLM2-6B本地安装与部署

视频教程:视频教程:----->ChatGLM2-6B本地安装与部署-视频教程

【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型),【Phthon】,# 【数据挖掘】,# 【大数据分析】,语言模型,人工智能,自然语言处理
注意 :chatglm2-6b相比于chatglm-6b在性能上提升了不少。在选择本地部署的时候,我查看到自己显卡只有512M,无法满足部署需要的24G显卡的要求。(注:查看显卡多大可以安装一个lu大师),因此我选择在某宝上租用了一个24G的GPU。

部署步骤如下:

1、根据视频上面的,先下载懒人安装包:懒人包一键部署

【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型),【Phthon】,# 【数据挖掘】,# 【大数据分析】,语言模型,人工智能,自然语言处理

2、将chatglm.zip安装包解压缩之后放在ChatGLM2-6B文件夹下面

【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型),【Phthon】,# 【数据挖掘】,# 【大数据分析】,语言模型,人工智能,自然语言处理

3、创建一个叫VisualGLM-6B的文件夹,在此文件夹里面再创建一个叫cache的文件夹

【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型),【Phthon】,# 【数据挖掘】,# 【大数据分析】,语言模型,人工智能,自然语言处理

4、配置缓存文件

【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型),【Phthon】,# 【数据挖掘】,# 【大数据分析】,语言模型,人工智能,自然语言处理
【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型),【Phthon】,# 【数据挖掘】,# 【大数据分析】,语言模型,人工智能,自然语言处理

5、之后点击一键启动,启动项目

【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型),【Phthon】,# 【数据挖掘】,# 【大数据分析】,语言模型,人工智能,自然语言处理
【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型),【Phthon】,# 【数据挖掘】,# 【大数据分析】,语言模型,人工智能,自然语言处理

最终即可跳转到UI界面:

【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型),【Phthon】,# 【数据挖掘】,# 【大数据分析】,语言模型,人工智能,自然语言处理
注:如果要自己部署请确保pytorch是2.0.1

3、ChatGLM2-6B-32K本地安装

2023年8月3号GLM技术团队发布了基于 ChatGLM2-6B 的新模型 ChatGLM-6B-32k ,目前 langchain-chatglm 项目中已经可以使用,除此之外项目中还增加几款 embedding 模型作为备选,text2vec-base-multilingual,text2vec-base-chinese-sentence 和 text2vec-base-chinese-paraphrase。

此外,项目将于近期发布 0.2.0 版本,采用 fastchat + langchain + fastapi + streamlit 的方式进行了重构,预计最快本周上线。

模型下载地址:
chatglm2-6b-32k:https://huggingface.co/THUDM/chatglm2-6b-32k
text2vec-base-chinese-sentence:https://huggingface.co/shibing624/text2vec-base-chinese-sentence
text2vec-base-chinese-paraphrase:https://huggingface.co/shibing624/text2vec-base-chinese-paraphrase
text2vec-base-multilingual:https://huggingface.co/shibing624/text2vec-base-multilingual

【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型),【Phthon】,# 【数据挖掘】,# 【大数据分析】,语言模型,人工智能,自然语言处理
【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型),【Phthon】,# 【数据挖掘】,# 【大数据分析】,语言模型,人工智能,自然语言处理文章来源地址https://www.toymoban.com/news/detail-619431.html

到了这里,关于【ChatGLM_01】ChatGLM2-6B本地安装与部署(大语言模型)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • ChatGLM2-6B! 我跑通啦!本地部署+微调(windows系统)

    记录一下此时此刻,2023年7月8日22点04,从ChatGLM2-6B在7月4日开放了ptuning到此时此刻,ChatGLM2-6B的微调终于被哥们跑通了! 从 本地部署ChatGLM2-6B 到 本地进行P-tuning微调 ,再到最后的 模型检测 ,哥们全跑通了! 这里非常感谢ChatGLM2-6B|开源本地化语言模型这篇博客!因为我布置

    2024年02月16日
    浏览(31)
  • 使用Triton部署chatglm2-6b模型

    NVIDIA Triton Inference Server是一个针对CPU和GPU进行优化的云端和推理的解决方案。 支持的模型类型包括TensorRT、TensorFlow、PyTorch(meta-llama/Llama-2-7b)、Python(chatglm)、ONNX Runtime和OpenVino。 NVIDIA Triton Server是一个高性能的推断服务器,具有以下特点: 1. 高性能:Triton Server为使用GPU进行推

    2024年02月08日
    浏览(40)
  • 开源双语对话语言模型 ChatGLM-6B 本地私有化部署

    本文首发于:https://www.licorne.ink/2023/08/llm-chatglm-6b-local-deploy/ ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGL

    2024年02月10日
    浏览(45)
  • 以大语言模型ChatGLM2-6B为后台,打造个人语音交互机器人Demo

    随着以ChatGLM2-6B为代表的开源大型语言模型的兴起,人工智能革命正席卷全球…… ChatGLM2-6B这一代表性的开源大型模型,以其易于部署、适度的参数量和强大的中文处理能力,为个人用户提供了在个人显卡上部署大型模型的便捷途径。 然而,在大型语言模型领域,人机交互仍

    2024年02月05日
    浏览(31)
  • chatglm2-6b模型在9n-triton中部署并集成至langchain实践

    近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已经正式发布,引入了如下新特性: ①. 基座模型升级,性能更强大,在中文C-Eval榜单中,以51.7分位列第6; ②. 支持8K-32k的上下文; ③. 推理性能提升了42%; ④. 对学术研究完全开放,允许申请商用授权。 目前大多数部署方案采用的是

    2024年02月12日
    浏览(66)
  • LLMs之ChatGLM2:ChatGLM2-6B本地部署之单机推理(API/CLI/GUI)、低成本部署(GPU量化部署/CPU及其量化部署/Mac部署/多卡部署)、有限资源下高效微调(全参/P-t

    LLMs之ChatGLM2:ChatGLM2-6B本地部署之单机推理(API/CLI/GUI)、低成本部署(GPU量化部署/CPU及其量化部署/Mac部署/多卡部署)、有限资源下高效微调(全参/P-tuning v2)、模型评估和推理之图文教程之详细攻略 目录 一、配置基础环境及其注意事项 第一步、检测软硬件环境

    2024年02月07日
    浏览(33)
  • ChatGLM2-6B_ An Open Bilingual Chat LLM _ 开源双语对话语言模型

    更强大的性能 :基于 ChatGLM 初代模型的开发经验,我们全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 [GLM]的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BB

    2024年04月14日
    浏览(28)
  • chatglm2-6b模型在9n-triton中部署并集成至langchain实践 | 京东云技术团队

    近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已经正式发布,引入了如下新特性: ①. 基座模型升级,性能更强大,在中文C-Eval榜单中,以51.7分位列第6; ②. 支持8K-32k的上下文; ③. 推理性能提升了42%; ④. 对学术研究完全开放,允许申请商用授权。 目前大多数部署方案采用的是

    2024年02月12日
    浏览(36)
  • ChatGLM2-6B 部署

    这是ChatGLM2-6B 部署的阅读笔记,主要介绍了ChatGLM2-6B模型的部署和一些原理的简单解释。 它是单卡开源的对话模型。 充分的中英双语预训练 较低的部署门槛 FP16半精度下,需要至少13G的显存进行推理,甚至可以进一步降低到10G(INT8)和6G(INT4) 更长的序列长度 ChatGLM-6B 序列长度达

    2024年02月09日
    浏览(37)
  • 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 开源中英双语对话模型

    项目地址 chatglm2-6b 下载模型 创建测试项目 创建虚拟环境安装依赖 完整的venv环境 main.py 执行 python进程cpu使用率100.3%持续了很长时间,没有启用多线程?

    2024年01月20日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包