最近很多人都尝试在M1/M2芯片下跑chatglm/chatglm2,结果都不太理想,或者是说要32G内存才可以运行。本文使用cpu基于chatglm-cpp运行chatglm2的int4版本。开了多个网页及应用的情况下(包括chatglm2),总体内存占用9G左右。chatglm2可以流畅的运行了。虚拟环境为python 3.10,使用conda 创建。
具体部署过程如下:
1.安装brew,主要需要安装core及cask
/bin/zsh -c "$(curl -fsSL https://gitee.com/cunkai/HomebrewCN/raw/master/Homebrew.sh)"
2.添加git配置
git config --global --add safe.directory /opt/homebrew/Library/Taps/homebrew/homebrew-core
git config --global --add safe.directory /opt/homebrew/Library/Taps/homebrew/homebrew-cask
3. 安装cmake
brew install cmake
4. 下载chatglm-cpp
git clone --recursive https://github.com/li-plus/chatglm.cpp.git && cd chatglm.cpp
5. 转换chatglm2模型(模型下载THUDM/chatglm2-6b at main,依赖安装)
python3 convert.py -i THUDM/chatglm2-6b -t q4_0 -o chatglm2-ggml.bin
6. build main
cmake -B build
cmake --build build -j
7. 命令行调用
./build/bin/main -m chatglm2-ggml.bin -p 你好 --top_p 0.8 --temp 0.8 # ChatGLM2-6B
# 你好👋!我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。
8. 安装chatglm-cpp文章来源:https://www.toymoban.com/news/detail-636395.html
pip install -U chatglm-cpp
9. 运行web_demo.py文章来源地址https://www.toymoban.com/news/detail-636395.html
cd examples && python web_demo.py -m ../chatglm-ggml.bin
到了这里,关于Mac(M1Pro)下运行ChatGLM2的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!