超简单,不用GPU,3步教你轻松在笔记本上部署聊天大模型 LLaMA

这篇具有很好参考价值的文章主要介绍了超简单,不用GPU,3步教你轻松在笔记本上部署聊天大模型 LLaMA。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

大家好啊,我是董董灿。

今天带大家在自己的电脑(笔记本)上部署一个类似于 chatGPT 的 AI 聊天大模型。

部署完之后,你就拥有了一个私人 AI 聊天机器人,无需联网,随时进行实时对话。

0. 简单说下背景

大模型我们都不陌生了,但是以 chatGPT 为代表的大模型是闭源的,他们的源代码不开放,我们只能用他们的商业化产品。

好在 Meta(也就是原来的 FaceBook) 开源了他们家的大模型 LLaMa。

之所以叫“大”模型,是因为它的参数量巨大。

以 LLaMa举例子,它开源了 LLaMa-7B, LLaMa-33B 等模型,后面的数字就代表着参数数量。

超简单,不用GPU,3步教你轻松在笔记本上部署聊天大模型 LLaMA,chatGPT,llama,人工智能,深度学习

7B,就意味着参数有 70 亿,但是很多人微调后,发现它的效果却一点也不输拥有几千亿的 chatGPT-3.5 模型。

但是参数量大,就会对计算机的算力有更高的要求,因此很多大模型,基本部署都是要求在 GPU 上进行。

超简单,不用GPU,3步教你轻松在笔记本上部署聊天大模型 LLaMA,chatGPT,llama,人工智能,深度学习

后来有人为了在传统 CPU 电脑上运行大模型,就开发了比较牛的框架,我们今天要用的,就是其中的一个明星产品:llama.cpp 。

超简单,不用GPU,3步教你轻松在笔记本上部署聊天大模型 LLaMA,chatGPT,llama,人工智能,深度学习

它是全部使用 C++ 语言来重写的 llama 项目,不像 python 那样需要依赖大量的包,显的臃肿。

而且这个 C++ 项目可以利用 CPU 的特性,完成模型的极致性能优化。

举个例子:llama.cpp 项目中,针对 Intel CPU 会利用 avx2 向量指令集来做优化。

avx2 指令集有些小伙伴可能不清楚,但是之前看过我的小册(计算机视觉从入门到调优)内容的同学肯定知道。

我在小册中就利用 avx2 指令集完成了对 resnet50 这个神经网络的性能优化,下图是小册中关于 avx2 部分的介绍。

超简单,不用GPU,3步教你轻松在笔记本上部署聊天大模型 LLaMA,chatGPT,llama,人工智能,深度学习

总的来说,llama.cpp 项目不仅可以运行在 CPU 上,而且对于电脑的配置要求也不高。

一般有 4G 以上的内存就够了,这点要求基本上很多笔记本都可以满足要求。

另外需要说明的是,我本身很少用 Windows 和 MacOS 环境做开发,因此本篇文章以 Linux 环境来介绍,并且默认大家熟悉 Linux 操作。

如果没有Linux 环境,可以参考这篇文章快速搭建一个:不用虚拟机,10 分钟快速在 windows 下安装 linux 系统。(右键复制链接打开)

至于 Windows 和 MacOS 环境的部署,可以去项目主页查看说明自行完成,llama.cpp 项目主页:https://github.com/ggerganov/llama.cpp/tree/master

好了,话不多说,我们直接开始,以下 3 步轻松搞定。

1、下载 llama.cpp 源码并编译

以下所有命令均在 Linux Ubuntu 环境下执行。

如果缺少 Linux 命令,使用 `sudo apt-get install` 来安装。

如果缺少 python 包,使用 `pip3 install `命令来安装。

首先,利用 git 下载 llama.cpp 源码。

git clone git@github.com:ggerganov/llama.cpp.git

下载完成后,进入 llama.cpp 目录。

cd llama.cpp

执行 make 命令,完成编译。

make

编译完成后,在 llama.cpp 目录下,会看到一个名称为 main 的可执行文件,这个就是等会要启动聊天的执行文件。

只要网络链接没问题,这一步很快就可以完成。

2. 下载量化后的模型文件

很多文章把这部分讲复杂了,我今天看了一些文章感觉也很吃力,跟别提新手了。

所以这部分我不打算介绍任何知识点,我们不用关心什么是量化操作,直接下载一个已经量化好的模型使用就行。

这一步需要从 huggingface (这是一个专门保存大模型的网站) 下载大模型(主要就是70 亿的参数)。

第一次下载估计很多人都会遇到问题,因此,我直接给出可行的步骤,一定按步骤来做。

复制以下 3 条命令,在 Linux 环境下执行:

pip3 install -U huggingface_hubpip install -U "huggingface_hub[cli]" export HF_ENDPOINT=https://hf-mirror.com

简单来说就是访问 huggingface 的国内镜像网站,而不去访问国外的 huggingface 网站。

执行完上面两步后,执行:

huggingface-cli download TheBloke/Llama-2-7b-Chat-GGUF llama-2-7b-chat.Q4_K_M.gguf --local-dir .

该命令会直接把模型文件下载到执行该命令的目录下,建议以上所有命令都在 llama.cpp 根目录下执行。

从上面的命令中我们可以看出,下载的是 llama-2-7b 模型,也就是有着 70 亿参数的那个模型。

需要说明一下,由于模型文件比较大,这一步下载时间会比较长,耐心等待即可,中途如果有问题可以多尝试几次。

3、开始聊天吧

下载完模型后,就可以直接开始聊天了。

在 llama.cpp 目录下执行:

./main -m llama-2-7b-chat.Q4_K_M.gguf -c 4096 --temp 0.7 --repeat_penalty 1.1 -i

就会进入聊天交互界面,在交互界面里,就开始你的畅聊体验吧,你可以问这个模型任意问题,由它来回答。

超简单,不用GPU,3步教你轻松在笔记本上部署聊天大模型 LLaMA,chatGPT,llama,人工智能,深度学习

比如,我问了一个问题:“Three birds in the tree, i killed one by a gun, how many birds left?”

模型竟然先反问了我一下,确认是不是这个问题,在我回答“yes"后,它才开始回答。

通过以上这 3 步就完成了大模型部署,是不是感觉挺简单的?

需要说明的是,上面的示例中我下载的是 llama-7b 模型,它还不支持中文。

如果你想要进行中文对话,可以去 hugging-face 网站上找一些支持中文的模型来下载,其余的步骤不变。

好啦,今天关于如何在 CPU 上部署大模型的介绍到这,如果体验成功的小伙伴记得回来点个赞哦。

延伸阅读:手把手教你免费升级 GPT-4。

文章原创,请勿随意转载,转载请联系作者授权,谢谢配合。文章来源地址https://www.toymoban.com/news/detail-807970.html

到了这里,关于超简单,不用GPU,3步教你轻松在笔记本上部署聊天大模型 LLaMA的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 笔记本怎么不用网线连接无线路由器(wifi无线网络)

    大家都知道PC台式机插上网线就可以上网,但是对于首次使用笔记本的同学来说,如何使用无线网络上网呢?笔记本可以连接网线,但更为方便的是连接wifi无线路由器上网,本文就给大家介绍一下在XP和Win7下如何用笔记本连接无线网络。 笔记本XP系统怎么连接wifi 1、首先,我们

    2024年02月07日
    浏览(53)
  • 如何使用手机拍出证件照?简单几步教你轻松完成

    怎么使用手机就能够拍出好看的证件照呢?在日常生活中我们对证件照的使用需求还是比较多的,例如在一些招聘网站投递简历,银行办理业务,学生证、驾驶证等制作都需要证件照片,有时我们的证件照丢失或者是使用完了,自己又不想去照相馆拍摄,可以使用手机自己拍

    2024年02月16日
    浏览(28)
  • 单个消费级GPU笔记本win电脑测试LLaMA模型

    1、LLaMa模型代码:       GitHub - facebookresearch/llama: Inference code for LLaMA models       不同模型对参数规模要求不同,有7B、13B、30B(33B)和65B四个数据规模。 Model MP 7B 1 13B 2 30B(33B) 4 65B 8 2、环境检查   (1)、检查CUDA环境是否已安装(没有的话先安装CUDA):  (2)、检查是否已

    2024年02月08日
    浏览(38)
  • 笔记本电脑连接不上wifi怎么办?3种方法轻松搞定!

    在现代社会中,无线网络已经成为人们日常生活和工作中必不可少的一部分。然而,有时候我们可能会遇到笔记本电脑无法连接到Wi-Fi网络的问题。这种情况可能会让人感到困扰,影响正常的工作和娱乐体验。那笔记本电脑连接不上wifi怎么办呢?本文将介绍3种解决笔记本电脑

    2024年02月04日
    浏览(43)
  • 超详细教程:如何在笔记本上run起大模型?没有GPU也可以!(Windows/Mac)

    好久没更新了,一是最近一直在研究生物医药大模型相关的内容,二是。相信不止是我,每一位工程师朋友都已经感受到大语言模型带给整个行业的颠覆性改变。最近身边就有不少的小伙伴入坑了大模型技术,而即使仍在观望的同学,也对大模型这一崭新的技术表达了深厚的

    2024年02月04日
    浏览(34)
  • Win11笔记本电脑RTX4080显卡安装Tensorflow-GPU2.6.0方法步骤

    Tensorflow是当前主流的深度学习框架,是深度学习方向从业者和研究生的生产力工具,我在本科参加学科竞赛期间曾经安装过tensorflow1.12版本和对应的keras2.2版本,相对来说,keras提供了较多调用tensorflow的API,这极大地减轻了工作量,而新版的tensorflow2.0及以上版本自带keras,无

    2024年02月14日
    浏览(51)
  • 笔记本Win10超简单hdmi线链接树莓派

    因笔记本win10自带远程桌面,所以不用再下载会话工具之类。 首先连好hdmi线再开启电源(顺序很重要!) 随后在自己的笔记本上,打开cmd 在命令 提示符中ping你树莓派的主机名,一般默认raspberrypi 之后看到它的ipv6地址 搜索远程桌面链接(因为是自带的,不用下载)  将刚刚

    2024年02月12日
    浏览(52)
  • 如何解决笔记本电脑键盘失灵的问题:3个简单而有效的解决方法

    当你使用笔记本电脑时,可能会遇到键盘失灵的情况,这是一件非常令人恼火的事情。然而,不要担心,下面将为你提供三个简单而有效的解决方法。 首先,检查连接和驱动程序。请确保键盘与笔记本电脑的连接正常,有时插头可能没有插紧或脱落。尝试重新插拔键盘连接线

    2024年02月13日
    浏览(36)
  • 6步教你轻松画出流程图

    推荐一款好用的思维导图软件:ProcessOn思维导图,只需简单6步即可完成流程图。 ProcessOn是一款强大的思维导图软件,它可以帮助用户轻松地绘制出各种类型的流程图。下面是使用ProcessOn绘制流程图的六个简单步骤: 第一步: 打开ProcessOn软件并创建一个新的画布 。在Process

    2024年02月05日
    浏览(34)
  • 三步教你轻松安装配置 Linux Anaconda 环境

    1.进入Anaconda官网获取下载链接: 2.远程拉取安装脚本 1.运行脚本 之后按照提示回答相应问题即可(有选项的都是填 yes,阅读协议使用空格跳过,有回车的按回车) 2.配置生效 配置文件 .condarc 在用户的家目录(windows: C:\\\\users\\\\username\\\\ ,linux: /home/username/ )。但对于 .cond

    2024年02月09日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包