用 7 行代码在本地运行 Llama 2!(苹果silicon-mac m1 m2)项目源码含模型

这篇具有很好参考价值的文章主要介绍了用 7 行代码在本地运行 Llama 2!(苹果silicon-mac m1 m2)项目源码含模型。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

用 7 行代码在本地运行 Llama 2!(苹果silicon-mac m1 m2)项目源码含模型,SwiftUI源码大全,NVIDIA GPU和大语言模型开发教程,llama,macos
总而言之:

xcode-select --install # Make sure git & clang are installed
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
curl -L https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGML/resolve/main/llama-2-7b-chat.ggmlv3.q4_K_M.bin --output ./models/llama-2-7b-chat.ggmlv3.q4_K_M.bin 
LLAMA_METAL=1 make
./main -m ./models/llama-2-7b-chat.ggmlv3.q4_K_M.bin -n 1024 -ngl 1 -p "Give me a list of things to do in NYC"

注意:7B 型号重量约为 4GB,请确保您的机器上有足够的空间。

这是在做什么?

这是使用 Georgi Gerganov 令人惊叹的llama.cpp项目来运行 Llama 2。它通过TheBloke的 Huggingface 存储库为 Llama 7B Chat 下载一组 4 位优化的权重,将其放入 llama.cpp 中的模型目录中,然后使用 Apple 的 Metal 优化构建 llama.cpp。

这允许您以最少的工作在本地运行 Llama 2。7B 权重应该适用于具有 8GB RAM 的机器(如果您有 16GB 则更好)。13B 或 70B 等较大型号将需要更多的 RAM。

请注意,Llama 2文章来源地址https://www.toymoban.com/news/detail-613229.html

到了这里,关于用 7 行代码在本地运行 Llama 2!(苹果silicon-mac m1 m2)项目源码含模型的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 苹果mac m1,m2芯片安装 pytorch和tensorflow的GPU版本

    1.安装 Xcode 2.创建环境 3.打开pytorch官网复制命令, 注意:在mac m上,device是’mps’ 而不是’cuda’, mac的MPS支持MacOS 12.3+  4.测试 1.安装 Xcode 2.创建环境 3. 安装conda install -c apple tensorflow-deps  4.Install base TensorFlow 5.  Install tensorflow-metal plug-in  6.验证 7.完成,附上我安装完pytorch和

    2024年02月13日
    浏览(47)
  • 怎么在M1苹果电脑上玩Steam中的游戏 苹果电脑怎么安装Windows mac电脑游戏 Steam有什么好玩的游戏 CrossOver For Mac

    Steam是一款目前全球较大的综合性数字游戏软件发行平台。玩家可以在该平台购买游戏、软件、下载、讨论、上传、分享。今天就要给大家介绍一下怎么在苹果M1芯片电脑上安装运行Steam。 第一步我们需要安装CrossOver For Mac这款类虚拟机软件,各位小伙伴们可以在CrossOver中文网

    2024年04月10日
    浏览(44)
  • [Mac软件]Adobe After Effects 2023 v23.5 中文苹果电脑版(支持M1)

    After Effects是动画图形和视觉效果的行业标准。由运动设计师、平面设计师和视频编辑用于创建复杂的动画图形和视觉上吸引人的视频。 创建动画图形 使用预设样式为文本和图形添加动画效果,或逐帧调整它们。编辑、添加深度、制作动画或转换为可编辑的路径,以获得更独

    2024年02月11日
    浏览(42)
  • 【ollama】(2):在linux搭建环境,编译ollama代码,测试qwen大模型,本地运行速度飞快,本质上是对llama.cpp 项目封装

    https://github.com/ollama/ollama/tree/main/docs https://www.bilibili.com/video/BV1oS421w7aM/ 【ollama】(2):在linux搭建环境,编译ollama代码,测试qwen大模型,本地运行速度飞快,本质上是对llama.cpp 项目封装 要是失败执行,子模块更新: 需要编译 llama.cpp 的代码, 然后经过漫长的编译,就而可以

    2024年04月08日
    浏览(54)
  • Mac 苹果电脑关闭代理sip万能方法(M1M2适用)针对csrutil disable失效情况

    1、关闭电脑(不要选择重新启动,直接关机) 2、长按开机键,不要松掉,出现声音也不要松,直到出现HD盘和选项设置后松开,点击选项,点击继续 3.进入用户界面,输入密码,等待跳转下一个界面 4.上排小字,选择实用工具,终端 5.在终端输入【csrutil disable】(回车),

    2024年04月14日
    浏览(70)
  • XZ_iOS 之 M1 M2 M3的M系列芯片的Mac苹果电脑安装cocoapods

    安装的前提,应用程序-终端-右键-显示简介-勾选 使用Rosetta打开,如下图,然后重启终端 安装的顺序如下:Homebrew-rvm-ruby-cocoapods 1、安装Homebrew 安装的时候报了以下错误,然后我打开了VPN,就很顺滑的安装了 fatal: unable to access \\\'https://github.com/Homebrew/brew/\\\': Failed to connect to gith

    2024年01月18日
    浏览(50)
  • Mac(M1/M2)通过wine运行windows程序

      双击文件解压缩 ,就得到了一个Wineskin Winery.app 再把这个app拖到应用程序文件夹(最后拖到个人应用程序文件夹)    然后打开这个应用(右键打开,会提示可能是恶意软件,点确定打开)    在这个界面点+号,再点下载和安装     点OK 然后可能下载一段时间,耐心等待

    2024年02月09日
    浏览(45)
  • mac苹果电脑m1 mbp 缺电自动关机后,日期时间无法同步;自动同步日期和时间错误,到一个固定的日期时间

    现为mac苹果电脑上,只要选取自动同步日期和时间,就会同步到一个很早之前的固定日期(现在是2023年1月,会同步到2021年的12月),很奇怪。 网上各种方法,下面的内容是唯一能起作用的。 在https://www.v2ex.com/t/856623的基础上进行修改完善,供大家参考。 解决办法:删除 /

    2024年02月03日
    浏览(102)
  • Mac(M1Pro)下运行ChatGLM2

          最近很多人都尝试在M1/M2芯片下跑chatglm/chatglm2,结果都不太理想,或者是说要32G内存才可以运行。本文使用cpu基于chatglm-cpp运行chatglm2的int4版本。开了多个网页及应用的情况下(包括chatglm2),总体内存占用9G左右。chatglm2可以流畅的运行了。虚拟环境为python 3.10,使用c

    2024年02月13日
    浏览(36)
  • mac M1 arm芯片 进行docker rocketMq 本地部署(亲测可用)

    由于mac arm芯片的问题,导致随便拉取镜像会出现AMD64的警告,如果不想出现则可以 git clone https://github.com/apache/rocketmq-docker.git 拉代码自己编译镜像 下面是根据别人已经上传的镜像进行的本地部署操作 下面两个镜像都是某位老哥打包的,测试无问题 注意: runserver.sh,runbr

    2024年02月12日
    浏览(34)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包