目录
第 1 步:下载模型
第 2 步:安装依赖
第 3 步:编译 LLaMA CPP
第 4 步:转换模型
Step5:运行模型
语言模型大战
随着人们对人工智能及其在日常生活中的应用越来越感兴趣,Meta 的 LLaMA、OpenAI 的 GPT-3 和 Microsoft 的 Kosmos-1 等众多示例模型正在加入大型语言模型 (LLM) 的行列。此类模型的唯一问题是您无法在本地运行这些模型。到现在为止。感谢Georgi Gerganov和他的llama.cpp项目,可以在没有专用 GPU 的情况下在单台计算机上运行 Meta 的 LLaMA。
在 M1 Mac 上本地运行 LLaMA 涉及多个步骤。我不确定其他平台或其他操作系统,因此在本文中我们只关注上述组合。
第 1 步:下载模型
存储库中打开了一个 PR,它描述了一种替代方式(文章来源:https://www.toymoban.com/news/detail-559389.html
https://github.com/facebookresearch/llama/pull/73
无论如何,在你下载了模型(或者更像模型,因为文件夹中有几种不同类型的模型)之后你应该有这样的东西:文章来源地址https://www.toymoban.com/news/detail-559389.html
❯ exa --tree
.
├── 7B
│ ├── checklist.chk
│ ├── consolidated.00.pth
│ └── params.json
├── 13B
│ ├── checklist.chk
│ ├── consolidated.00.pth
│ ├── consolidated.01.pth
│ └── params.json
├── 30B
│ ├── checklist.chk
│ ├── con
到了这里,关于Meta 的LLaMA是 GPT的竞争对手,如何在 M1 Mac 上使用 LLaMA的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!