LLAMA模型部署与一些关键定义

这篇具有很好参考价值的文章主要介绍了LLAMA模型部署与一些关键定义。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

llama模型

LLAMA来源与Meta的开源大模型,截止到20230720,已经有第二个版本面世,第二个版本已经支持免费商业化,所以学习llama模型无论是自我提升,还是创业都有很大的基础保障。
一些个人的观点:笔者一度觉得Meta在元宇宙领域决策的失误,可能带来一系列的灾难后果,但当前从大模型来看,Meta可能又要站在了AI的头部。你不得不去佩服扎克伯格对于未来的精准把控。

基础知识讲解

这个有很长的路要走,当前先不讲了,后面开一个专题讲讲。

环境部署

首先在conda里面构建自己的工作环境

生成一个新的kernel环境

conda create -n py3 python=3 # 创建一个python3的环境,名为py3
source activate py3 # 激活py3环境 有可能报错,执行source activate 后再执行 conda init activate
conda install ipykernel # 安装ipykernel模块
python -m ipykernel install --user --name py3 --display-name "py3" # 进行配置
jupyter notebook # 启动jupyter notebook,然后在"新建"中就会有py3这个kernel了 

在bash中切换到这个环境

# 查看conda中有哪些环境
conda env list
# 如果说activate不存在,则执行source activate 后再执行 conda init activate,再执行如下命令
conda activate py3

Llama部署

克隆项目

git clone https://github.com/pengwei-iie/llama_bugs.git

安装相关包

cd llama_bugs
pip3 install -r requirements.txt

安装相关依赖包

pip3 install -e .

下载llama模型包

git lfs install
git clone https://huggingface.co/nyanko7/LLaMA-7B

命令行执行

torchrun --nproc_per_node 1 example.py --ckpt_dir ./LLaMA-7B --tokenizer_path ./LLaMA-7B/tokenizer.model

其中文章来源地址https://www.toymoban.com/news/detail-674292.html

  • ckpt_dir 是指模型文件存放的文件夹名称
  • tokenizer_path 是指分词器所存放的文件夹位置
  • nproc_per_node:nproc_per_node=4:表示每个node上节点有4个process,llama-7B每个节点上只有一个process

到了这里,关于LLAMA模型部署与一些关键定义的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Llama2通过llama.cpp模型量化 Windows&Linux本地部署

    LLaMA ,它是一组基础语言模型,参数范围从7B到65B。在数万亿的tokens上训练的模型,并表明可以专门使用公开可用的数据集来训练最先进的模型,而无需求助于专有和不可访问的数据集。特别是, LLaMA-13B在大多数基准测试中都优于GPT-3(175B) ,并且LLaMA65B与最好的型号Chinch

    2024年02月05日
    浏览(59)
  • LLama大模型初体验——Linux服务器部署LLama注意事项

    基本步骤可以参考这个链接:超详细Llama2部署教程——个人gpt体验攻略! llama开源仓库:https://github.com/facebookresearch/llama 这里提一些教程链接中没有提及的注意点。 1、Request access to the next version of Llama 在“Request access to the next version of Llama”网页中,Country选择China的话会显示

    2024年02月04日
    浏览(53)
  • LLama 2部署教程+私有模型分发

    近日,Meta发布了LLama的最新版本——LLama2,尽管其对中文的处理能力尚有待提升,但其整体表现无疑是令人瞩目的。在发布当天,我便迫切地将其下载下来进行试用,发现相比之前的版本,LLama2在多个方面都实现了显著的进步,特别是在编程能力上的提升更为显著。在此,我

    2024年02月14日
    浏览(31)
  • 大模型部署手记(8)LLaMa2+Windows+llama.cpp+英文文本补齐

    组织机构:Meta(Facebook) 代码仓:https://github.com/facebookresearch/llama 模型:llama-2-7b 下载:使用download.sh下载 硬件环境:暗影精灵7Plus Windows版本:Windows 11家庭中文版 Insider Preview 22H2 内存 32G GPU显卡:Nvidia GTX 3080 Laptop (16G) 下载llama.cpp的代码仓: git clone https://github.com/ggergan

    2024年02月03日
    浏览(56)
  • Llama 及 中文Alpaca模型部署测试

    环境: Xeon  E5-2680v4 16C 40G RAM WinServer 2019 Standard Edition Python 3.10 依赖库: accelerate==0.18.0 anyio==3.5.0 argon2-cffi==21.3.0 argon2-cffi-bindings==21.2.0 asttokens==2.0.5 attrs==22.1.0 Babel==2.11.0 backcall==0.2.0 beautifulsoup4==4.12.2 bleach==4.1.0 brotlipy==0.7.0 certifi==2022.12.7 cffi==1.15.1 chardet==5.1.0 charset-normalizer==3.1.

    2024年02月09日
    浏览(56)
  • 大语言模型部署:基于llama.cpp在Ubuntu 22.04及CUDA环境中部署Llama-2 7B

    llama.cpp是近期非常流行的一款专注于Llama/Llama-2部署的C/C++工具。本文利用llama.cpp来部署Llama 2 7B大语言模型,所采用的环境为Ubuntu 22.04及NVIDIA CUDA。文中假设Linux的用户目录(一般为/home/username)为当前目录。 NVIDIA官方已经提供在Ubuntu 22.04中安装CUDA的官方文档。本文稍有不同的

    2024年02月06日
    浏览(44)
  • llama.cpp一种在本地CPU上部署的量化模型(超低配推理llama)

    前不久,Meta前脚发布完开源大语言模型LLaMA, 随后就被网友“泄漏”,直接放了一个磁力链接下载链接。 然而那些手头没有顶级显卡的朋友们,就只能看看而已了 但是 Georgi Gerganov 开源了一个项目llama.cpp ggerganov/llama.cpp: Port of Facebook’s LLaMA model in C/C++ (github.com) 次项目的牛逼

    2023年04月23日
    浏览(47)
  • 大模型部署手记(11)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+llama.cpp+中文对话

    组织机构:Meta(Facebook) 代码仓:GitHub - facebookresearch/llama: Inference code for LLaMA models 模型:LIama-2-7b-hf、Chinese-LLaMA-Plus-2-7B   下载:使用huggingface.co和百度网盘下载 硬件环境:暗影精灵7Plus Windows版本:Windows 11家庭中文版 Insider Preview 22H2 内存 32G GPU显卡:Nvidia GTX 3080 Laptop (1

    2024年02月03日
    浏览(54)
  • 以Llama-2为例,在生成模型中使用自定义LogitsProcessor

    在上一篇文章 以Llama-2为例,在生成模型中使用自定义StoppingCriteria中,介绍了怎样在生成的过程中,使用 stopping criteria 来控制生成过程的结束,本文将继续这一话题,结合具体的场景,介绍如何实现自定义的 logits processor ,并以此来控制生成的过程。 场景延续上篇介绍stop

    2024年02月14日
    浏览(36)
  • 以Llama-2为例,在生成模型中使用自定义StoppingCriteria

    在之前的文章中,介绍了使用transformers模块创建的模型,其generate方法的详细原理和使用方法,文章链接: 以beam search为例,详解transformers中generate方法(上) 以beam search为例,详解transformers中generate方法(下) 其中提到了用户参与生成过程的两个关键组件, logits_processor 和

    2024年02月14日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包