Chinese-LLaMA-Alpaca本地搭建(四)

这篇具有很好参考价值的文章主要介绍了Chinese-LLaMA-Alpaca本地搭建(四)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、简单介绍

中文羊驼模型只是一些LoRA权重模型文件,与原版LLaMA模型合并后就可以生成一个完整模型使用了,在这过程中可以不断训练LoRA权重模型文件,无限训练后达到专业领域的效果,理论上就能投入使用了,但注意禁止商用的问题。

1.1 原版LLaMA模型介绍

  1. Facebook官方发布的LLaMA模型禁止商用,并且官方没有正式开源模型权重。
  2. 模型规格:7B、13B、33B(30B就是33B,实际是32.5B)、65B。
  3. GitHub源码地址,可以通过其下载。

1.2 LoRA权重模型

LoRA模型的全称为Learnable Re-Weighting,即可学习的重加权模型。它主要是通过对神经网络中各层之间的权重进行学习,来提高模型的性能。具体来说,LORA模型通过学习到前一层和后一层之间的相关性,来自动调整当前层的权重,从而提高模型的性能。

LoRA权重模型会有点麻烦,详细见模型训练篇,目前有能人训练出了中文的LoRA权重模型了,就是中文羊驼。

1.3 完整版权重模型

原版LLaMA模型 + LoRA权重模型 = 完整版权重模型,需要进行手动模型合并与转换。

2、模型搭建

2.1 直接到huggingface下载转换后的LLaMA hf模型

git方式下载,7B、13B、33B、65B。
本文使用7b规格试验,以下是下载后的文件清单。
Chinese-LLaMA-Alpaca本地搭建(四),深度学习,llama

2.2 下载原版LLaMA模型,并将原版LLaMA模型转换为HF格式(可跳过,2.1直接用就行)

2.2.1 源码地址

llama GitHub源码地址

2.2.2 源码下载类

Chinese-LLaMA-Alpaca本地搭建(四),深度学习,llama

2.2.3 将原版LLaMA模型转换为HuggingFace格式

使用transformers提供的脚本convert_llama_weights_to_hf.py
1、下载transformers源码,装好虚拟环境(python3.10),torch包可能无法下载成功,用国内镜像源安装就好啦,其他的包类似
pip install torch -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install transformers -i https://pypi.tuna.tsinghua.edu.cn/simple
Chinese-LLaMA-Alpaca本地搭建(四),深度学习,llama
2、将文件所在目录调整好

--input_dir中存放原版LLaMA的tokenizer.model
${input_dir}/${model_size}下存放其余文件
--output_dir中将存放转换好的HF版权重

3、执行如下代码:

cd .\src\transformers\models\llama\

python convert_llama_weights_to_hf.py --input_dir E:\BaiduNetdiskDownload\Chinese-LLaMA-Alpaca\original\llama-7b-hf --model_size 7B  --output_dir E:\BaiduNetdiskDownload\Chinese-LLaMA-Alpaca\original\llama-7b-hf\output_dir

生成后的文件类似2.1的效果。

2.3 下载并合并LoRA权重,生成全量模型权重

中文羊驼GitHub
1)LoRA下载:见中文羊驼推荐下载模型的LoRA下载[3]。
2)合并脚本代码见scripts/merge_llama_with_chinese_lora_low_mem.py
3)安装好虚拟环境插件

pip install torch==1.13.1 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install transformers==4.28.1 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install sentencepiece==0.1.97 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install git+https://github.com/huggingface/peft.git@13e53fc  -i https://pypi.tuna.tsinghua.edu.cn/simple

peft插件可能网络不顺畅,可以先下载源代码,在使用命令安装:
   pip install D:\01.project\LLM\peft-13e53fc7ee5d89d59b16523051006dddf0fb7a49 -i https://pypi.tuna.tsinghua.edu.cn/simple

4)单LoRA权重合并

python scripts/merge_llama_with_chinese_lora.py 
--base_model F:\Chinese-LLaMA-Alpaca\original\llama-7b-hf 
--lora_model F:\Chinese-LLaMA-Alpaca\loras\chinese_llama_plus_lora_7b 
--output_type pth  
--output_dir F:\Chinese-LLaMA-Alpaca\complete\Chinese-LLaMA-7B-pth

python scripts/merge_llama_with_chinese_lora.py 
--base_model F:\Chinese-LLaMA-Alpaca\original\llama-7b-hf 
--lora_model F:\Chinese-LLaMA-Alpaca\loras\chinese_alpaca_plus_lora_7b 
--output_type pth  
--output_dir F:\Chinese-LLaMA-Alpaca\complete\Chinese-Alpaca-7B-pth

多LoRA权重合并文章来源地址https://www.toymoban.com/news/detail-633827.html

python scripts/merge_llama_with_chinese_lora.py 
--base_model F:\Chinese-LLaMA-Alpaca\original\llama-7b-hf 
--lora_model F:\Chinese-LLaMA-Alpaca\loras\chinese_llama_plus_lora_7b,F:\Chinese-LLaMA-Alpaca\loras\chinese_alpaca_plus_lora_7b 
--output_type pth  
--output_dir F:\Chinese-LLaMA-Alpaca\complete\Chinese-LLaMA-Alpaca-7B-pth

更多内容,请期待

到了这里,关于Chinese-LLaMA-Alpaca本地搭建(四)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【LLM】Windows本地CPU部署民间版中文羊驼模型(Chinese-LLaMA-Alpaca)踩坑记录

    目录 前言 准备工作 Git  Python3.9  Cmake 下载模型  合并模型 部署模型  想必有小伙伴也想跟我一样体验下部署大语言模型, 但碍于经济实力, 不过民间上出现了大量的量化模型, 我们平民也能体验体验啦~, 该模型可以在笔记本电脑上部署, 确保你电脑至少有16G运行内存 开原地址

    2024年02月04日
    浏览(73)
  • Chinese-LLaMA-Alpaca代码实战

    项目地址: https://github.com/ymcui/Chinese-LLaMA-Alpaca 由于LLaMA 原生仅支持 Latin 或 Cyrillic 语系,对于中文支持不是特别理想,并不像ChatGLM 和 Bloom 原生支持中文。但由于LLaMA模型在英文上的效果本身还是不错的,因此使用 模型词表扩充(中文词表) ,配合二次预训练及微调的方式

    2024年02月09日
    浏览(46)
  • 中文版LLaMA:Chinese-LLaMA-Alpaca

    GitHub:GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMAAlpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA Alpaca LLMs) 以ChatGPT、GPT-4等为代表的大语言模型(Large Language Model, LLM)掀起了新一轮自然语言处理领域的研究浪潮,展现出了类通用人工智能(AGI)的能力,受到业界广泛关注。然而,

    2024年02月12日
    浏览(55)
  • 中文大模型 Chinese-LLaMA-Alpaca-2 开源且可以商用

    “  Meta 开源 LLAMA2 后,国内出现了不少以此为基座模型训练的中文模型,这次我们来看看其中一个不错的中文模型:Chinese-LLaMA-Alpaca-2 。 ” 01 — 目前在开源大模型中,比较有名的是Meta的LLAMA模型系列和清华的ChatGLM模型。 特别是在中文领域上,ChatGLM模型经过中文问答和对

    2024年02月06日
    浏览(47)
  • LLMs:Chinese-LLaMA-Alpaca-2的简介、安装、案例实战应用之详细攻略

    LLMs:Chinese-LLaMA-Alpaca-2(基于deepspeed框架)的简介、安装、案例实战应用之详细攻略 导读 :2023年07月31日,哈工大讯飞联合实验室,发布Chinese-LLaMA-Alpaca-2,本项目基于Meta发布的可商用大模型 Llama-2 开发,是中文LLaMAAlpaca大模型的第二期项目,开源了中文LLaMA-2 基座模型 和Alpaca

    2024年02月08日
    浏览(59)
  • LLM-LLaMA中文衍生模型:Chinese-LLaMA-Alpaca【扩充词表、Lora部分参数预训练、微调】

    GitHub:GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMAAlpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA Alpaca LLMs) 中文LLaMA模型 中文LLaMA模型在原版的基础上扩充了中文词表,使用了中文通用纯文本数据进行二次预训练。 模型名称 训练数据 重构模型[1] 大小[2] LoRA下载[3] Chinese-LLaMA-7B 通用

    2024年02月15日
    浏览(78)
  • LLMs:Chinese-LLaMA-Alpaca-2(基于deepspeed框架)的简介、安装、案例实战应用之详细攻略

    LLMs:Chinese-LLaMA-Alpaca-2(基于deepspeed框架)的简介、安装、案例实战应用之详细攻略 导读 :2023年07月31日,哈工大讯飞联合实验室,发布Chinese-LLaMA-Alpaca-2,本项目基于Meta发布的可商用大模型 Llama-2 开发,是中文LLaMAAlpaca大模型的第二期项目,开源了中文LLaMA-2 基座模型 和Alpaca

    2024年02月08日
    浏览(56)
  • 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署Chinese-LLaMA-Alpaca-2

    下载源码 创建venv 安装依赖 已安装依赖列表 下载编译llama.cpp 编译成功 创建软链接 下载模型 由于只有6G显存,只下载基础的对话模型chinese-alpaca-2-1.3b 浏览器打开地址:hfl/chinese-alpaca-2-1.3b at main 放到~/Downloads/ai 目录下 启动chat报错 继续折腾: 这两个文件需要手动在浏览器内

    2024年01月18日
    浏览(91)
  • LLMs:Chinese-LLaMA-Alpaca的简介(扩充中文词表+增量预训练+指令精调)、安装、案例实战应用之详细攻略

    LLMs:Chinese-LLaMA-Alpaca的简介(扩充中文词表+增量预训练+指令精调)、安装、案例实战应用之详细攻略 导读 :2023年4月17日,哈工大讯飞联合实验室,本项目开源了中文LLaMA模型和指令精调的Alpaca大模型,以进一步促进大模型在中文NLP社区的开放研究。 Chinese-LLaMA 在原版LLaMA的基

    2024年01月20日
    浏览(54)
  • 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署Chinese-LLaMA-Alpaca-2 【2】启用GPU支持

    接上篇 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署Chinese-LLaMA-Alpaca-2-CSDN博客 前面的实验,chat.sh确认是运行在CPU模式下,未启用GPU支持 重新编译llama.cpp 故障:nvcc fatal   : Value \\\'native\\\' is not defined for option \\\'gpu-architecture\\\' 查看gpu-arch 修改Makefile,调整MK_NVCCFLAGS差异如下  yeqia

    2024年01月23日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包