一文带你UI界面玩转ChatGLM以及Llama的微调

这篇具有很好参考价值的文章主要介绍了一文带你UI界面玩转ChatGLM以及Llama的微调。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Lora微调的概念:

        lora是Low-Rank Adaptation的缩写,是微软的Hu等人于2021年挂在ArXiv上(后又发表在ICLR2022上)的一篇论文《LoRA: Low-Rank Adaptation of Large Language Models》中提出的,通俗来讲,是一种降低模型可训练参数,又尽量不损失模型表现大模型微调方法。为什么时隔两年,lora又突然火了一把呢?这一切都要感谢ChatGPT

        这里就简单介绍这么多,LORA微调系列(一):LORA和它的基本原理 - 知乎 (zhihu.com)这篇文章讲解的非常详细,有兴趣的同学可以去看一看。随着大模型的爆火,lora已经成为必不可少的工具之一了。下面就开始讲述如何在UI页面可视化的微调大模型。

alpaca_gpt4_data_zh.json,llama,自然语言处理,pytorch,语言模型,nlp

step 1 下载源码

        ChatGLM的微调

 git clone https://github.com/hiyouga/ChatGLM-Efficient-Tuning.git

        Llama的微调:

git clone https://github.com/hiyouga/LLaMA-Efficient-Tuning.git

step 2 准备数据集

        准备好数据集(json文件),放入./ChatGLM-Efficient-Tuning-main/data文件夹中

Step 3 查看数据集SHA-1哈希值

 sha1sum /path/to/your/file.txt

Step 4 添加数据集

        将SHA-1哈希值添加到dataset_info.json文件中,例如:

"alpaca_gpt4_zh": {
    "file_name": "alpaca_gpt4_data_zh.json",
    "file_sha1": "3eaa3bda364ccdd59925d7448a698256c31ef845"
  },

Step 5 运行程序

安装依赖:

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

 运行程序:

python ./ChatGLM-Efficient-Tuning-main/src/train_web.py

Step 6 修改参数&运行

        UI页面:

alpaca_gpt4_data_zh.json,llama,自然语言处理,pytorch,语言模型,nlp

Step 6.1 训练

        1.修改Model Path:本地模型的地址

        2.修改Fintuning method:微调方式(默认为lora)

        3.选择需要训练的数据集

        4.修改以下的超参数:

                Learning rate:学习率(e-3~e-5),Epochs,Batchsize,Save steps

                这里的Save steps是每多少步就保存一次Checkpoint文件。例如有3000个Total steps,Save steps为1000,那么就是每1000个step就保存一次Checkpoint文件,最后一共三个文件。

        5.开始训练: 点击start

Step 6.2 测试

        点击Evaluate,选择数据集,修改相关的参数,点start

Step 6.3 Chat

        点击Load model(可以实时的查看微调结果或者模型结果)

Step 6.4 导出模型

        输入导出模型的地址,以及模型最大文件的大小。

Llama的微调方式和ChatGLM的微调方式一样,这里就不多赘述了。

最后,希望大家都可以炼丹成功!!!文章来源地址https://www.toymoban.com/news/detail-777581.html

到了这里,关于一文带你UI界面玩转ChatGLM以及Llama的微调的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • [玩转AIGC]LLaMA2之如何微调模型

    首先我们从github上下载Llama 2的微调代码:GitHub - facebookresearch/llama-recipes: Examples and recipes for Llama 2 model 执行命令: 下载完成之后,安装对应环境,执行命令: 在这里我补充一下模型下载权限的申请 需先在Meta上申请权限(国家选中国不行,要选其他国家) https://ai.meta.com/re

    2024年02月03日
    浏览(47)
  • 安装LLaMA-Factory微调chatglm3,修改自我认知

    安装git clone https://github.com/hiyouga/LLaMA-Factory.git conda create -n llama_factory python=3.10 conda activate llama_factory cd LLaMA-Factory pip install -r requirements.txt 之后运行 单卡训练, CUDA_VISIBLE_DEVICES=0 python src/train_web.py,按如下配置 demo_tran.sh   export_model.sh   cli_demo.sh 注意合并模型的时候,最后复制

    2024年02月04日
    浏览(60)
  • LLaMA-Factory微调(sft)ChatGLM3-6B保姆教程

    下载LLaMA-Factory 下载ChatGLM3-6B 下载ChatGLM3 windows下载CUDA ToolKit 12.1 (本人是在windows进行训练的,显卡GTX 1660 Ti) CUDA安装完毕后,通过指令 nvidia-smi 查看 1、选择下载目录:E:llm-trainLLaMA-Factory,并打开 2、创建新的python环境,这里使用conda创建一个python空环境,选择python3.10 参考

    2024年04月13日
    浏览(67)
  • 【LangChain学习之旅】—(7) 调用模型:使用OpenAI API还是微调开源Llama2/ChatGLM?

    Reference:LangChain 实战课 之前的内容讲了提示工程的原理以及 LangChain 中的具体使用方式。今天,我们来着重讨论 Model I/O 中的第二个子模块,LLM。 让我们带着下面的问题来开始这一节课的学习。大语言模型,不止 ChatGPT 一种。调用 OpenAI 的 API,当然方便且高效,不过,如果我

    2024年02月01日
    浏览(66)
  • LLMs:LLaMA Efficient Tuning(一款可高效微调【全参数/LoRA/QLoRA】主流大模型【ChatGLM2/LLaMA2/Baichuan等】的高效工具【预训练+指令监督微调+

    LLMs:LLaMA Efficient Tuning(一款可高效微调【全参数/LoRA/QLoRA】主流大模型【ChatGLM-2/LLaMA-2/Baichuan等】的高效工具【预训练+指令监督微调+奖励模型训练+PPO 训练+DPO 训练】)的简介、安装、使用方法之详细攻略 目录 相关文章 LLMs之ChatGLM:ChatGLM Efficient Tuning(一款高效微调ChatGLM-6B/Ch

    2024年02月09日
    浏览(70)
  • 一文带你玩转ProtoBuf

    在网络通信和通用数据交换等应用场景中经常使用的技术是 JSON 或 XML,在微服务架构中通常使用另外一个数据交换的协议的工具ProtoBuf。 ProtoBuf也是我们做微服务开发,进行Go进阶实战中,必知必会的知道点。 今天就开始第一章内容:《一文带你玩转ProtoBuf》 你可能不知道

    2023年04月16日
    浏览(67)
  • 手把手带你实现ChatGLM2-6B的P-Tuning微调

    参考文献:chatglm2ptuning 注意问题1:AttributeError: ‘Seq2SeqTrainer’ object has no attribute \\\'is_deepspeed_enabl torch.distributed.elastic.multiprocessing.errors.ChildFailedError: 可能是版本太高,可以参考chatglm2的环境 1. ChatGLM2-6B的P-Tuning微调 ChatGLM2-6B :https://github.com/THUDM/ChatGLM2-6B 模型地址 :https://hug

    2024年02月17日
    浏览(58)
  • LLM-SFT,新微调数据集-MWP-Instruct(多步计算 + 一、二元方程),微调Bloom, ChatGLM, LlaMA(支持QLoRA, TensorBoardX)

    中文大模型微调(LLM-SFT), 支持模型(ChatGLM, LlaMA, Bloom), 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX), 支持(微调, 推理, 测评, 接口)等. https://github.com/yongzhuo/LLM-SFT 原始数据来自https://github.com/LYH-YF/MWPToolkit 处理后的微调数据(多步计算+一/二元解方程)-MWP: https://huggingface.co/datasets/Macropodus/

    2024年02月12日
    浏览(46)
  • 一文带你玩转C语言文件操作

    作者主页:  paper jie的博客_CSDN博客 本文作者: 大家好,我是paper jie,感谢你阅读本文,欢迎一建三连哦。 本文录入于 《系统解析C语言》专栏,本专栏是针对于大学生,编程小白精心打造的。笔者用重金(时间和精力)打造,将算法基础知识一网打尽,希望可以帮到读者们哦

    2024年02月17日
    浏览(62)
  • Llama 3 开源!手把手带你进行大模型推理,部署,微调和评估

    节前,我们组织了一场算法岗技术面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学,针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。 基于大模型实践和技术交流,我们

    2024年04月26日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包