LLama Factory 安装部署实操记录(二)

这篇具有很好参考价值的文章主要介绍了LLama Factory 安装部署实操记录(二)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. 项目地址

GitHub - hiyouga/LLaMA-Factory: Easy-to-use LLM fine-tuning framework (LLaMA, BLOOM, Mistral, Baichuan, Qwen, ChatGLM)Easy-to-use LLM fine-tuning framework (LLaMA, BLOOM, Mistral, Baichuan, Qwen, ChatGLM) - GitHub - hiyouga/LLaMA-Factory: Easy-to-use LLM fine-tuning framework (LLaMA, BLOOM, Mistral, Baichuan, Qwen, ChatGLM)https://github.com/hiyouga/LLaMA-Factory/2. 下载,最好是选择tag版本的源码,这里采用直接下载,clone网貌似有点问题。

wget https://github.com/hiyouga/LLaMA-Factory/archive/refs/tags/v0.4.0.tar.gz

解压:

tar -xzvf v0.4.0.tar.gz

3. 创建环境

conda create -n llama_0_4 python=3.10
cd LLaMA-Factory-0.4.0/
pip install -r requirements.txt

4.启动API,这里可以使用别的接口

CUDA_VISIBLE_DEVICES=1 python src/api_demo.py \
    --model_name_or_path $qwen14b_chat_path \
    --template default \
    --finetuning_type lora \
    --checkpoint_dir path_modle

修改API端口:src/api_demo.py中修改,参数如下所示

LLama Factory 实操记录(一)-CSDN博客

5.测试API接口的请求记录body,http://192.168.0.133:8000/v1/chat/completions

查看doc文档 :http://192.168.0.133:8000/docs

{
  "model": "string",
  "messages": [
    {
      "role": "user",
      "content":  "问题"
    }
  ],
  "do_sample": true,
  "temperature": 0,
  "top_p": 0.5,
  "n":1,
  "max_tokens": 2048,
  "stream": false
}

6. 错误1

422 Unprocessable Entity

422 表现为请求格式错误,但出现了 语义 错误,以至于服务端无法响应。可以理解为服务端能理解请求资源类型 content-type,否则应该返回 415(Unsupported Media Type),也能理解请求实体内容,否则应该返回 400(Bad Request)
 

大概率是请求发的内容 ,要选择 json,并注意字段

7.错误2

API端口,报错RuntimeError: probability tensor contains either inf , nan or element < 0

推理的时候报 RuntimeError: 概率张量包含inf,nan或 element < 0

(1)一种说法是,原因是双卡推理,当前的确也出现该问题,A100上正常,双4090有问题。

Baichuan2合并lora后推理报错:RuntimeError: probability tensor contains either `inf`, `nan` or element < 0 · Issue #1618 · hiyouga/LLaMA-Factory · GitHubReminder I have read the README and searched the existing issues. Reproduction 最新发现 使用 api-for-llm来部署,同样会报一样的错误。看来不是这个框架的原因。 模型基座是:Baichuan2-13B-Chat, 进行lora微调并合并,使用cli_demo.py 加载合并后的模型时,推理报错。报错信息如下。 使用的是最新的代码。 一个奇怪的现象, 同样的导出合并后的模型,在A800...https://github.com/hiyouga/LLaMA-Factory/issues/1618

(2)另一种说法是,要更新代码,当前测试的是0.4.0版本的源码,未更新,大家有兴趣可以尝试一下,放在评论区

使用`web_demo.py`,部署网页端示例,报错`RuntimeError: probability tensor contains either `inf`, `nan` or element < 0` · Issue #1642 · hiyouga/LLaMA-Factory · GitHubReminder I have read the README and searched the existing issues. Reproduction python src/web_demo.py \ --model_name_or_path ~/model/ChatGLM2-6B\ --template chatglm2 Expected behavior 希望正常运行,可以成功在多卡中成功运行 System Info transformers version:...https://github.com/hiyouga/LLaMA-Factory/issues/1642文章来源地址https://www.toymoban.com/news/detail-765462.html

到了这里,关于LLama Factory 安装部署实操记录(二)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【本地大模型部署与微调】ChatGLM3-6b、m3e、one-api、Fastgpt、LLaMA-Factory

    本文档详细介绍了使用ChatGLM3-6b大模型、m3e向量模型、one-api接口管理以及Fastgpt的知识库,成功的在本地搭建了一个大模型。此外,还利用LLaMA-Factory进行了大模型的微调。 1.ChatGLM3-6b 2.m3e 3.One-API 4.Fastgpt 5.LLaMA-Factory 1.1创建腾讯云服务器 注意: ChatGLM3-6b的大模型40多个G,购买腾讯

    2024年03月22日
    浏览(45)
  • 源2.0大模型适配LLaMA-Factory框架!

    近日, 源2.0开源大模型与LLaMA-Factory框架完成全面适配 ,用户通过LLaMA-Factory,即可快捷、高效地对不同参数规模的源2.0基础模型进行全量微调及高效微调,轻松实现专属大模型。 LLM(大语言模型)微调,是指在大模型的基础上,针对特定任务或领域进行调整和优化,以提升

    2024年01月21日
    浏览(44)
  • 基于LLaMA Factory,单卡3小时训练专属大模型 Agent

    大家好,今天给大家带来一篇 Agent 微调实战文章 Agent (智能体)是当今 LLM(大模型)应用的热门话题 [1],通过任务分解(task planning)、工具调用(tool using)和多智能体协作(multi-agent cooperation)等途径,LLM Agent 有望突破传统语言模型能力界限,体现出更强的智能水平。

    2024年01月25日
    浏览(54)
  • llama.cpp LLM模型 windows cpu安装部署;运行LLaMA-7B模型测试

    参考: https://www.listera.top/ji-xu-zhe-teng-xia-chinese-llama-alpaca/ https://blog.csdn.net/qq_38238956/article/details/130113599 cmake windows安装参考:https://blog.csdn.net/weixin_42357472/article/details/131314105 1、下载: 2、编译 3、测试运行 参考: https://zhuanlan.zhihu.com/p/638427280 模型下载: https://huggingface.co/nya

    2024年02月15日
    浏览(54)
  • llama.cpp LLM模型 windows cpu安装部署;运行LLaMA2模型测试

    参考: https://www.listera.top/ji-xu-zhe-teng-xia-chinese-llama-alpaca/ https://blog.csdn.net/qq_38238956/article/details/130113599 cmake windows安装参考:https://blog.csdn.net/weixin_42357472/article/details/131314105 1、下载: 2、编译 3、测试运行 参考: https://zhuanlan.zhihu.com/p/638427280 模型下载: https://huggingface.co/nya

    2024年02月16日
    浏览(45)
  • 小白也能微调大模型:LLaMA-Factory使用心得

    大模型火了之后,相信不少人都在尝试将预训练大模型应用到自己的场景上,希望得到一个垂类专家,而不是通用大模型。 目前的思路,一是RAG(retrieval augmented generation),在模型的输入prompt中加入尽可能多的“目标领域”的相关知识,引导模型在生成时尽量靠拢目标领域,运

    2024年04月13日
    浏览(52)
  • Python - 深度学习系列30 - 使用LLaMA-Factory微调模型

    最实用的一种利用大语言模型的方式是进行微调。预训练模型与我们的使用场景一定会存在一些差异,而我们又不可能重头训练。 微调的原理并不复杂,载入模型,灌新的数据,然后运行再训练,保留checkpoints。但是不同项目的代码真的不太一样,每一个都要单独去看的话比

    2024年04月12日
    浏览(49)
  • 快速上手!LLaMa-Factory最新微调实践,轻松实现专属大模型

    Yuan2.0(https://huggingface.co/IEITYuan)是浪潮信息发布的新一代基础语言大模型,该模型拥有优异的数学、代码能力。自发布以来,Yuan2.0已经受到了业界广泛的关注。当前Yuan2.0已经开源参数量分别是102B、51B和2B的3个基础模型,以供研发人员做进一步的开发。 LLM(大语言模型)微

    2024年01月20日
    浏览(54)
  • 自定义数据集使用llama_factory微调模型并导入ollama

    本文所有操作均在linux系统下完成 参考github的安装命令 参考github,使用以下命令启动LLaMA Factory web页面:(web ui界面只支持单卡运行,如需多卡微调请参考github相关部分) 此外可以选择模型下载源,这里推荐国内用户使用魔搭社区下载渠道。  成功启动后会进入web操作界面:

    2024年04月26日
    浏览(50)
  • llama.cpp LLM模型 windows cpu安装部署

    参考: https://www.listera.top/ji-xu-zhe-teng-xia-chinese-llama-alpaca/ https://blog.csdn.net/qq_38238956/article/details/130113599 cmake windows安装参考:https://blog.csdn.net/weixin_42357472/article/details/131314105 1、下载: 2、编译 3、测试运行 参考: https://zhuanlan.zhihu.com/p/638427280 模型下载: https://huggingface.co/nya

    2024年02月11日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包