Code Llama系列教程之 微调 CodeLlama 34B 以进行聊天(打造自己的代码AI)

这篇具有很好参考价值的文章主要介绍了Code Llama系列教程之 微调 CodeLlama 34B 以进行聊天(打造自己的代码AI)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

虽然 Meta 的 Llama2 在 AI 领域引起了广泛关注,但 34b 模型却缺席了相当长一段时间。对于许多人来说,这个 34b 模型是运行本地 LLM 的理想选择,因为它与使用 4 位量化的单个 4090 GPU 兼容。我一直在热切地等待 Meta 发布这个特定的模型。幸运的是,Meta 最近推出了 CodeLlama,这是一个针对编码相关任务训练的专门模型。然而,根据他们的论文,由于原始 Llama2 模型是在 2t 个令牌上训练的,因此它在原始 Llama2 的 34b 个令牌上额外训练了 500b 个令牌。Codellama 仅在训练期间添加了额外的 500b 令牌,并且从概念上讲将针对各种下游领域进行进一步微调。

在这篇博文中,我将引导您完成微调 CodeLlama 34B 模型的完整过程。培训结束后,我将指导您如何量化模型并使用 Huggingface 的文本生成推理框架进行部署。

QLora 代码Llama 34B

合并适配器

完成微调过程后,最好将适配器合并回基本模型。由于涉及额外的参数和计算,直接在适配器上运行推理可能会导致性能降低。

您可以使用以下脚本在CP​​U上合并适配器以避免OOM: https: //gist.github.com/mzbac/16b0f4289059d18b8ed34345ae1ab168

python merge_peft_adapters.py - device cpu - base_model_name_or_path codellama/CodeLlama-34b-hf - peft_model_path ./results_new/final_checkpoint - output_dir ./merged_models/

量化

在当地的法学硕士社区文章来源地址https://www.toymoban.com/news/detail-724961.html

到了这里,关于Code Llama系列教程之 微调 CodeLlama 34B 以进行聊天(打造自己的代码AI)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Llama 2:开放基础和微调聊天模型

    大型语言模型(llm)作为高能力的人工智能助手,在复杂的推理任务中表现出色,这些任务需要广泛领域的专家知识,包括编程和创意写作等专业领域。它们可以通过直观的聊天界面与人类进行交互,这在公众中得到了迅速而广泛的采用。 法学硕士的能力是显著的考虑到训练的

    2024年02月14日
    浏览(36)
  • 微调 Code Llama 完整指南

    今天这篇文章将向大家详细介绍如何对 Code Llama 进行微调,让它变成适合 SQL 开发的有利工具。对于编程开发任务,经过适当微调后的 Code Llama 的性能通常都会比普通的 Llama 强很多,特别是当我们针对具体任务进行优化时: 使用 b-mc2/sql-create-context 这个文本查询及其对应的SQ

    2024年02月04日
    浏览(41)
  • llama-factory SFT 系列教程 (四),lora sft 微调后,使用vllm加速推理

    llama-factory SFT系列教程 (一),大模型 API 部署与使用 llama-factory SFT系列教程 (二),大模型在自定义数据集 lora 训练与部署 llama-factory SFT系列教程 (三),chatglm3-6B 命名实体识别实战 llama-factory SFT 系列教程 (四),lora sft 微调后,使用vllm加速推理 llama-factory 提供了 vllm API 部署,但笔

    2024年04月27日
    浏览(37)
  • 羊驼2:开放的基础和微调聊天模型--Llama 2论文阅读

    论文地址:https://arxiv.org/pdf/2307.09288.pdfd 代码地址:GitHub - facebookresearch/llama-recipes: Examples and recipes for Llama 2 model 问答 这篇文档中使用了3.3M GPU小时的计算,使用的硬件类型是A100-80GB,可以扩展到2000个GPU,但这些计算的功耗估计并不包括互连或非GPU服务器功耗,也不包括数据

    2024年01月16日
    浏览(42)
  • Llama2 论文中译版——开放式基础和微调聊天模型

    因为最近一直在使用 LLM 工具,所以在学习 Llama 2:开放式基础和微调聊天模型 这篇论文的期间,顺手将内容翻译了过来。 整片译文是由 ChatGPT3.5、DeepL、Copilot X和笔者一起完成的,特此表示感谢。 在这项工作中,我们开发并发布了 Llama 2,这是一组经过预训练和微调的大型语

    2024年02月15日
    浏览(40)
  • ChatDoctor:一个基于微调LLaMA模型用于医学领域的医学聊天机器人

    ChatDoctor:一个基于微调LLaMA模型用于医学领域的医学聊天机器人 https://www.yunxiangli.top/ChatDoctor/ Demo.自动聊天医生与疾病数据库演示。 HealthCareMagic-100k.100k患者和医生之间的真实的对话HealthCareMagic.com。 icliniq-10k.患者和医生之间的真实的对话来自icliniq.com icliniq-10 k。 link.ChatDoct

    2024年02月13日
    浏览(49)
  • “私密离线聊天新体验!llama-gpt聊天机器人:极速、安全、搭载Llama 2,尽享Code Llama支持!”

    一个自托管的、离线的、类似chatgpt的聊天机器人。由美洲驼提供动力。100%私密,没有数据离开您的设备。 https://github.com/getumbrel/llama-gpt/assets/10330103/5d1a76b8-ed03-4a51-90bd-12ebfaf1e6cd “私密离线聊天新体验!llama-gpt聊天机器人 Currently, LlamaGPT supports the following models. Support for runnin

    2024年02月04日
    浏览(42)
  • 【llm 微调code-llama 训练自己的数据集 一个小案例】

    根据情况改就行了,jsonl格式,三个字段:context, answer, question 主要参考 https://zhuanlan.zhihu.com/p/660933421

    2024年01月21日
    浏览(65)
  • 写代码神器!48个主流代码生成LLM大模型盘点,包含专用、微调等4大类Code llama

    学姐带你玩AI  2023-12-06 18:20 代码大模型 具有强大的表达能力和复杂性,可以处理各种自然语言任务,包括文本分类、问答、对话等。这些模型通常基于深度学习架构,如Transformer,并使用预训练目标(如语言建模)进行训练。 在对大量代码数据的学习和训练过程中, 代码大

    2024年04月11日
    浏览(53)
  • 使用QLoRA对Llama 2进行微调的详细笔记

    使用QLoRA对Llama 2进行微调是我们常用的一个方法,但是在微调时会遇到各种各样的问题,所以在本文中,将尝试以详细注释的方式给出一些常见问题的答案。这些问题是特定于代码的,大多数注释都是针对所涉及的开源库以及所使用的方法和类的问题。 对于大模型,第一件事

    2024年02月08日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包