AIGC生成式代码——Code Llama 简介、部署、测试、应用、本地化

这篇具有很好参考价值的文章主要介绍了AIGC生成式代码——Code Llama 简介、部署、测试、应用、本地化。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

 

导读:

        本文介绍了CodeLlama的简介、本地化部署、测试和应用实战方案,帮助学习大语言模型的同学们更好地应用CodeLlama。我们详细讲解了如何将CodeLlama部署到实际应用场景中,并通过实例演示了如何使用CodeLlama进行代码生成和优化。最后,总结了CodeLlama的应用实战经验和注意事项。
(有图有真相):

AIGC生成式代码——Code Llama 简介、部署、测试、应用、本地化,探索AIGC部署应用常见大模型,AIGC,人工智能,python,llama,gpt

目录

一、CodeLlama简介

二、CodeLlama 性能分析

三、CodeLlama 功能简介

3.1 代码补全

3.2 代码填充

3.3 对话式指令

四、CodeLlama 部署

4.1基础环境搭建

4.1.1 git安装

4.1.2 conda安装

4.2 推理环境搭建

4.2.1 cuda环境配置、cudnn环境配置

4.3 核心—环境搭建

4.3.1 创建虚拟环境

4.3.2 torch安装

4.3.3 huggingface安装

4.3.4 大模型本地下载

4.3.5 执行脚本

五、效果展示

 文章来源地址https://www.toymoban.com/news/detail-745435.html

 

一、CodeLlama简介

AIGC生成式代码——Code Llama 简介、部署、测试、应用、本地化,探索AIGC部署应用常见大模型,AIGC,人工智能,python,llama,gpt

        2023年08月25日(北京时间),Meta发布了Code Llama,一个可以使用文本提示生成代码的大型语言模型(LLM)。Code Llama是最先进的公开可用的LLM代码任务,并有潜力使工作流程更快,为当前的开发人员和降低进入门槛的人正在学习代码。Code Llama有潜力作为一种生产力和教育工具来帮助程序员编写更健壮、文档更完善的软件。

        Code Llama在Llama 2的基础上增强了编码能力。它可以从代码和自然语言提示(例如,“给我写一个输出斐波那契数列的函数。”)中生成代码和关于代码的自然语言。它也可以用于代码完成和调试。它支持许多当今最流行的语言,包括Python、c++、Java、PHP、Typescript (Javascript)、c#和Bash。        

         Code Llama有三个尺寸的版本,参数量分别为7B、13B和34B,并支持多种编程语言。它稳定支持了最高10万个token的上下文生成。例如,7B模型适合在单个GPU上运行,而34B模型提供了更好的编码辅助和最佳结果,但速度较慢。对于低延迟任务,比如实时代码补全,较小的7B和13B模型速度更快。

  • Code Llama,代码生成的基础模型;
  • Code Llama-Python,单独针对于python的模型;
  • Code Llama-Instruct,根据人工指令微调的模型。

https://huggingface.co/spaces/codellama/codellama-13b-chatCode Llama7B 在线试用地址: https://huggingface.co/spaces/codellama/codellama-13b-chat   

二、CodeLlama 性能分析

        在HumanEval上评估根据docstrings生成代码的能力,MBPP根据文字描述生成代码。

code Llama 34b模型在HumanEval达到53.7%,MBPP达到56.2%,接近Chatgpt的水平。

AIGC生成式代码——Code Llama 简介、部署、测试、应用、本地化,探索AIGC部署应用常见大模型,AIGC,人工智能,python,llama,gpt

三、CodeLlama 功能简介

 

3.1 代码补全

我们可以使用 7B 和 13B 模型进行文本/代码补全或填充。下述代码演示了如何使用 pipeline 接口来进行文本补全。运行时,只需选择 GPU 即可在 Colab 的免费 GPU 上运行。

    

3.2 代码填充

这是代码模型才能完成的专门任务。该模型经过训练后,可以生成与给定上下文最匹配的代码 (包括注释)。这是代码助理的典型使用场景: 要求它们根据上下文填充当前光标处的代码。

3.3 对话式指令

如上所述,基础模型可用于补全和填充。Code Llama 还包含一个适用于对话场景的指令微调模型。

四、CodeLlama 部署

4.1基础环境搭建

4.1.1 git安装

打开git官网地址:Git进行下载,如下图界面

基本无脑下一步安装,下一步安装就好

AIGC生成式代码——Code Llama 简介、部署、测试、应用、本地化,探索AIGC部署应用常见大模型,AIGC,人工智能,python,llama,gpt

4.1.2 conda安装

conda安装较为基础,网上的教程也比较多,这个比较全大家可以看一下:

Anaconda详细安装教程!!_anaconda安装_kingdom_121的博客-CSDN博客手把手教你安装anaconda,全网最详细,小学生一看就会。_anaconda安装https://blog.csdn.net/kingdom_121/article/details/131521138

4.2 推理环境搭建

这俩个深度学习的基础环境,是我们做AI经常需要配置的,内容较多。我在这里推荐几个比较好的博客,自行进行安装配置。我电脑是RTX3060,使用cuda11.6,cuDNN版本:8.5.0

4.2.1 cuda环境配置、cudnn环境配置

网上教程很多,实在懒得写了这个写的还行 ,重点是根据自己硬件情况,选择合适的教程

深度学习之CUDA+CUDNN详细安装教程 - 知乎1 前言一点自己的想法了,可以跳过去,haha~ 在机器学习领域,为了让你的计算机学会某种技能,拥有我们的智慧,然后去做一些有趣的事情,比如去预测以后房子的价格,或者是在国家倡导垃圾分类的大环境下,让机器帮…https://zhuanlan.zhihu.com/p/416712347

4.3 核心—环境搭建

4.3.1 创建虚拟环境

conda create --name code_ll python=3.8

conda activate code_ll

4.3.2 torch安装

pytorch 安装地址如下:

pytPyTorchAn open source machine learning framework that accelerates the path from research prototyping to production deployment.https://pytorch.org/默认识别你系统环境,画重点,确定自己的cuda版本与python版本后装就可以了

如果默认找不到合适你的版本。点击,找到你的部分安装下载。Previous PyTorch Versions | PyTorchAn open source machine learning framework that accelerates the path from research prototyping to production deployment.https://pytorch.org/get-started/previous-versions/

AIGC生成式代码——Code Llama 简介、部署、测试、应用、本地化,探索AIGC部署应用常见大模型,AIGC,人工智能,python,llama,gpt

4.3.3 huggingface安装

 

transformers的简介

https://github.com/huggingface/transformers/blob/main/README_zh-hans.mdhttps://github.com/huggingface/transformers/blob/main/README_zh-hans.md

 

       transformers提供了数千个预先训练好的模型来执行不同模式的任务,如文本、视觉和音频。这些模型可应用于:
>> 文本:用于文本分类、信息提取、问题回答、摘要、翻译、文本生成等任务,支持100多种语言。
>> 图像:用于图像分类、对象检测和分割等任务。
>> 音频:用于语音识别和音频分类等任务。

       transformer模型还可以在几种组合模式上执行任务,例如表格问题回答、光学字符识别、从扫描文档中提取信息、视频分类和视觉问题回答。
       transformer提供了api,可以快速下载并在给定文本上使用这些预训练的模型,在您自己的数据集上对它们进行微调,然后在我们的模型中心上与社区共享。同时,每个定义架构的python模块都是完全独立的,可以进行修改以进行快速研究实验。
       transformer由三个最流行的深度学习库——Jax、PyTorch和TensorFlow——支持,并在它们之间无缝集成。在加载模型进行推理之前,先用一个模型训练它们是很简单的。您可以从模型中心直接在它们的页面上测试我们的大多数模型。我们还提供私有模型托管、版本控制和公共和私有模型的推理API。

安装方式地址:

https://huggingface.co/docs/transformers/installation#installing-from-sourcehttps://huggingface.co/docs/transformers/installation#installing-from-source

 Git 源码安装:

git clone https://github.com/huggingface/transformers.git
cd transformers
pip install -e .

pip 或 conda安装

conda install -c huggingface transformers
pip install transformers

4.3.4 大模型本地下载

因网络限制原因,如果我们直接执行下载,基本等不到下载成功。

我们需要把下面资源都本地化下载吗,并且放到固定目录下

下载太慢了,后续更新百度云下载地址与csdn下载地址:

AIGC生成式代码——Code Llama 简介、部署、测试、应用、本地化,探索AIGC部署应用常见大模型,AIGC,人工智能,python,llama,gpt

AIGC生成式代码——Code Llama 简介、部署、测试、应用、本地化,探索AIGC部署应用常见大模型,AIGC,人工智能,python,llama,gpt

4.3.5 执行脚本

import time

from transformers import AutoTokenizer, AutoModel
import transformers
import torch
modelname = r"F:\AI\nlp\codellama\CodeLlama-7b-hf"
tokenizer = AutoTokenizer.from_pretrained(modelname)

t1 = time.time()
pipeline = transformers.pipeline(
    "text-generation",
    model=modelname,
    torch_dtype=torch.float16,
    device_map="auto",
)

sequences = pipeline(
    '用python解决汉诺塔问题',
    do_sample=True,
    top_k=10,
    temperature=0.1,
    top_p=0.95,
    num_return_sequences=1,
    eos_token_id=tokenizer.eos_token_id,
    max_length=500,
)
for seq in sequences:
    print(f"Result: {seq['generated_text']}")
t2 = time.time()

print(
    f"Time cost: {t2-t1} s"
)

五、效果展示

RTX3060 等待时间 18分钟左右

T4 同一个问题   等待时间5分钟左右

AIGC生成式代码——Code Llama 简介、部署、测试、应用、本地化,探索AIGC部署应用常见大模型,AIGC,人工智能,python,llama,gpt

 

 

到了这里,关于AIGC生成式代码——Code Llama 简介、部署、测试、应用、本地化的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Code Llama 简介:编码未来的综合指南

    在不断发展的技术领域,Meta 推出的 Code Llama 标志着一次重大飞跃。这种最先进的大型语言模型 (LLM) 不仅仅是开发人员武器库中的另一个工具;它也是开发人员的工具之一。它改变了游戏规则。让我们深入了解 Code Llama 提供的功能、它与DemoGPT的合作,以及它对未来编码的潜力

    2024年02月09日
    浏览(42)
  • AIGC(生成式AI)试用 0 -- 如何测试此类应用

    0. 起因 RPA主导的机器人流程自动化风头正劲 AI由来已久 生成式AI正在改变着工作和生活的方式 生成式AI工具不断更新换代 思考的问题,生成式AI: - 能实现什么? - 不同工具间的区别? - 如何测试此类工具? 似乎想的有点多、有点大。何是结果?何时是结束? 不论深浅,

    2024年02月01日
    浏览(29)
  • LLMs之Code:Code Llama的简介、安装、使用方法之详细攻略

    LLMs之Code:Code Llama的简介(衍生模型如Phind-CodeLlama/WizardCoder)、安装、使用方法之详细攻略 导读 :2023年08月25日(北京时间),Meta发布了Code Llama,一个可以使用 文本提示生成代码 的大型语言模型(LLM)。Code Llama是最先进的公开可用的LLM代码任务,并有潜力 使工作流程更快 ,更有

    2024年02月10日
    浏览(221)
  • LLM 系列 | 21 : Code Llama实战(上篇) : 模型简介与评测

    小伙伴们好,我是《小窗幽记机器学习》的小编:卖热干面的小女孩。 个人CSDN首页:JasonLiu1919_面向对象的程序设计,深度学习,C++-CSDN博客 今天开始以2篇小作文介绍代码大语言模型Code Llama。上篇主要介绍Code Llama的基本情况并基于HuggingFace上部署的Demo快速体验下Code Llama的实战

    2024年02月07日
    浏览(35)
  • LLMs之Code:Code Llama的简介(衍生模型如Phind-CodeLlama/WizardCoder)、安装、使用方法之详细攻略

    LLMs之Code:Code Llama的简介(衍生模型如Phind-CodeLlama/WizardCoder)、安装、使用方法之详细攻略 导读 :2023年08月25日(北京时间),Meta发布了Code Llama,一个可以使用 文本提示生成代码 的大型语言模型(LLM)。Code Llama是最先进的公开可用的LLM代码任务,并有潜力 使工作流程更快 ,更有

    2024年02月08日
    浏览(42)
  • 【网安AIGC专题10.19】论文3代码生成:ChatGPT+自协作代码生成+角色扮演(分析员、程序员、测试员)+消融实验、用于MBPP+HumanEval数据集

    Yihong Dong∗, Xue Jiang∗, Zhi Jin†, Ge Li† (Peking University) arXiv May 2023 arXiv 2023.4.15 https://arxiv.org/pdf/2304.07590.pdf 一位不愿意透露姓名的朋友分享了Self-collaboration Code Generation via ChatGPT《基于ChatGPT的自协作代码生成》 这篇论文是chatgpt的黑盒api调用,因此没有关于模型的微调等操作,

    2024年02月03日
    浏览(59)
  • AIGC实战——生成模型简介

    生成式人工智能 ( Generative Artificial Intelligence , GAI ) 是一种人工智能方法,旨在通过学习训练数据的分布模型来生成新的、原创的数据。人工智能生成内容 ( Artificial Intelligence Generated Content , AIGC ) 是生成式人工智能的一个具体应用和实现方式,是指利用人工智能技术生成各种形

    2024年02月08日
    浏览(37)
  • AIGC - 生成模型简介

    生成式人工智能 ( Generative Artificial Intelligence , GAI ) 是一种人工智能方法,旨在通过学习训练数据的分布模型来生成新的、原创的数据。人工智能生成内容 ( Artificial Intelligence Generated Content , AIGC ) 是生成式人工智能的一个具体应用和实现方式,是指利用人工智能技术生成各种形

    2024年02月09日
    浏览(31)
  • LLM系列 | 22 : Code Llama实战(下篇):本地部署、量化及GPT-4对比

    引言 模型简介 依赖安装 模型inference 代码补全 4-bit版模型 代码填充 指令编码 Code Llama vs ChatGPT vs GPT4 小结 青山隐隐水迢迢,秋尽江南草未凋。 小伙伴们好,我是《小窗幽记机器学习》的小编:卖热干面的小女孩。紧接前文: 今天这篇小作文作为代码大语言模型Code Llama的下

    2024年02月07日
    浏览(34)
  • AIGC之GPT-4:GPT-4的简介(核心原理/意义/亮点/技术点/缺点/使用建议)、使用方法、案例应用(计算能力/代码能力/看图能力等)之详细攻略

    AIGC之GPT-4:GPT-4的简介(核心原理/意义/亮点/技术点/缺点/使用建议)、使用方法、案例应用(计算能力/代码能力/看图能力等)之详细攻略 解读 :在2022年11月横空出世的ChatGPT,打遍天下无敌手的时候,就知道会有这么一天,知道它会来,也知道它一定来,但是,还是没想到,来的

    2024年02月03日
    浏览(31)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包