【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用

这篇具有很好参考价值的文章主要介绍了【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

  • Alpaca-Lora Huggingface项目
    Tloen/Alpaca-Lora GitHub项目
  • 如何简单使用Colab

安装环境

  • 首先按照需要安装相应依赖
!pip install sentencepiece
%cd /content/drive/MyDrive/Repo/alpaca-lora-main
!pip install -r requirements.txt
  • 修改 -> 笔记本设置 中修改硬件加速器为 GPU,否则后续运行到一半就寄了…
  • 稍微修改下代码
    上方设置 share=True,由于跑完后会出现一个本地连接进行测试,而在colab运行的本地连接在本机上是打不开的,需要设置开启公共链接。
    下方为测试代码,查看在代码中调用接口是否成功。
    【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用

运行generate代码

  • 由于我不需要进行训练,直接拉下来默认训练后的模型即可,即只用调用 generate.py
    需要设置相应模型参数,base_model 是必须参数。
%cd /content/drive/MyDrive/Repo/alpaca-lora-main
!python generate.py \
    --load_8bit \
    --base_model 'decapoda-research/llama-7b-hf' \
    --lora_weights 'tloen/alpaca-lora-7b'
  • 运行时可以查看资源消耗是否正常
    【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用
  • 运行完成后会掉出URL,点击打开。
    【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用
  • 进行询问测试,回答还可以。(不大支持中文QA)
    【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用
  • 但是可以看到跑完了之后甚至没有跑那行 print("now2"),所以我选择注释掉启动启动器。
    【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用
  • 再次运行,发现会运行上述代码,虽然有丢丢慢,但是还行。
    【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用

文章来源地址https://www.toymoban.com/news/detail-412165.html

到了这里,关于【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • LLaMA的解读与其微调:Alpaca-LoRA/Vicuna/BELLE/中文LLaMA/姜子牙/LLaMA 2

    LLaMA的解读与其微调:Alpaca-LoRA/Vicuna/BELLE/中文LLaMA/姜子牙/LLaMA 2

    近期,除了研究ChatGPT背后的各种技术细节 不断看论文(至少100篇,100篇目录见此:ChatGPT相关技术必读论文100篇),还开始研究一系列开源模型(包括各自对应的模型架构、训练方法、训练数据、本地私有化部署、硬件配置要求、微调等细节)  本文一开始是作为此文《ChatGPT技术

    2024年02月17日
    浏览(12)
  • 类ChatGPT模型LLaMA的解读与其微调:Alpaca-LoRA/Vicuna/BELLE/中文LLaMA/姜子牙

    类ChatGPT模型LLaMA的解读与其微调:Alpaca-LoRA/Vicuna/BELLE/中文LLaMA/姜子牙

    近期,除了研究ChatGPT背后的各种技术细节 不断看论文(至少100篇,100篇目录见此:ChatGPT相关技术必读论文100篇),还开始研究一系列开源模型(包括各自对应的模型架构、训练方法、训练数据、本地私有化部署、硬件配置要求、微调等细节)  本文一开始是作为此文《ChatGPT技术

    2024年02月16日
    浏览(13)
  • 足够惊艳,使用Alpaca-Lora基于LLaMA(7B)二十分钟完成微调,效果比肩斯坦福羊驼

    足够惊艳,使用Alpaca-Lora基于LLaMA(7B)二十分钟完成微调,效果比肩斯坦福羊驼

    之前尝试了 从0到1复现斯坦福羊驼(Stanford Alpaca 7B) ,Stanford Alpaca 是在 LLaMA 整个模型上微调,即对预训练模型中的所有参数都进行微调(full fine-tuning)。但该方法对于硬件成本要求仍然偏高且训练低效。 因此, Alpaca-Lora 则是利用 Lora 技术,在冻结原模型 LLaMA 参数的情况下

    2024年02月03日
    浏览(8)
  • 【机器学习 | 深度学习】Colab是什么?以及如何使用它?

    【机器学习 | 深度学习】Colab是什么?以及如何使用它?

    Colaboratory(简称为Colab)是由Google开发的一种基于云端的交互式笔记本环境。它提供了免费的计算资源(包括CPU、GPU和TPU),可让用户在浏览器中编写和执行代码,而无需进行任何配置和安装。 Colab的目标是使机器学习和数据科学的工作更加便捷、灵活和可共享。 下面是Col

    2024年02月09日
    浏览(13)
  • 40 深度学习(四):卷积神经网络|深度可分离卷积|colab和kaggle的基础使用

    40 深度学习(四):卷积神经网络|深度可分离卷积|colab和kaggle的基础使用

    卷积神经网络的基本结构 1: (卷积层+(可选)池化层) * N+全连接层 * M(N=1,M=0) 卷积层的输入和输出都是矩阵,全连接层的输入和输出都是向量,在最后一层的卷积上,把它做一个展平,这样就可以和全连接层进行运算了,为什么卷积要放到前面,因为展平丧失了维度信息,因

    2024年02月08日
    浏览(10)
  • [NLP]深入理解 Megatron-LM

    [NLP]深入理解 Megatron-LM

    NVIDIA Megatron-LM 是一个基于 PyTorch 的分布式训练框架,用来训练基于Transformer的大型语言模型。Megatron-LM 综合应用了数据并行(Data Parallelism),张量并行(Tensor Parallelism)和流水线并行(Pipeline Parallelism)来复现 GPT-3. 在自然语言处理(NLP)领域,大型模型能够提供更精准和强

    2024年02月10日
    浏览(6)
  • 【NLP】Llama & Alpaca大模型

    【NLP】Llama & Alpaca大模型

      🔎大家好,我是Sonhhxg_柒,希望你看完之后,能对你有所帮助,不足请指正!共同学习交流🔎 📝个人主页-Sonhhxg_柒的博客_CSDN博客 📃 🎁欢迎各位→点赞👍 + 收藏⭐️ + 留言📝​ 📣系列专栏 - 机器学习【ML】 自然语言处理【NLP】  深度学习【DL】 ​​  🖍foreword

    2024年02月09日
    浏览(14)
  • 大模型微调踩坑记录 - 基于Alpaca-LLaMa+Lora

    大模型微调踩坑记录 - 基于Alpaca-LLaMa+Lora

    为了使用开放权重的LLM(大语言模型),基于自己的训练集,微调模型,会涉及到如下一些技术要点: 配置运行环境 下载、加载基础模型 收集语料、微调训练 检验训练效果 在实施过程中,遇到不少困难,因此写下这篇文档,做为记录。 (1) 问题描述 在huggingface的模型库中,大

    2024年02月09日
    浏览(11)
  • [大模型] LLaMA系列大模型调研与整理-llama/alpaca/lora(部分)

    [大模型] LLaMA系列大模型调研与整理-llama/alpaca/lora(部分)

    :大模型,LLaMA,Alpaca,Lora,Belle,模型训练,模型微调,指令微调 最近尝试在领域数据进行生成式大模型的再训练和微调,在调研和实验中整理了一些项目论文的基本信息,后续会持续完善和补充。 项目地址 : https://github.com/facebookresearch/llama LLaMa语料数据如下,对

    2024年02月08日
    浏览(7)
  • 【NLP,Huggingface,Colab】使用 Trainer 训练模型,并保存模型参数

    【NLP,Huggingface,Colab】使用 Trainer 训练模型,并保存模型参数

    Colab 的使用 Huggingface 官网和一些基础API 首先,建议 保存代码到 VSCode ,这样双击关键类, F12 可以进入查看具体接口参数及其含义。 然后,建议 代码在 Colab 运行 ,第一个是有默认 GPU 资源,第二个是否则会产生各种 ConnectionError, OSError 等错误… 重点可以看注释。自行摸索了

    2024年02月13日
    浏览(10)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包