【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用

这篇具有很好参考价值的文章主要介绍了【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

  • Alpaca-Lora Huggingface项目
    Tloen/Alpaca-Lora GitHub项目
  • 如何简单使用Colab

安装环境

  • 首先按照需要安装相应依赖
!pip install sentencepiece
%cd /content/drive/MyDrive/Repo/alpaca-lora-main
!pip install -r requirements.txt
  • 修改 -> 笔记本设置 中修改硬件加速器为 GPU,否则后续运行到一半就寄了…
  • 稍微修改下代码
    上方设置 share=True,由于跑完后会出现一个本地连接进行测试,而在colab运行的本地连接在本机上是打不开的,需要设置开启公共链接。
    下方为测试代码,查看在代码中调用接口是否成功。
    【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用

运行generate代码

  • 由于我不需要进行训练,直接拉下来默认训练后的模型即可,即只用调用 generate.py
    需要设置相应模型参数,base_model 是必须参数。
%cd /content/drive/MyDrive/Repo/alpaca-lora-main
!python generate.py \
    --load_8bit \
    --base_model 'decapoda-research/llama-7b-hf' \
    --lora_weights 'tloen/alpaca-lora-7b'
  • 运行时可以查看资源消耗是否正常
    【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用
  • 运行完成后会掉出URL,点击打开。
    【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用
  • 进行询问测试,回答还可以。(不大支持中文QA)
    【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用
  • 但是可以看到跑完了之后甚至没有跑那行 print("now2"),所以我选择注释掉启动启动器。
    【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用
  • 再次运行,发现会运行上述代码,虽然有丢丢慢,但是还行。
    【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用

文章来源地址https://www.toymoban.com/news/detail-412165.html

到了这里,关于【深度学习,NLP,LM】Alpaca-Lora ,Colab上部署与调用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • LLaMA的解读与其微调:Alpaca-LoRA/Vicuna/BELLE/中文LLaMA/姜子牙/LLaMA 2

    近期,除了研究ChatGPT背后的各种技术细节 不断看论文(至少100篇,100篇目录见此:ChatGPT相关技术必读论文100篇),还开始研究一系列开源模型(包括各自对应的模型架构、训练方法、训练数据、本地私有化部署、硬件配置要求、微调等细节)  本文一开始是作为此文《ChatGPT技术

    2024年02月17日
    浏览(35)
  • 类ChatGPT模型LLaMA的解读与其微调:Alpaca-LoRA/Vicuna/BELLE/中文LLaMA/姜子牙

    近期,除了研究ChatGPT背后的各种技术细节 不断看论文(至少100篇,100篇目录见此:ChatGPT相关技术必读论文100篇),还开始研究一系列开源模型(包括各自对应的模型架构、训练方法、训练数据、本地私有化部署、硬件配置要求、微调等细节)  本文一开始是作为此文《ChatGPT技术

    2024年02月16日
    浏览(41)
  • 足够惊艳,使用Alpaca-Lora基于LLaMA(7B)二十分钟完成微调,效果比肩斯坦福羊驼

    之前尝试了 从0到1复现斯坦福羊驼(Stanford Alpaca 7B) ,Stanford Alpaca 是在 LLaMA 整个模型上微调,即对预训练模型中的所有参数都进行微调(full fine-tuning)。但该方法对于硬件成本要求仍然偏高且训练低效。 因此, Alpaca-Lora 则是利用 Lora 技术,在冻结原模型 LLaMA 参数的情况下

    2024年02月03日
    浏览(36)
  • 【机器学习 | 深度学习】Colab是什么?以及如何使用它?

    Colaboratory(简称为Colab)是由Google开发的一种基于云端的交互式笔记本环境。它提供了免费的计算资源(包括CPU、GPU和TPU),可让用户在浏览器中编写和执行代码,而无需进行任何配置和安装。 Colab的目标是使机器学习和数据科学的工作更加便捷、灵活和可共享。 下面是Col

    2024年02月09日
    浏览(32)
  • 40 深度学习(四):卷积神经网络|深度可分离卷积|colab和kaggle的基础使用

    卷积神经网络的基本结构 1: (卷积层+(可选)池化层) * N+全连接层 * M(N=1,M=0) 卷积层的输入和输出都是矩阵,全连接层的输入和输出都是向量,在最后一层的卷积上,把它做一个展平,这样就可以和全连接层进行运算了,为什么卷积要放到前面,因为展平丧失了维度信息,因

    2024年02月08日
    浏览(31)
  • [NLP]深入理解 Megatron-LM

    NVIDIA Megatron-LM 是一个基于 PyTorch 的分布式训练框架,用来训练基于Transformer的大型语言模型。Megatron-LM 综合应用了数据并行(Data Parallelism),张量并行(Tensor Parallelism)和流水线并行(Pipeline Parallelism)来复现 GPT-3. 在自然语言处理(NLP)领域,大型模型能够提供更精准和强

    2024年02月10日
    浏览(65)
  • 【NLP】Llama & Alpaca大模型

      🔎大家好,我是Sonhhxg_柒,希望你看完之后,能对你有所帮助,不足请指正!共同学习交流🔎 📝个人主页-Sonhhxg_柒的博客_CSDN博客 📃 🎁欢迎各位→点赞👍 + 收藏⭐️ + 留言📝​ 📣系列专栏 - 机器学习【ML】 自然语言处理【NLP】  深度学习【DL】 ​​  🖍foreword

    2024年02月09日
    浏览(33)
  • 大模型微调踩坑记录 - 基于Alpaca-LLaMa+Lora

    为了使用开放权重的LLM(大语言模型),基于自己的训练集,微调模型,会涉及到如下一些技术要点: 配置运行环境 下载、加载基础模型 收集语料、微调训练 检验训练效果 在实施过程中,遇到不少困难,因此写下这篇文档,做为记录。 (1) 问题描述 在huggingface的模型库中,大

    2024年02月09日
    浏览(33)
  • [大模型] LLaMA系列大模型调研与整理-llama/alpaca/lora(部分)

    :大模型,LLaMA,Alpaca,Lora,Belle,模型训练,模型微调,指令微调 最近尝试在领域数据进行生成式大模型的再训练和微调,在调研和实验中整理了一些项目论文的基本信息,后续会持续完善和补充。 项目地址 : https://github.com/facebookresearch/llama LLaMa语料数据如下,对

    2024年02月08日
    浏览(34)
  • 【NLP,Huggingface,Colab】使用 Trainer 训练模型,并保存模型参数

    Colab 的使用 Huggingface 官网和一些基础API 首先,建议 保存代码到 VSCode ,这样双击关键类, F12 可以进入查看具体接口参数及其含义。 然后,建议 代码在 Colab 运行 ,第一个是有默认 GPU 资源,第二个是否则会产生各种 ConnectionError, OSError 等错误… 重点可以看注释。自行摸索了

    2024年02月13日
    浏览(28)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包