LMFlow安装,训练个人专属ChatGPT,港科大开源LMFlow

这篇具有很好参考价值的文章主要介绍了LMFlow安装,训练个人专属ChatGPT,港科大开源LMFlow。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

基本安装
港大LMFlow地址

https://github.com/OptimalScale/LMFlow

个人gitlab地址

http://yaoisss.ddns.net:9003/yaoisss/LMFlow

相关下载个人NAS地址
个人NAS地址

https://yaoisss.ddns.net:52311/portal/apis/fileExplorer/share_link.cgi?link=Hm34QCg1DeZTn2m6N2NQdw

  1. ubuntu server
  2. 安装好后查看 驱动是否占用 安装依赖
sudo vim /etc/modprobe.d/blacklist-nouveau.conf

blacklist nouveau
options nouveau modeset=0

sudo update-initramfs -u

reboot

lspci | grep nouvea

apt install gcc g++ make
  1. 安装NVIDIA驱动
    nvidia驱动查找

https://www.nvidia.cn/download/find.aspx?lang=cn

  1. 安装CUDA Toolkit

CUDA11.7 https://developer.nvidia.cn/cuda-11-7-0-download-archive文章来源地址https://www.toymoban.com/news/detail-418797.html

报错后面加入   --override

安装完后
vim ~/.bashrc
export PATH="/usr/local/cuda-11.7/bin:$PATH"
export LD_LIBRARY_PATH="/usr/local/cuda-11.7/lib64:$LD_LIBRARY_PATH"

  1. 安装Anaconda
  2. 运行
git clone https://github.com/OptimalScale/LMFlow.git

conda create -n lmflow python=3.9 -y

conda activate lmflow

conda install mpi4py

pip install -e .  -i https://pypi.tuna.tsinghua.edu.cn/simple
  1. 出错修改 requirements.txt
numpy==1.24.2
datasets==2.10.1
peft @ git+http://yaoisss.ddns.net:9003/yaoisss/peft
torch==2.0.0
wandb==0.14.0
deepspeed==0.8.2
trl @ git+http://yaoisss.ddns.net:9003/yaoisss/trl.git#egg=trl-0.4.1
sentencepiece
transformers @ git+http://yaoisss.ddns.net:9003/yaoisss/transformers
flask
flask_cors
  1. 手动安装 deepspeed 0.8.3,试了一下不一定0.8.2出问题,需要的可以手动安装
pip install deepspeed-0.8.3.tar.gz
  1. 基本就好了
  2. 使用都在 ./script 目录下

到了这里,关于LMFlow安装,训练个人专属ChatGPT,港科大开源LMFlow的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 如何用Stable Diffusion模型生成个人专属创意名片?

    二维码 是一种用于存储和传输信息的方便而广泛使用的图像编码技术。它是由黑色方块和白色空白区域组成的二维图形,可以通过扫描设备(如智能手机)进行解码。二维码基于特定的编码标准和解码算法——其中包括错误检测和纠错编码,以确保在图像损坏或部分遮挡的情况

    2024年02月16日
    浏览(33)
  • LangChain + ChatGLM2-6B 搭建个人专属知识库

    之前教过大家利用 langchain + ChatGLM-6B 实现个人专属知识库,非常简单易上手。最近,智谱 AI 研发团队又推出了 ChatGLM 系列的新模型 ChatGLM2-6B,是开源中英双语对话模型 ChatGLM-6B 的第二代版本,性能更强悍。 树先生之所以现在才更新 ChatGLM2-6B 知识库教程,是想等模型本身再多

    2024年02月16日
    浏览(47)
  • 只需三步,本地打造自己的AI个人专属知识库

    本文会手把手教你如何部署本地大模型以及搭建个人知识库,使用到的工具和软件有 Ollama Open WebUI Docker AnythingLLM 本文主要分享三点 如何用Ollama在本地运行大模型 使用现代Web UI和本地大模型\\\"聊天\\\" 如何打造完全本地化的知识库:Local RAG 读完本文,你会学习到 如何使用最好用

    2024年04月27日
    浏览(34)
  • 【ChatGPT】ColossalChat:目前最接近 ChatGPT 原始技术方案的实用开源项目——以 LLaMA 为基础预训练模型,推出 ColossalChat

        www.colossalai.org GitHub - hpcaitech/ColossalAI: Making large AI models cheaper, faster and more accessible   目录

    2023年04月14日
    浏览(71)
  • 开源方案复现ChatGPT流程!1.62GB显存即可体验,单机训练提速7.73倍

    火爆全网的ChatGPT,仿佛开启了第四次工业革命,让微软、谷歌等全球科技巨头打得昏天黑地,引得各路玩家纷纷入局,抢占赛道。 然而由于OpenAI没有开源ChatGPT,如何有效复现ChatGPT已成为摆在大家面前的头号难题,急需可靠的开源共建方案。 Colossal-AI快速跟进, 首个开源低

    2023年04月15日
    浏览(32)
  • 基于Docker搭建NextCloud-打造个人专属或团队共享的私有同步网盘

    几年前还百家争锋的国内网盘市场,如今只剩下百度网盘一枝独秀,但是100kb/s限速让人寒心。虽然还有一些稳定的国外网盘,如 OneDrive、DropBox、Google Drive 等,但国内访问并不友好。 Nextcloud 是一个免费专业的私有云存储网盘「开源」项目,可以让你简单快速地在个人/公司电

    2024年02月04日
    浏览(41)
  • 基于LLaMA Factory,单卡3小时训练专属大模型 Agent

    大家好,今天给大家带来一篇 Agent 微调实战文章 Agent (智能体)是当今 LLM(大模型)应用的热门话题 [1],通过任务分解(task planning)、工具调用(tool using)和多智能体协作(multi-agent cooperation)等途径,LLM Agent 有望突破传统语言模型能力界限,体现出更强的智能水平。

    2024年01月25日
    浏览(44)
  • 打造专属个人模型-私有独立离线模型部署-阿里云GPU服务器配置

    阿里云有免费的机器学习 GPU 服务器,免费试用活动页https://free.aliyun.com 只要没有申请过 PAI-DSW 资源的新老用户皆可申请 5000CU 的免费额度,3个月内使用。 选择第一个进行立即试用 可以看到试用的界面 如果遇到下面的错误,当前账号没有权限开通PAI,请联系主账号。 您可以

    2024年02月11日
    浏览(34)
  • 泰裤辣!!!手摸手教学,如何训练一个你的专属AI歌姬~

    最近在做AIGC的项目,不过是与图片相关的,现在的模型效果可比前几年图片替换效果好多了。之前尝试过用 faceswap 工具来进行人脸替换的,具体可以参看下我之前的这篇文章:https://blog.csdn.net/sinat_26918145/article/details/79591717   现代的模型对于图生图的支持效果已经非常好了,

    2024年02月06日
    浏览(51)
  • 阿里首提前向训练框架:让大模型深度思考,可快速定制专属模型

    大语言模型(LLM)是当前自然语言处理领域最核心的技术,以 GPT-4 为代表的大语言模型展现出了类人的学习能力。其中,情境学习(In-context Learning)是大语言模型最神秘的能力之一。如下图所示,在这种情境学习的范式下,大模型无需更新任何参数,仅依赖几个示例样本(demonstrations)就可以学习新任务,执行新样本的预测。

    2024年02月11日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包