RWKV系列1-wenda在linux上的运行

这篇具有很好参考价值的文章主要介绍了RWKV系列1-wenda在linux上的运行。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

参考

闻达用RWKV部署在Linux上 以Ubuntu为例:https://blog.csdn.net/cgxcgxcgxcgx/article/details/131604642

笔记

# 创建虚拟环境
    python 3.10
    conda create --name RWKV-wenda-python310 python=3.10 cudatoolkit=11.8 -y
    conda activate  RWKV-wenda-python310
    conda deactivate
    conda env remove --name RWKV-wenda-python38
    pip config set global.index-url https://mirror.baidu.com/pypi/simple
    
    cd serving

## 部署
### 方法1:虚拟环境
#### 步骤1
    apt-get install libxml2-dev libxslt-dev
#### 步骤2
    pip install -r ./requirements/requirements.txt
#### 步骤3 安装大模型
    cd models/rwkv-4-world
    wget https://huggingface.co/BlinkDL/rwkv-4-world/blob/main/RWKV-4-World-CHNtuned-7B-v1-OnlyForTest_72%25_trained-20230707-ctx4096.pth
    或者访问hg官网直接下载
#### 步骤4 安装向量模型
    https://huggingface.co/moka-ai/m3e-base/tree/main
#### 步骤5
    把[example.config.yml](https://github.com/l15y/wenda/blob/main/example.config.yml)重命名为`config.yml`
    模型参数路径更改:
        llm_type: glm6b
        path: "chatglm/chatglm2-6b-int4"
#### 步骤6 配置知识库
    创建txt文本文件夹(可以是一批文件)
    python ./plugins/gen_data_st.py
#### 步骤7 运行
    sh run_rwkv.sh
    或者 python wenda.py -t rwkv
#### 步骤8:浏览器打开服务
    http://0.0.0.0:17860

windows

RWKV系列1-wenda在linux上的运行,AIGC,类ChatGPT,linux,运维,服务器文章来源地址https://www.toymoban.com/news/detail-552706.html

到了这里,关于RWKV系列1-wenda在linux上的运行的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【大模型AIGC系列课程 2-3】动手为ChatGPT打造第二大脑

    one-hot 文本向量

    2024年02月10日
    浏览(40)
  • 计算机行业AIGC算力时代系列报告-ChatGPT芯片算力:研究框架

     简介 “AI算力时代已经来临,计算机行业正在经历着一场前所未有的变革!” 这是一个充满活力和兴奋的时代,人工智能(AI)已经成为了计算机行业中最为炙手可热的话题。随着技术的不断发展和进步,计算机的算力正在以惊人的速度提高,这将彻底改变我们的生活和工

    2023年04月25日
    浏览(30)
  • 【大模型AIGC系列课程 1-2】创建并部署自己的ChatGPT机器人

    获取 openai api api-key https://platform.openai.com/account/api-keys 利用 python requests 请求 openai 参考 openai 接口说明:https://platform.openai.com/docs/api-reference/chat/create

    2024年02月11日
    浏览(34)
  • 闻达用RWKV部署在Linux上 以Ubuntu为例 从入门到放弃

    闻达是一个LLM调用平台。目标为针对特定环境的高效内容生成,同时考虑个人和中小企业的计算资源局限性,以及知识安全和私密性问题。 针对特定环境的内容生成是LLM使用中的一项重要应用,实现这一目的,主要有全量微调、lora 微调、和本项目方法。但个人没有做全量微

    2024年02月17日
    浏览(29)
  • MLC-LLM 部署RWKV World系列模型实战(3B模型Mac M2解码可达26tokens/s)

    我的 ChatRWKV 学习笔记和使用指南 这篇文章是学习RWKV的第一步,然后学习了一下之后决定自己应该做一些什么。所以就在RWKV社区看到了这个将RWKV World系列模型通过MLC-LLM部署在各种硬件平台的需求,然后我就开始了解MLC-LLM的编译部署流程和RWKV World模型相比于MLC-LLM已经支持的

    2024年02月10日
    浏览(30)
  • 【ChatGPT辅助学Rust | 基础系列 | Hello, Rust】编写并运行第一个Rust程序

    在开始学习任何一门新的编程语言时,都会从编写一个简单的 “Hello, World!” 程序开始。在这一章节中,将会介绍如何在Rust中编写并运行第一个程序。 在终端中,使用Cargo(Rust的构建系统和包管理器)创建一个新的二进制项目。输入以下命令: 这将会在当前目录下创建一个

    2024年02月14日
    浏览(45)
  • c++如何接入chatgpt,并在Linux上命令行运行

    要接入 ChatGPT 模型并在 Linux 上命令行运行,您需要使用 OpenAI API 和相应的 C++ 客户端库。OpenAI API 提供了许多人工智能服务,包括自然语言处理和文本生成。而 C++ 客户端库可以帮助您轻松地连接到 API 并使用其功能。 以下是在 Linux 上使用 C++ 接入 ChatGPT 的步骤: 首先,您需

    2024年02月03日
    浏览(27)
  • Linux-初学者系列——篇幅4_系统运行相关命令

    上篇: Linux-初学者系列——篇幅3_操作界面获取帮助 一、关机重启注销命令 1、重启或者关机命令-shutdown 关闭和重启Linux系统的命令shutdown,系统在关闭重启之前会通知所有的登录用户,系统即将关闭重启时所有的新用户都不可以登录 语法格式: 常用参数: 序号 参数选项 功

    2024年02月05日
    浏览(41)
  • AIGC内容分享(十八):AIGC在天猫商品海报生成上的探索

    目录 项目背景 目标拆解 方案调研 ▐  方案一 SD + Outpainting​​​​​​​ ▐  方案二 SD Inpainting + Reference Only ▐  方案三 基于Reference的Diffusion算法 ▐  方案四 SD + Lora/Dreambooth 优化方向 ▐  探索一 VAE增强 ▐  探索二 图像超分 ▐  探索三  贴图 线上方案 测试效果 线

    2024年02月01日
    浏览(47)
  • AIGC在广告创意上的实践

    1.1 背景 随着抖音、小红书等新媒体的快速崛起,新媒体广告需求日益增大。而新媒体广告投放的图片和文案创意占用了运营工作者大量的精力和时间。文案、图片、视频广告创意制作难度大、效率低、成本高、周期长的问题日益凸显。如何快速的完成广告创意,是当前运营

    2024年04月22日
    浏览(19)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包