驾辰龙跨Llama持Wasm,玩转Yi模型迎新春过大年(上)

这篇具有很好参考价值的文章主要介绍了驾辰龙跨Llama持Wasm,玩转Yi模型迎新春过大年(上)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

今年新年很特别,AI工具添光彩。今天就来感受下最新的AI神器天选组合“WasmEdge+Yi-34B”,只要短短三步,为这个甲辰龙年带来一份九紫离火运的科技感。

环境准备

这次用的算力是OpenBayes提供的英伟达RTX_4090*1、24GB显存、20核CPU、80GB内存、50 GB工作空间。可点击本链接https://openbayes.com/console/public/tutorials/v6ZVAzejUCM

进入工作空间后,点击页面上方的克隆,它将依据当前模板创建新的训练任务,并预装本次运行需要的各项文件:

1、Yi-34B-Chat-Q4_K_M GGUF 模型。

2、使用 LlamaEdge 运行大模型所需要的Wasm推理文件。

3、用于构建 chatbot 的 web UI。

注意:如果要使用web的chatbot,需要完成实名认证。

福利彩蛋:通过以下链接注册可获免费英伟达RTX 4090(官方售价1599美元,涨价60%还买不到)计算资源1h

注册 - OpenBayeshttps://openbayes.com/console/signup?r=wordsworth0126_GC2U大模型准备(重点)

本次使用的大模型是零一万物团队发布的 Yi-34B-Chat,该因优越的中英双语性能而受开发者广泛欢迎,获得全球开源评测“双料冠军”。

推理工具准备(重点)

本次推理使用LlamaEdge,它是一个基于Rust和WasmEdge的框架,可以实现本地开发与测试大模型应用,然后跨平台地运行应用。

WasmEdge是轻量级、安全、高性能、可扩展、兼容OCI的软件容器与运行环境。WasmEdge被广泛应用在 SaaS、云原生,service mesh、边缘计算、边缘云、微服务、流数据处理、LLM 推理等领域。

模型启动

1、SSH访问

打开电脑上的终端,通过 SSH访问OpenBayes工作空间。

ssh root@ssh.openbayes.com -p端口

驾辰龙跨Llama持Wasm,玩转Yi模型迎新春过大年(上),rust,人工智能,wasm,人工智能,rust

2、安装WasmEdge和ggml plugin

输入以下命令安装 CNCF WasmEdge runtime 以及 ggml plugin。

curl -sSf https://raw.githubusercontent.com/WasmEdge/WasmEdge/master/utils/install.sh | bash -s -- --plugin wasi_nn-ggml

驾辰龙跨Llama持Wasm,玩转Yi模型迎新春过大年(上),rust,人工智能,wasm,人工智能,rust

安装后要启动容器

source /root/.bashrc

3、与模型交互

本项目提供了两种与模型交互的方式。        

3.1 通过 CLI 与大模型交互

使用下面的命令行,启动大模型,然后可以通过 CLI 与 大模型交互。

wasmedge --dir .:. --nn-preload default:GGML:AUTO:/openbayes/input/input0/Yi-34B-Chat-Q4_K_M.gguf llama-chat.wasm -p chatml -r '<|im_end|>' -c 1024

这里要注意模型所在的路径(/openbayes/input/input0)。

驾辰龙跨Llama持Wasm,玩转Yi模型迎新春过大年(上),rust,人工智能,wasm,人工智能,rust

3.2 通过 chatbot UI 与 大模型交互

1、先打开一个新的终端窗口,将 OpenBayes的8080 端口映射到本地。这一步需要 SSH 访问的密码。

ssh -vNL 8080:localhost:8080 root@ssh.openbayes.com -p端口

2、在原终端窗口使用下面的命令行,创建 API server

wasmedge --dir .:. --nn-preload default:GGML:AUTO:/openbayes/input/input0/Yi-34B-Chat-Q4_K_M.gguf llama-api-server.wasm -p chatml -r '<|im_end|>' -c 1024

这里要注意模型所在的路径(/openbayes/input/input0)。

驾辰龙跨Llama持Wasm,玩转Yi模型迎新春过大年(上),rust,人工智能,wasm,人工智能,rust

3、API 服务器启动成功,出现 [INFO] Listening on http://0.0.0.0:8080 。在浏览器打开 http://localhost:8080/ ,这就可以搞搞大模型,调戏Yi-34B-Chat了。

驾辰龙跨Llama持Wasm,玩转Yi模型迎新春过大年(上),rust,人工智能,wasm,人工智能,rust文章来源地址https://www.toymoban.com/news/detail-828644.html

(未完待续~)

到了这里,关于驾辰龙跨Llama持Wasm,玩转Yi模型迎新春过大年(上)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Rust + wasm 使用

    WebAssembly(WASM)是一个简单的机器模型和可执行格式,具有广泛的规范。它被设计为便携、紧凑,代码执行能够达到接近本机原生指令的执行速度。 作为一种编程语言,WebAssembly 由两种格式组成,它们以不同的方式表示相同的结构: 后缀为 .wat 的文本格式(称为“WebAssembl

    2024年02月09日
    浏览(39)
  • rust wasm入门

    📕作者简介: 过去日记 ,致力于Java、GoLang,Rust等多种编程语言,热爱技术,喜欢游戏的博主。 📘相关专栏Rust初阶教程、go语言基础系列、spring教程等,大家有兴趣的可以看一看 📙Java并发编程系列,设计模式系列、go web开发框架 系列正在发展中,喜欢Java,GoLang,Rust,的

    2024年04月16日
    浏览(38)
  • [玩转AIGC]如何训练LLaMA2(模型训练、推理、代码讲解,并附可直接运行的kaggle连接)

    Llama 2,基于优化的 Transformer 架构,是Meta AI正式发布的最新一代开源大模型,一系列模型(7b、13b、70b)均开源可商用,效果直逼gpt3.5。 下面我们来介绍如何使用Llama 2来训练一个故事生成模型。 如果迫不及待想爽一把先,请直接跳到这里,可直接运行:llama2-c, 学习不就是

    2024年02月12日
    浏览(52)
  • 给 Web 前端工程师看的用 Rust 开发 wasm 组件实战

    wasm 全称 WebAssembly,是通过虚拟机的方式,可以在服务端、客户端如浏览器等环境执行的二进制程序。他有速度快、效率高、可移植的特点。 对我们 Web 前端工程最大的好处就是可以在浏览器端使用二进制程序处理一些计算量大的处理,使用他比 javascript 快的特点优化性能。

    2024年02月05日
    浏览(48)
  • YOLOv8 全家桶再迎新成员!新增Pose Estimation模型!

    关注公众号,发现CV技术之美 不知不觉间,YOLOv8已经发布三个月了,等待中的YOLOv8论文没来,昨天官方默默又加了新模型:姿态估计。 说好的\\\"目标检测\\\"工业界标杆,正向着“CV全家桶”阔步向前。 现在你可以用YOLOv8做 目标检测、实例分割、图像分类、目标跟踪、姿态估计

    2024年02月03日
    浏览(41)
  • Stability AI官宣Stable Code Instruct 3B模型,编程效率迎新突破|TodayAI

    刚刚出走CEO的Stability AI官宣了大模型Stable Code Instruct 3B,这个创新性大型语言模型吸引了编程和软件开发界的广泛关注。该模型基于Stable Code 3B开发,并通过自然语言提示,有效处理代码生成、数学解答以及其他与软件开发相关的查询任务。 据了解,Stable Code Instruct 3B在3B规模

    2024年04月13日
    浏览(42)
  • 首个ChatGPT机器人- Figure 01;李开复旗下零一万物推出Yi系列AI大模型API

    🦉 AI新闻 🚀 首个ChatGPT机器人- Figure 01 摘要 :Figure 01是一个由初创公司Figure联合OpenAI开发的人形机器人。它展示了与人类和环境互动的能力,可以说话、看东西,并且可以执行各种任务,如递食物、捡垃圾、收拾碗筷等。Figure 01还具备推理能力,可以自主识别、计划和执行

    2024年04月23日
    浏览(44)
  • Llama 2 来袭 - 在 Hugging Face 上玩转它

    🤗 宝子们可以戳 阅读原文 查看文中所有的外部链接哟! 今天,Meta 发布了 Llama 2,其包含了一系列最先进的开放大语言模型,我们很高兴能够将其全面集成入 Hugging Face,并全力支持其发布。Llama 2 的社区许可证相当宽松,且可商用。其代码、预训练模型和微调模型均于今天

    2024年02月15日
    浏览(44)
  • 如何用华为云ModelArts平台玩转Llama2

    本文分享自华为云社区《如何用华为云ModelArts平台玩转Llama2》,作者:码上开花_Lancer。 天哪~~ Llama2模型开源了拉!!   Llama2不仅开源了预训练模型,而且还开源了利用对话数据SFT后的Llama2-Chat模型,并对Llama2-Chat模型的微调进行了详细的介绍。 开源模型目前有7B、13B、70B三种

    2024年02月08日
    浏览(31)
  • 一文带你UI界面玩转ChatGLM以及Llama的微调

    Lora微调的概念:         lora是Low-Rank Adaptation的缩写,是微软的Hu等人于2021年挂在ArXiv上(后又发表在ICLR2022上)的一篇论文《LoRA: Low-Rank Adaptation of Large Language Models》中提出的,通俗来讲,是一种 降低模型可训练参数 ,又 尽量不损失模型表现 的 大模型微调 方法。为什

    2024年02月03日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包