【书生·浦语】大模型实战营——第五次课程作业

这篇具有很好参考价值的文章主要介绍了【书生·浦语】大模型实战营——第五次课程作业。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

基础作业——使用LMDeploy 以本地对话、网页Gradio、API服务中的一种方式部署InternLM-Chat-7B模型,生成300字的小故事

环境准备

        除了安装所需依赖之后,重要的是进行模型转化(转换成TurboMind格式),这里需要注意转化命令的具体用法:

# lmdeploy convert 模型类型/模型名 模型权重文件地址
lmdeploy convert internlm-chat-7b /path/to/internlm-chat-7b

        运行上述命令后,会在当前目录新建workspace文件夹,里面存放着转化后的权重文件。以开始以为运行命令参数是 lmdelpoy convert  大模型原始路径  转化后的模型路径(实际不是)。

TurboMind推理 + 命令行本地对话

        运行命令:

# Turbomind + Bash Local Chat
lmdeploy chat turbomind ./workspace

【书生·浦语】大模型实战营——第五次课程作业,语言模型,python

TurboMind推理 + API服务

        运行命令:

# ApiServer+Turbomind   api_server => AsyncEngine => TurboMind
lmdeploy serve api_server ./workspace \
	--server_name 0.0.0.0 \
	--server_port 23333 \
	--instance_num 64 \
	--tp 1


# 新开一个终端
lmdeploy serve api_client http://localhost:23333

注意:需要做一下ssh转发。另外直接点击终端中出现的网址没法访问,最后我是在浏览器栏中输入的http://localhost:23333

【书生·浦语】大模型实战营——第五次课程作业,语言模型,python

【书生·浦语】大模型实战营——第五次课程作业,语言模型,python

TurboMind 推理 + 网页Demo演示

【书生·浦语】大模型实战营——第五次课程作业,语言模型,python

注意: 同样需要做ssh转发,另外输入localhost:6060打开网址,不然会出现页面显示不合理的问题。文章来源地址https://www.toymoban.com/news/detail-793597.html

到了这里,关于【书生·浦语】大模型实战营——第五次课程作业的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 第二节课 书生·浦语大模型趣味 Demo笔记及作业

    书生·浦语大模型InternLM-Chat-7B 智能对话 Demo:https://blog.csdn.net/m0_49289284/article/details/135412067 书生·浦语大模型Lagent 智能体工具调用 Demo:https://blog.csdn.net/m0_49289284/article/details/135426100 使用 InternLM-Chat-7B 模型生成 300 字的小故事 使用 huggingface_hub python 包,下载 InternLM-20B 的 conf

    2024年01月19日
    浏览(39)
  • 书生·浦语大模型实战营:Ch1-书生·浦语大模型全链路开源体系

    视频链接:(1)书生·浦语大模型全链路开源体系_哔哩哔哩_bilibili 以语言模型和大语言模型为的检索记录呈指数级上升; 以ChatGPT为代表的大语言模型技术成果引起了广泛的使用兴趣。 深度学习与强化学习模型在许多特定领域建立了许多富有成效的专用模型,用于解决特

    2024年02月01日
    浏览(51)
  • 《书生·浦语大模型全链路开源开放体系》笔记第五课 LMDeploy 的量化和部署

    首先我们可以使用  vgpu-smi  查看显卡资源使用情况。 可以点击终端(TERMINAL)窗口右侧的「+」号创建新的终端窗口。大家可以新开一个窗口,执行下面的命令实时观察 GPU 资源的使用情况。 结果如下图所示,该窗口会实时检测 GPU 卡的使用情况。 接下来我们切换到刚刚的终

    2024年01月21日
    浏览(50)
  • 书生.浦语大模型实战一

    从专用模型到通用大模型 书生.万卷1.0 文本 图像-文本 视频数据 OpenDataLab开放平台 图像:ImageNet tokens语料:WikiQA 音频 视频:MovieNet 3D模型 增量续训 使用场景:让基座模型学习到一些新知识,如某个垂类领域知识 训练数据:文章、书籍、代码等 有监督微调 使用场景:让模型

    2024年01月16日
    浏览(48)
  • 书生·浦语大模型实战营-学习笔记4

    常见的两种微调策略:增量预训练、指令跟随 指令跟随微调 数据是一问一答的形式 对话模板构建 每个开源模型使用的对话模板都不相同 指令微调原理: 由于只有答案部分是我们期望模型来进行回答的内容,所以我们只对答案部分进行损失的计算 增量预训练微调 数据都是

    2024年01月22日
    浏览(42)
  • 书生·浦语大模型实战营-第四课笔记

    期待已久的微调课 增量预训练和指令跟随是两种微调模式,即两种微调策略。   1)增量预训练 投喂新的领域知识即可,例如书籍、文章、代码 2)指令跟随 采用高质量对话和问答数据进行训练 两者是微调的方法,即算法。 xtuner是一种微调框架。

    2024年02月21日
    浏览(46)
  • 【书生·浦语大模型实战】“PDF阅读小助手”学习笔记

    《新版本Lmdeploy量化手册与评测》 项目主页:【tcexeexe / pdf阅读小助手】 在InternStudio平台中选择 A100 (1/4) 的配置,镜像选择 Cuda11.7-conda ,可以选择已有的开发机 langchain ; Note: /home/tcexeexe/data/model/sentence-transformer :此路径来自于make_knowledge_repository.py 以上脚本会生成数据库文

    2024年01月24日
    浏览(44)
  • 书生·浦语大模型实战营第四次课堂笔记

    哈哈到这才想起来写笔记 倒回去看发现要求将不要葱姜蒜换成自己的名字和昵称! 好好好我就是不配玩(换成管理员也不行!) 诶怎么能进这个环境?要进双系统ubuntu? 现在看视频发现原来是我进入成功了,可以接着往下做omygod!!!! 但是 还是看看视频吧 微调是在海量

    2024年01月20日
    浏览(49)
  • [书生·浦语大模型实战营]——XTuner 大模型单卡低成本微调

    在未经过微调的pretrained LLM中,模型只会尽量去拟合你的输入,也就是说模型并没有意识到你在提问,因此需要微调来修正。 1.1常用的微调模式 LLM的下游应用中, 增量预训练 和 指令跟随 是经常会用到的两种的微调模式。 增量预训练微调 使用场景:让基座模型学习到一些新知

    2024年01月20日
    浏览(77)
  • 【 书生·浦语大模型实战营】学习笔记(一):全链路开源体系介绍

    🎉 AI学习星球推荐: GoAI的学习社区 知识星球是一个致力于提供《机器学习 | 深度学习 | CV | NLP | 大模型 | 多模态 | AIGC 》各个最新AI方向综述、论文等成体系的学习资料,配有全面而有深度的专栏内容,包括不限于 前沿论文解读、资料共享、行业最新动态以、实践教程、求

    2024年04月23日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包