【AI大模型开发者指南】书生·浦语大模型全链路开源体系

这篇具有很好参考价值的文章主要介绍了【AI大模型开发者指南】书生·浦语大模型全链路开源体系。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

使用书生·浦语开源体系进行算法开发

背景

https://intern-ai.org.cn/home
https://github.com/InternLM
书生·浦语 - 语言大模型来自上海ailab、商汤科技,是国内领先的AI相关开源社区
【AI大模型开发者指南】书生·浦语大模型全链路开源体系,人工智能,开源其中许多开发者都来自OpenMMLab,相信接触过cv领域的朋友或多或少都使用过旗下的产品,例如mmpretrain、mmdet、mmseg等一系列开箱即用的cv炼丹框架。
【AI大模型开发者指南】书生·浦语大模型全链路开源体系,人工智能,开源可以看到,openmmlab在cv开源项目中,是独树一帜的存在,如今的书生·浦语社区,也是原班人马打造。

在开源技术方案中,作为开发者,我们一般主要考虑两个点,一是项目贡献者靠不靠谱?会不会跑路?二是项目好不好用,值不值得用。总的来说,openmmlab出品,值得信赖,书生·浦语大模型全链路开源体系,值得一试。

大模型开发需要什么

大模型开发一般包括以下内容:

  • 模型
  • 训练/微调
  • 部署、量化、接口
  • 性能评估
  • 产品构建

当然,实际上还有更多细节,如GPT所言:
【AI大模型开发者指南】书生·浦语大模型全链路开源体系,人工智能,开源【AI大模型开发者指南】书生·浦语大模型全链路开源体系,人工智能,开源想要实现以上内容,仅凭一个人的努力,当然是很困难的,但是没关系,基于开源社区,我们可以获得很多帮助,大大减少了重复造轮子的工夫。

书生·浦语开源生态

【AI大模型开发者指南】书生·浦语大模型全链路开源体系,人工智能,开源书生·浦语开源开放体系主要覆盖数据、预训练、微调、部署、评测五大环节,其中数据有opendatalab提供支持,主要产品是书生万卷
https://opendatalab.com/
【AI大模型开发者指南】书生·浦语大模型全链路开源体系,人工智能,开源其余部分由以下构成:

构成

InternLM–官方出品的一系列语言模型

https://github.com/InternLM/InternLM
【AI大模型开发者指南】书生·浦语大模型全链路开源体系,人工智能,开源在这里,我们结合Internlm2的技术报告来看
https://arxiv.org/abs/2403.17297
https://mp.weixin.qq.com/s/IUUj_CWUJPdrhLq1XAR-KA

InternLM2与目前大模型依然处在同一个赛道中,大海捞针、长上下文(20k)、逻辑推理、工具调用等测试均表现尚可,但与其他大模型差异主要在于——InternLM2有强大的社区支持,其背后的一系列开源工具包、工具链、生态体系,这是InternLM2目前对开发者而言最有吸引力的地方。

InternEvo–轻量级LLM训练框架

https://github.com/InternLM/InternEvo/

InternEvo 是一个开源的轻量级训练框架,旨在支持模型预训练,而不需要大量的依赖。通过单一代码库,它支持对数千个 GPU 的大规模集群进行预训练,并在单个 GPU 上进行微调,同时实现显着的性能优化。 InternEvo 在 1024 个 GPU 上训练时实现了近 90% 的加速效率。

InternLM2便是使用InternEvo进行训练,此外,相信炼过丹的同学都知道,训练框架对于模型性能表现也有很大影响

基于InternEvo训练框架,我们不断发布多种大型语言模型,包括InternLM-7B系列和InternLM-20B系列,其性能显着优于LLaMA等众多知名开源LLM等该领域的领先模型。

通过InternEvo,我们能够高效完成大模型训练任务

XTuner–支持多种模型的微调工具包

https://github.com/InternLM/xtuner
XTuner是高效、灵活、功能齐全的大型模型微调工具包(InternLM、Llama、Baichuan、Qwen、ChatGLM)

高效的
支持几乎所有GPU上的LLM、VLM预训练/微调。 XTuner能够在单个8GB GPU上微调7B LLM,以及超过70B的模型的多节点微调。
自动调度 FlashAttention 和 Triton 内核等高性能算子,以提高训练吞吐量。
兼容DeepSpeed 🚀,轻松利用多种 ZeRO 优化技术。

灵活的
支持各种LLM(InternLM,Mixtral-8x7B,Llama2,ChatGLM,Qwen,Baichuan,…)。
支持VLM(LLaVA)。LLaVA-InternLM2-20B的性能非常出色。
精心设计的数据管道,可容纳任何格式的数据集,包括但不限于开源和自定义格式。
支持多种训练算法(QLoRA、LoRA、全参数fune-tune),让用户可以根据自己的需求选择最合适的解决方案。

功能齐全
支持持续预训练、指令微调、代理微调。
支持使用预定义模板与大模型聊天。
输出模型可以与部署和服务器工具包(LMDeploy)以及大规模评估工具包(OpenCompass,VLMEvalKit)无缝集成。

通过XTuner,快速微调大模型不再是一个有门槛的任务。

LMDeploy–LLM部署工具包

https://github.com/InternLM/lmdeploy

LMDeploy 是一个用于压缩、部署和服务 LLM 的工具包,由MMRazor和MMDeploy团队开发。它具有以下核心特点:

  • 高效推理:LMDeploy 通过引入持久批处理(又称连续批处理)、阻塞 KV 缓存、动态拆分和融合、张量并行、高性能 CUDA 内核等关键功能,提供比 vLLM 高出 1.8 倍的请求吞吐量。
  • 有效量化:LMDeploy支持仅权重和k/v量化,4位推理性能比FP16高2.4倍。量化质量已通过 OpenCompass 评估得到确认。
  • 轻松的分发服务器:利用请求分发服务,LMDeploy 有助于跨多台机器和卡轻松高效地部署多模型服务。
  • 交互推理模式:通过缓存多轮对话过程中注意力的k/v,引擎记住对话历史,从而避免对历史会话的重复处理。

LMDeploy特色功能是部署、量化(4bit、kvcache),部署是模型开发中重要的一个环节,起到了承前启后的作用。通过部署,我们才能把我们炼好的丹用于后续呈现。

AgentLego–强调agent的多功能工具api库

https://github.com/InternLM/lagent

【AI大模型开发者指南】书生·浦语大模型全链路开源体系,人工智能,开源
基于大模型的智能体是当下的一个热门话题,书生·浦语开源体系中同样包含了该领域中的工具,基于lagent,我们可以快速实现代码解释器、web聚合搜索等llm下游任务,为后续构建产品做准备

OpenCompass–大模型评估平台

https://github.com/open-compass/opencompass

在大模型开发过程中,评估一直是个津津乐道的步骤,语料泄露、prompt春秋笔法、未曾想到的评价方法,大模型评估一直是一件比较草台班子的事情。但书生·浦语大模型全链路开源体系中,同样有着为大模型评估提供服务的工具,那就是opencompass,开源的评估平台。使用命令行和配置文件便可以完成大模型评估,开箱即用,感谢开源贡献者。
【AI大模型开发者指南】书生·浦语大模型全链路开源体系,人工智能,开源

OpenAOE–开箱即用的聊天UI

https://github.com/InternLM/OpenAOE
【AI大模型开发者指南】书生·浦语大模型全链路开源体系,人工智能,开源openaoe主打开箱即用的UI,提供了多模型对话的解决方案(类似POE),但目前该社区并不是特别活跃,可能还存在着一些尚未得知的bug,并不太建议使用文章来源地址https://www.toymoban.com/news/detail-844855.html

到了这里,关于【AI大模型开发者指南】书生·浦语大模型全链路开源体系的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 书生·浦语大模型开源体系(四)笔记

    💗💗💗欢迎来到我的博客,你将找到有关如何使用技术解决问题的文章,也会找到某个技术的学习路线。无论你是何种职业,我都希望我的博客对你有所帮助。最后不要忘记订阅我的博客以获取最新文章,也欢迎在文章下方留下你的评论和反馈。我期待着与你分享知识、互

    2024年04月28日
    浏览(28)
  • 书生·浦语大模型实战营-学习笔记4

    常见的两种微调策略:增量预训练、指令跟随 指令跟随微调 数据是一问一答的形式 对话模板构建 每个开源模型使用的对话模板都不相同 指令微调原理: 由于只有答案部分是我们期望模型来进行回答的内容,所以我们只对答案部分进行损失的计算 增量预训练微调 数据都是

    2024年01月22日
    浏览(42)
  • 书生·浦语大模型--第二节课笔记

    大模型 定义:参数量巨大、拥有庞大计算能力和参数规模的模型 特点:大量数据训练、数十亿甚至千亿数据、惊人性能 InternLM系列 InternLM:轻量级训练框架 Lagent:轻量级、开源的基于大语言模型得到智能体框架,将大语言模型转变为多种智能体 浦语灵笔:视觉语言大模型,

    2024年01月22日
    浏览(41)
  • 书生·浦语大模型实战营-第四课笔记

    期待已久的微调课 增量预训练和指令跟随是两种微调模式,即两种微调策略。   1)增量预训练 投喂新的领域知识即可,例如书籍、文章、代码 2)指令跟随 采用高质量对话和问答数据进行训练 两者是微调的方法,即算法。 xtuner是一种微调框架。

    2024年02月21日
    浏览(46)
  • 书生·浦语大模型全链路开源体系-第2课

    为了推动大模型在更多行业落地应用,让开发人员更高效地学习大模型的开发与应用,上海人工智能实验室重磅推出书生·浦语大模型实战营,为开发人员提供大模型学习和开发实践的平台。 本文是书生·浦语大模型全链路开源体系-第2课的课程实战。 InternLM项目地址 https:/

    2024年04月13日
    浏览(48)
  • 书生·浦语大模型全链路开源体系-第6课

    为了推动大模型在更多行业落地应用,让开发人员更高效地学习大模型的开发与应用,上海人工智能实验室重磅推出书生·浦语大模型实战营,为开发人员提供大模型学习和开发实践的平台。 本文是书生·浦语大模型全链路开源体系-第6课的课程实战。 InternLM项目地址 https:/

    2024年04月22日
    浏览(42)
  • 【书生·浦语大模型实战】“PDF阅读小助手”学习笔记

    《新版本Lmdeploy量化手册与评测》 项目主页:【tcexeexe / pdf阅读小助手】 在InternStudio平台中选择 A100 (1/4) 的配置,镜像选择 Cuda11.7-conda ,可以选择已有的开发机 langchain ; Note: /home/tcexeexe/data/model/sentence-transformer :此路径来自于make_knowledge_repository.py 以上脚本会生成数据库文

    2024年01月24日
    浏览(44)
  • 【第1节】书生·浦语大模型全链路开源开放体系

    书生·浦语 InternLM介绍 InternLM 是在过万亿 token 数据上训练的多语千亿参数基座模型。通过多阶段的渐进式训练,InternLM 基座模型具有较高的知识水平,在中英文阅读理解、推理任务等需要较强思维能力的场景下性能优秀,在多种面向人类设计的综合性考试中表现突出。在此基

    2024年04月22日
    浏览(47)
  • 书生·浦语大模型全链路开源体系【大模型第2课-笔记】

    1.1 什么是大模型?   大模型通常指的是机器学习或人工智能领域中参数数量巨大、拥有庞大计算能力和参数规模的模型。这些模型利用大量数据进行训练,并且拥有数十亿甚至数千亿个参数。大模型的出现和发展得益于增长的数据量、计算能力的提升以及算法优化等因素

    2024年01月19日
    浏览(93)
  • 大模型微调学习之旅① — 书生·浦语大模型全链路开源体系

      通过学长的推荐了解到了书生·浦语,现阶段大模型呈井喷式的发展,身为人工智能的学生,感觉不应该局限于简单的调用大模型,而是应该根据实际的需求微调出符合自己情况的大模型,所以就加入了 书生·浦语大模型的培训营,接下来让我们开始大模型微调学习之旅!

    2024年02月02日
    浏览(81)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包