【第1节】书生·浦语大模型全链路开源开放体系

这篇具有很好参考价值的文章主要介绍了【第1节】书生·浦语大模型全链路开源开放体系。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1 简介

  • 书生·浦语 InternLM介绍
    InternLM 是在过万亿 token 数据上训练的多语千亿参数基座模型。通过多阶段的渐进式训练,InternLM 基座模型具有较高的知识水平,在中英文阅读理解、推理任务等需要较强思维能力的场景下性能优秀,在多种面向人类设计的综合性考试中表现突出。在此基础上,通过高质量的人类标注对话数据结合 RLHF 等技术,使得 InternLM 可以在与人类对话时响应复杂指令,并且表现出符合人类道德与价值观的回复

  • 2024.1.17 InternLM V2.0 已经升级成为v2.0 (笔记更新时间2024.4)

  • 重要链接汇总
    官方github地址 | 官方网址 | 【模型中心-OpenXLab 实战营优秀项目】 | 常见问题QA

2 内容

(1)书生浦语大模型发展历程

【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语

(2)体系

【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语
【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语

(3)亮点

【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语主要表现在:

【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语

(4)全链路体系构建

【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语

a.数据

万卷 : 官方地址
【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语

上海人工智能实验室(上海AI实验室)于2023年8月14日宣布开源发布“书生·万卷” 1.0多模态预训练语料。
据了解,“书生·万卷”的主要构建团队——OpenDataLab旨在建设面向人工智能开发者的超大规模、高质量、多模态开放数据服务平台,致力于打造国内公开数据资源的基础建设。
目前,该平台已建立共享的多模态数据集5500个,涵盖超过1万亿token文本语料、60亿张图像、8亿个视频片段和100万个3D模型。

【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语

b 预训练

【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语

c 微调

【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语
xtuner【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语

d 评测

【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语

  • 重要链接和地址
    司南OpenCompass2.0评测体系官网:https://opencompass.org.cn/
    GitHub主页:https://github.com/open-compass/OpenCompass/

  • 本次发布的OpenCompass2.0,首次推出支撑大模型评测的“铁三角”:
    权威评测榜单CompassRank
    高质量评测基准社区CompassHub
    评测工具链体系CompassKit

基于全新升级的能力体系和工具链,OpenCompass2.0构建了一套高质量的中英文双语评测基准,涵盖语言与理解、常识与逻辑推理、数学计算与应用、多编程语言代码能力、智能体、创作与对话等多个方面对大模型进行评测分析。通过高质量、多层次的综合性能力评测基准,OpenCompass2.0创新了多项能力评测方法,实现了对模型真实能力的全面诊断。

【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语

  • CompassRank:中立全面的性能榜单

【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语

作为OpenCompass2.0中各类榜单的承载平台,CompassRank不受任何商业利益干扰,保持中立性。同时,依托CompassKit工具链体系中的各类评测手段,保证了CompassRank的客观性。CompassRank不仅覆盖多领域、多任务下的模型性能,还将定期更新,提供动态的行业洞察。与此同时,OpenCompass团队将在榜单中提供专业解读,进一步帮助从业者理解技术深意,优化模型选择。

CompassRank 榜单地址:https://rank.opencompass.org.cn/home

  • CompassHub:高质量评测基准社区

CompassHub是面向大模型能力评测开源开放的基准社区,提供海量的面向不同能力维度和行业场景的评测基准。OpenCompass2.0欢迎评测用户在CompassHub上传各自构建的高质量评测基准,发布相应的性能榜单,汇聚社区力量助力大模型社区整体快速发展。

CompassHub社区地址:https://hub.opencompass.org.cn/home

  • CompassKit:大模型评测全栈工具链

OpenCompass2.0对广受欢迎的初代评测工具库进行了全面优化,推出大模型评测全栈工具链CompassKit,不仅提供完整的开源可复现评测代码,更提供了丰富的模型支持和高效的分布式评测策略。

CompassKit工具链地址:https://github.com/open-compass

CompassKit中包含:

OpenCompass升级版大语言模型评测工具:提供全面的大模型评测功能,包括广泛模型支持、高效评测速度、主观评测能力、数据污染检查和丰富的长文本评测能力。

VLMEvalKit多模态大模型评测工具:一站式多模态评测工具,支持主流多模态模型和数据集,助力社区比较不同多模态模型在各种任务上的性能。

Code-Evaluator代码评测服务工具:提供基于docker的统一编程语言评测环境,确保代码能力评测的稳定性和可复现性。

MixtralKit MoE模型入门工具:为MoE模型初学者提供学习资料、模型架构解析、推理与评测教程等入门工具。

e.模型部署

【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语

f.agent 智能体

【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语【第1节】书生·浦语大模型全链路开源开放体系,书生浦语LLM大模型从入门到精通,大模型,LLM,书生浦语
agentlego : 多功能、多模态的AI工具箱

3 相关论文解读

InternLM2 技术报告: https://arxiv.org/pdf/2403.17297.pdf

通义千问 - 文档解读

  • 摘要翻译:
    随着诸如ChatGPT和GPT-4这样的大型语言模型(LLMs)的发展,引发了关于通用人工智能(AGI)到来的讨论。然而,在开源模型中复制此类进展颇具挑战性。本文介绍了一款名为InternLM2的开源LLM,它通过创新的预训练和优化技术,在六个维度、三十个基准测试以及长程建模和开放式主观评估方面超越了其前身。InternLM2的预训练过程详尽阐述,突出了包括文本、代码及长程数据在内的多种数据类型的准备。该模型在预训练和微调阶段初始以4k令牌进行训练,随后提升至32k令牌,展现出在20万字符级别的“大海捞针”测试中的卓越性能。进一步地,通过监督精细调整(Supervised Fine-Tuning, SFT)和新颖的基于人类反馈的条件在线强化学习策略(Conditional Online Reinforcement Learning from Human Feedback, COOL RLHF),InternLM2解决了人类偏好冲突和奖励破解问题,并实现了对模型的校准。通过发布不同训练阶段和模型规模的InternLM2模型,我们为社区提供了有关模型演进的深入见解。

  • 各标题内容翻译:
    1.引言
    讨论大型语言模型的进步与开源领域面临的挑战,引出InternLM2模型的推出及其优势。
    2.基础设施
    描述InternLM2的研发基础设施,如InternEvo平台和模型结构设计。
    3.预训练
    细致说明预训练数据的来源与处理,包括文本数据、代码数据和长程上下文数据的准备。
    4.性能评估与分析

提供全面的语言模型在多个领域和任务上的表现评估与分析。
a.下游任务性能
b.全面评估:在一系列涵盖人文科学、社会科学、STEM等多个学科领域的多选题数据集(如MMLU)上进行基准测试。
c.语言与知识应用
d.推理与数学能力验证:涉及WinoGrande、HellaSwag和BigBench Hard等推理与数学相关的多项选择题数据集。
e.多编程语言编码能力
f.长程建模性能
g.工具利用能力

  • 文档内容相关亮点与优点分析:

InternLM2模型的主要亮点在于:

(1) 开源性:作为一款开源LLM,InternLM2在各种综合评测和基准测试中表现出优于前代模型的能力,这有利于学术界和产业界共同推进AI技术的发展和应用。
(2)预训练技术创新:采用多样化的预训练数据类型,并有效捕捉长程依赖关系,提升了模型在长文本理解和生成、跨领域知识运用等方面的表现。
(3)强化学习与校准:通过SFT和COOL RLHF策略对模型进行进一步校准,解决了大规模预训练模型在处理复杂情境下的人类偏好表达和奖励机制安全问题。
(4)表现优异:在阅读理解、开放域问答、多语言翻译等多种NLP下游任务上取得突出成绩,显示出强大的语言理解和知识应用能力。

  • 这篇技术报告的主要贡献有两个方面:

1.开源高性能的InternLM2模型:团队发布了各种规模的InternLM2模型,包括1.8B、7B和20B参数量级的版本,并且这些模型在主观和客观评价中均表现出色。为了便于社区分析SFT(监督微调)和RLHF(基于人类反馈的强化学习)训练阶段的变化,他们还提供了不同训练阶段的模型版本。

2.针对长上下文场景的设计与实践:InternLM2针对长序列上下文信息处理进行了特别优化,能够在一个200k的上下文窗口中近乎完美地识别“Needle-in-a-Haystack”测试中的目标元素。研究人员详尽介绍了在整个预训练、SFT以及RLHF各个阶段训练长上下文LLM的经验和方法。

3.全面的数据准备指南:团队详细记录了为LLM准备不同类型数据的过程,包括预训练数据、领域特异性增强数据、SFT数据以及RLHF数据,这将有助于社区更有效地训练大型语言模型。

通过上述贡献,InternLM2项目不仅展示了在众多基准任务上的优越性能,而且为如何分阶段地进行大规模语言模型的研发提供了一套完整的解决方案。

4 ref

1.书生·浦语大模型全链路开源开放体系(视频)
2.一文读懂司南大模型评测体系OpenCompass
3.通义千问文章来源地址https://www.toymoban.com/news/detail-855523.html

到了这里,关于【第1节】书生·浦语大模型全链路开源开放体系的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 书生·浦语大模型全链路开源体系-第6课

    为了推动大模型在更多行业落地应用,让开发人员更高效地学习大模型的开发与应用,上海人工智能实验室重磅推出书生·浦语大模型实战营,为开发人员提供大模型学习和开发实践的平台。 本文是书生·浦语大模型全链路开源体系-第6课的课程实战。 InternLM项目地址 https:/

    2024年04月22日
    浏览(31)
  • 书生·浦语大模型全链路开源体系【大模型第2课-笔记】

    1.1 什么是大模型?   大模型通常指的是机器学习或人工智能领域中参数数量巨大、拥有庞大计算能力和参数规模的模型。这些模型利用大量数据进行训练,并且拥有数十亿甚至数千亿个参数。大模型的出现和发展得益于增长的数据量、计算能力的提升以及算法优化等因素

    2024年01月19日
    浏览(82)
  • 大模型微调学习之旅① — 书生·浦语大模型全链路开源体系

      通过学长的推荐了解到了书生·浦语,现阶段大模型呈井喷式的发展,身为人工智能的学生,感觉不应该局限于简单的调用大模型,而是应该根据实际的需求微调出符合自己情况的大模型,所以就加入了 书生·浦语大模型的培训营,接下来让我们开始大模型微调学习之旅!

    2024年02月02日
    浏览(67)
  • 【 书生·浦语大模型实战营】学习笔记(一):全链路开源体系介绍

    🎉 AI学习星球推荐: GoAI的学习社区 知识星球是一个致力于提供《机器学习 | 深度学习 | CV | NLP | 大模型 | 多模态 | AIGC 》各个最新AI方向综述、论文等成体系的学习资料,配有全面而有深度的专栏内容,包括不限于 前沿论文解读、资料共享、行业最新动态以、实践教程、求

    2024年04月23日
    浏览(23)
  • 【AI大模型开发者指南】书生·浦语大模型全链路开源体系

    https://intern-ai.org.cn/home https://github.com/InternLM 书生·浦语 - 语言大模型来自上海ailab、商汤科技,是国内领先的AI相关开源社区 其中许多开发者都来自OpenMMLab,相信接触过cv领域的朋友或多或少都使用过旗下的产品,例如mmpretrain、mmdet、mmseg等一系列开箱即用的cv炼丹框架。 可以

    2024年04月09日
    浏览(69)
  • 书生浦语大模型--开源体系

    一、大模型的发展   大模型与通用人工智能(AGI),大模型通常被视为发展通用人工智能的重要途径。AI研究从专用模型向通用模型转变,在过去的一二十年中,研究重点在于针对特定任务的专用模型。 专用模型的已经再多个领域取得显著成就,包裹大规模语音识别、图像识

    2024年01月20日
    浏览(36)
  • 书生·浦语大模型开源体系(四)笔记

    💗💗💗欢迎来到我的博客,你将找到有关如何使用技术解决问题的文章,也会找到某个技术的学习路线。无论你是何种职业,我都希望我的博客对你有所帮助。最后不要忘记订阅我的博客以获取最新文章,也欢迎在文章下方留下你的评论和反馈。我期待着与你分享知识、互

    2024年04月28日
    浏览(18)
  • 书生·浦语大模型开源体系(二)笔记

    💗💗💗欢迎来到我的博客,你将找到有关如何使用技术解决问题的文章,也会找到某个技术的学习路线。无论你是何种职业,我都希望我的博客对你有所帮助。最后不要忘记订阅我的博客以获取最新文章,也欢迎在文章下方留下你的评论和反馈。我期待着与你分享知识、互

    2024年04月09日
    浏览(69)
  • 书生·浦语:大模型全链路开源体系(二)——InternLM、Lagent、浦语·灵笔Demo调用

    pip、conda换源: pip临时换源: 设置pip默认源,避免每次下载依赖包都要加上一长串的国内源 conda换源: 镜像站提供了 Anaconda 仓库与第三方源(conda-forge、msys2、pytorch 等),各系统都可以通过修改用户目录下的  .condarc  文件来使用镜像站。 不同系统下的  .condarc  目录如下

    2024年02月02日
    浏览(29)
  • 书生.浦语大模型实战一

    从专用模型到通用大模型 书生.万卷1.0 文本 图像-文本 视频数据 OpenDataLab开放平台 图像:ImageNet tokens语料:WikiQA 音频 视频:MovieNet 3D模型 增量续训 使用场景:让基座模型学习到一些新知识,如某个垂类领域知识 训练数据:文章、书籍、代码等 有监督微调 使用场景:让模型

    2024年01月16日
    浏览(31)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包