步步向前,曙光已现:百度的大模型之路

这篇具有很好参考价值的文章主要介绍了步步向前,曙光已现:百度的大模型之路。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

步步向前,曙光已现:百度的大模型之路,百度

大模型,是今年全球科技界最火热,最耀眼的关键词。在几个月的狂飙突进中,全球主要科技公司纷纷加入了大模型领域。中国AI产业更是开启了被戏称为“百模大战”的盛况。

但喧嚣与热闹之后,新的问题也随之而来:大模型的力量究竟能否持续发展?在拥有了许多大模型之后,我们又该做些什么?

简单来说,面向机遇与挑战并重的大模型时代,中国AI需要从拼参数、拼数量的“短期主义”中走出来,走向长期发展与生态凝聚。

有大模型并不难,难的是让大模型走向远方。

8月16日,由深度学习技术及应用国家工程研究中心主办的WAVE SUMMIT深度学习开发者大会2023在北京举行。百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰表示,大语言模型具备了理解、生成、逻辑、记忆等人工智能的核心基础能力,为通用人工智能带来曙光。

步步向前,曙光已现:百度的大模型之路,百度

如果要总结这一届WAVE SUMMIT,那么在我看来,最重要的价值是百度展示了大模型如何走向“长期主义”发展模式。通过文心加飞桨,为产业伙伴与开发者构建可持续发展的AI基础设施,为产业智能化提供源源不绝的动力。

大模型不是终点

而是起点

步步向前,曙光已现:百度的大模型之路,百度

随着“百模大战”的兴起,大模型以最高效率抵达了产业繁荣状态。但随之到来的是很多疑虑,比如在有了大模型之后,我们究竟如何让它发挥价值?比如,大模型的技术能力,还能不能进一步突破,如何突破?再比如大模型之间的竞争,会不会变成低价、低质的竞底游戏?

这些疑虑背后的关键,是产业界目前传递出的信号,过分强调“要有大模型”。反而很少提及大模型如何长期发展,如何摆脱零和博弈。

步步向前,曙光已现:百度的大模型之路,百度

我们关注大模型,难道不是惊艳于它的表现,于是开始畅想它的未来吗?难道我们真的满足于“有很多大模型”就是终局吗?

换言之,大模型应该是起点,而非终点。

目前来看,大模型的技术、产业与生态都还处在发展的萌芽期。各方应该携手共建,描画大模型的美好未来。大模型之路,至少需要完成三个目标:

1.向产业价值,完成大模型向C端与B端的应用落地,推动AI原生应用走向时代前沿。

2.向众智生态,大模型应该是各行各业、万千开发者的大模型,集众智才能立高远。

3.向技术突破,大模型目前的表现仅是开端,我们需要有方法、有路径来驱动大模型持续发生技术突破,直到走向AGI的远景目标。

如何铺这条大模型路?百度在WAVE SUMMIT深度学习开发者大会2023,展示了他们一直以来都在做的三件事。

步步向前,曙光已现:百度的大模型之路,百度

指南针:

AGI曙光已现

如果说,大模型还能向前走,那么它应该向哪里走?百度为大模型时代铺路,做的第一件事,是向各界展示了关于大语言模型方向的“指南针”。

AI开发者们都知道,WAVE SUMMIT深度学习开发者大会,历来是呈现百度对深度学习技术未来洞察的舞台。

2019年,王海峰在首届WAVE SUMMIT中提出,深度学习具有很强的通用性,并具备标准化、自动化和模块化的工业大生产特征,推动人工智能进入工业大生产阶段。

四年来,AI工业大生产的方向不断得到了充分验证,更引导了AI产业的发展与AI开放生态的繁荣。今天,AI技术在各领域展现出了充沛的生产力释放效应,证明AI工业大生产阶段已经正式到来。

面对大模型时代新的方向性问题,王海峰也给出了清晰明确的洞察。本届WAVE SUMMIT,王海峰首次对外表示,人工智能具有多种典型能力,理解、生成、逻辑、记忆是其中的核心基础能力,这四项能力越强,越接近通用人工智能,而大语言模型具备了这四项能力,为通用人工智能(AGI)带来曙光。

也就是说,大模型持续向前发展,实现技术突破是可预见、可期待、可实现的。以理解、生成、逻辑、记忆四项核心技术作为向量,我们可以规划出大模型长期发展的路标与路径。

这样的论断,建立于百度扎实的技术探索之上。

步步向前,曙光已现:百度的大模型之路,百度

以文心一言为例,它首先从数万亿数据和数千亿知识中融合学习得到预训练大模型,在此基础上采用有监督精调、人类反馈的强化学习和提示等技术,并具备知识增强、检索增强和对话增强等技术优势。进一步地,文心一言通过多种策略优化数据源及数据分布、基础模型长文建模、多类型多阶段有监督精调、多任务自适应有监督精调、多层次多粒度奖励模型等技术创新,全面提升基础通用能力。在检索增强和知识增强的基础上,通过知识点增强,提升对世界知识的掌握和运用;通过大规模逻辑数据构建、逻辑知识建模、多粒度语义知识组合以及符号神经网络,提升逻辑能力;通过构建数据、内容、模型和系统安全的全面安全体系,保障大模型的安全性。可以说,其具备了理解、生成、逻辑、记忆等核心基础能力。

王海峰的阐释既解答了各界对大模型长期发展动力的期待,更直接点明了AGI这一长期目标的实现方式。将目前的大模型技术基础,与人类科技的星辰大海联接在了一起。

除此之外,王海峰还分享了百度在大模型效率、应用等方面的最新进展。

所有远大航程都始于找到正确的航海图。大语言模型具备了理解、生成、逻辑、记忆四项核心基础能力,带来AGI的曙光,正是这样一张值得各界深度思考的航图。

筑路基:

文心加飞桨的步步向前

步步向前,曙光已现:百度的大模型之路,百度

知道了要向哪里走,接下来的问题是应该如何走?面对这个问题,百度为大模型时代做的第二件事,就是通过文心加飞桨,为大模型发展铺设新的路基。

百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜表示,文心一言熟练掌握的创作体裁超过 200 种,涵盖了几乎所有写作需求,内容丰富度是初期的 1.6 倍、思维链长度是初期的 2.1 倍,知识点覆盖是初期的 8.3 倍。

这样的进展效率背后,是百度在核心技术、开发平台、应用部署等领域协同发力的成果。而百度在大模型领域得到的先驱者经验,也将通过文心加飞桨打造的AI基础设施,面向开发者与千行百业进行落地。

在本届WAVE SUMMIT当中,我们可以看到百度围绕大模型的开发、优化、应用,取得了许多关键性、基础性的进展,我们可以从中试举几项加以说明:

1.扩展大模型能力边界的插件生态

面对全新的大模型机遇,插件机制是开发者急切期待的。为了填补这一需求,文心大模型在 3.5 版本中新增了插件机制,已上线了百度搜索、览卷文档、一镜流影、说图解画、E言易图五种官方原生插件。王海峰表示,未来百度将与开发者共建插件生态,共享技术创新成果。

步步向前,曙光已现:百度的大模型之路,百度

从WAVE SUMMIT的反馈来看,各界对这些插件的认可达到了很高指数。

比如说,览卷文档可以借助文档智能模型及搜索系统,实现对文档的格式、布局等信息充分理解及定位,从而帮助用户实现文档摘要、问答及创作的需求。

再比如,一镜流影依托文心跨模态大模型,突破了不同模态之间语义对齐等技术难题。用户仅需简单输入文字,即可在1分钟内获得高质量的AIGC视频,为大模型+视频带来了全新的效率升级与想象力突破。

E言易图则实现了将文字需求转化为可视化图表的需求。仅需简单的数据图表需求,或输入待生成图表的数据内容,即可生成可交互图表,协助用户完成数据分析、洞察及图表信息的交互演示,从而实现大模型与办公、财务、数据统计等领域更为紧密、有针对性的结合。

2.深度学习平台与大模型的联合优化

在大模型成为各界关注重点之后,如何更好更快地训练大模型,提升大模型推理效率,成为了产业中至关重要的挑战。为此,经过紧密的技术升级,百度已经将文心与飞桨联合优化这条路跑通、跑顺,成为了整个大模型产业可以参考的升级范本。

本届 WAVE SUMMIT 上正式发布了飞桨开源框架v2.5,其全面完成了架构升级,同时在大模型训练、推理和多硬件适配方面带来了新的功能。其中,文心与飞桨联合优化最为关键,通过协同优化,文心大模型 3.5 训练速度是优化前的3 倍,推理速度更是达到了30倍以上。

大模型效率的提升离不开飞桨的加持,在训练方面,百度总结了一套打法:

从硬件资源层面看,飞桨与文心在硬件集群上进行协同优化,提升了有效训练时间占比;通过芯片、存储、网络协同优化,提升了模型的训练吞吐速度,从而全面实现了以更小资源消耗实现大模型训练目标;与模型算法协同优化,提高收敛效率。在大模型训练中,优化收敛效率和稳定性,可大幅度减少训练时间,达到事半功倍的效果。

在推理方面,飞桨则是从模型压缩、推理引擎、服务部署三个关键环节进行协同优化。作为深度学习开发平台,飞桨可以支持AI模型从训练到推理的全流程落地。举例来看,飞桨模型推理服务就可以有效支持大模型推理效率提升。其在业内首创了支持动态插入的分布式推理引擎,从而可以更有效完成庞大数据规模的AI模型进行推理部署。在这些关键环节的协同推理能力提升下,飞桨不断帮助文心大模型提升推理效率与推理性能,让模型的学习效果与鲁棒性更强,从而取得更强的应用效果。

到目前为止,文心与飞桨的联合优化路径被持续验证,进而打通了大模型低成本、高效率落地的大门。

3.应用侧的先导示范。

面对着大模型的能力与机遇,各界不仅关注大模型基础技术,同时也希望在应用侧直接获得大模型支持,以及通过有效的AI原生应用来探索自身的应用落地方案。

步步向前,曙光已现:百度的大模型之路,百度

在这一方面,WAVE SUMMIT 上展示了文心一言的能力,通过智能工作平台如流进入办公场景,全面提升办公效率。百度集团副总裁、百度集团首席信息官李莹发布了如流的“超级助理”。 在代码智能化场景,百度Comate系列产品全新升级,重磅发布智能编程助手ComateX和Comate Stack工具套件,实现了代码解释、代码生成、行间注释生成、单元测试用例等能力。

步步向前,曙光已现:百度的大模型之路,百度

文心加飞桨,通过不断升级技术、完善工具、落地应用,让大模型的路基沿着正确方向一路铺设开去,从而让更多开发者、更多行业伙伴能够走上这条路,走近大模型的时代机遇。只有在众力众行之下,中国AI才能滚滚向前。

步步向前,曙光已现:百度的大模型之路,百度

开航道:

为开发者,为产业,为生态

在定准方向,夯实技术之后,下一个问题是如何让更多人加入进来,分享大模型红利。为此,百度为大模型时代做的第三件事,是把大模型变成繁荣的生态航道。让更多行业、更多开发者以高效率、低门槛的方式融入进来,驶向自己的目标。

生态与技术并重,始终是百度发展AI技术的立足根本。经过多年发展,产业级深度学习开源开放平台飞桨,已经凝聚了800万开发者,服务于22万家企事业单位,基于飞桨创建的AI模型达到80万个。

步步向前,曙光已现:百度的大模型之路,百度

而面向大模型的机遇,百度同样也广开生态之门,注重社区发展。WAVE SUMMIT 期间,王海峰发布了飞桨开发者社区AI Studio中文名“星河社区”,寓意“文心加飞桨,翩然赴星河”。

与此同时,正式推出了星河大模型社区。在社区,开发者可以获得一体化的大模型开发支持。飞桨+文心贯通全开发流程,与开发者持续共创大模型项目和应用。目前,星河大模型社区已上线了超过 300 个大模型创意应用,还提供了丰富的功能方便开发者进行交流。百度还发布了文心大模型“星河”共创计划,提供生态和产业资源,与广大开发者共同推动人工智能应用创新。

而在作为AI产业底座的硬件领域,文心大模型最新与英伟达、寒武纪、华为等12家硬件伙伴开展了适配,覆盖了云和端侧多种硬件类型。目前,已经有25家硬件伙伴参与到了星河社区硬件生态专区的共建当中。

步步向前,曙光已现:百度的大模型之路,百度

从产业落地的角度来看,文心大模型的落地规模在国内保持领先,已经有15 万家企业申请了文心一言内测,其中超过 300 家生态伙伴在 400 多个具体场景取得了测试成效,覆盖办公提效、知识管理、智能客服、智能营销等领域。同时,百度联合国家电网、浦发银行、泰康、吉利等企业联合发布了 11 个行业大模型。

不难看出,百度开辟的大模型航道,已经实现了落地广泛、生态繁荣、伙伴众多。百度的大模型之路,正在这样的航道上徐徐展开。

相比于以“有大模型”作为全部目标,百度的大模型之路目光更远,看向AGI的星辰大海。

相比于堆积参数和技术务虚,百度的大模型之路更加脚踏实地,它是在一个个插件,一次次优化中走通的,每一个脚印清晰可见。

相比于短期利益与劣币竞争,百度的大模型之路坚持生态互利,它是行业的路,开发者的路,更多人的路。

中国AI的大模型之路,当如是也。

步步向前,曙光已现:百度的大模型之路,百度文章来源地址https://www.toymoban.com/news/detail-658835.html

到了这里,关于步步向前,曙光已现:百度的大模型之路的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 如何训练自己的大语言模型

    训练大型语言模型的核心代码通常涉及以下几个关键部分: 数据准备: 加载和预处理文本数据。 分词或标记化文本,将文本转换为模型可接受的输入形式。 构建数据集或数据加载器,以便在训练过程中高效地加载和处理数据。 模型定义: 使用深度学习框架(如TensorFlow、

    2024年02月16日
    浏览(45)
  • Unity接入讯飞的大数据模型

    原:基于C#+WPF编写的调用讯飞星火大模型工具_c#xf$xccx-CSDN博客 记录一下以防以后用到。    

    2024年02月22日
    浏览(43)
  • 我的大模型观:我眼中的LLM

    今年,大模型火的一塌糊涂。最近几个月paper with code上,前几名的论文几乎都是生成模型和LLM。参加AI相关的会议,也是千篇一律的LLM。国内的大厂争先恐后的发布自己的大模型,比如百度的文心、360的智脑、讯飞的星火等等,呈现出百花齐放百家争鸣的繁荣现象。。北京市

    2024年02月12日
    浏览(40)
  • 老码农眼中的大模型(LLM)

    即便全力奔跑,也不一定能跟上时代的步伐。但如果失去了学习的动力,很可能会被时代淘汰。而且,当时代淘汰我们的时候,往往不会有任何预警。基于大模型的 ChatGPT 给我们带来了极大的震撼,那么什么是大模型呢? 大型语言模型 (LLM) 被简称为大模型,是一类基础模型

    2023年04月26日
    浏览(35)
  • 使用开源通义千问模型(Qwen)搭建自己的大模型服务

    1、使用开源的大模型服务搭建属于自己的模型服务; 2、调优自己的大模型; 采用通义千问模型,https://github.com/QwenLM/Qwen 1、下载模型文件 开源模型库:https://www.modelscope.cn/models 2、下载使用docker 镜像 3、启动脚本 https://github.com/QwenLM/Qwen/blob/main/docker/docker_web_demo.sh 4、运行 访

    2024年02月01日
    浏览(64)
  • 如何从宏观层面构建优秀的大语言模型

      大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的

    2024年02月07日
    浏览(57)
  • 大语言模型(LLM)综述(四):如何适应预训练后的大语言模型

    随着人工智能和机器学习领域的迅速发展,语言模型已经从简单的词袋模型(Bag-of-Words)和N-gram模型演变为更为复杂和强大的神经网络模型。在这一进程中,大型语言模型(LLM)尤为引人注目,它们不仅在自然语言处理(NLP)任务中表现出色,而且在各种跨领域应用中也展示

    2024年02月08日
    浏览(51)
  • 零基础,零成本,部署一个属于你的大模型

    前言 看了那么多chatGPT的文章,作为一名不精通算法的开发,也对大模型心痒痒。但想要部署自己的大模型,且不说没有算法相关的经验了,光是大模型占用的算力资源,手头的个人电脑其实也很难独立部署。就算使用算法压缩后的大模型,部署在个人电脑上,还要忍受极端

    2024年02月07日
    浏览(44)
  • LLamaFactory:当下最容易上手的大模型微调工具

    近日,国内的一款微调框架发布了自己的论文《LLAMAFACTORY: Unified Efficient Fine-Tuning of 100+ Language Models》,对他们的框架做了系统性的总结。该框架自推出后迅速出圈,现已斩获15.6k的star,逐步成为当下微调的首选工具。 喜欢本文记得收藏、点赞、关注。文末参与技术讨论 htt

    2024年04月29日
    浏览(38)
  • 【AI模型系列】中国AI大模型峰会“封神之作”,不容错过的大模型机遇

    目录 序言   峰会介绍 现场大咖   大语言模型 五大论坛  峰会特点 参与方式 方式一 方式二  AI大模型是指具有数十亿个参数的深度学习模型。这些模型通常使用多层神经网络来处理大规模的数据集,以学习和提高它们的表现。 大模型通常需要大量的计算资源和大量的数据

    2024年02月14日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包