【观察】抢先入局AIGC,新华三底层能力何在?

这篇具有很好参考价值的文章主要介绍了【观察】抢先入局AIGC,新华三底层能力何在?。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

2022年11月,智能对话机器人模型ChatGPT上线,其连续对话能力、强大的理解力、回答的准确度和创造性使其迅速走红。数据显示,ChatGPT发布短短两个月时间,全球用户数便突破1亿。

可以说,这项火遍全球的突破性人工智能对话技术,为整个科技行业带来了全新的想象力。而在国内,由百度打造的首个“类ChatGPT”——百度文心一言(ERNIE Bot)也即将在今年3月呈现,这是先进的人工智能对话技术在国内数字化领域中的首次大规模落地尝试,其价值无疑深远而重大。

【观察】抢先入局AIGC,新华三底层能力何在?

值得一提的是,紫光股份旗下新华三集团日前也宣布正式成为百度文心一言的首批生态合作伙伴。接下来,双方将会把领先的智能对话技术成果应用在数字化领域,深度赋能百行百业的数字化转型和智能化升级。

回头来看,新华三之所以能够成为百度文心一言的首批生态合作伙伴,无疑是其长期在ICT基础设施领域深厚技术沉淀和释放的一种体现,而这背后也让整个产业看到了新的可能——那就是站在企业数字化转型和智能化升级的重要关口,新华三以其智算基础架构构筑的超大模型底座,无疑可以为百行百业创造出更多具有想象空间的新业态、新服务和新模式,让智能化的大潮 “普惠”每一家企业和每一个个人,释放智能化生产力的“乘数效应”。

新华三牵手百度文心一言背后

目前,以ChatGPT为代表的AIGC内容生成方式通过学习人类的思考方式,查阅、挖掘大量素材,以低边际成本、少人力限制等高效率的方式生成大量满足人们差异化需求的内容。

【观察】抢先入局AIGC,新华三底层能力何在?

文心一言,正是百度基于文心大模型技术推出的生成式AI产品。作为国内少有的拥有大模型技术的企业,百度在人工智能领域深耕十余年,拥有产业级知识增强文心大模型ERNIE,具备跨模态、跨语言的深度语义理解与生成能力,而这种能力,也在搜索问答、云计算、内容创作生成、智能办公等众多领域具有较大的“用武之地”。

而本次新华三之所以率先成为百度文心一言的首批生态合作伙伴,其实也在“情理之中”。据了解,新华三与百度的合作有着长久的历史积淀,双方在ICT基础设施优化升级、百度智能云建设、信息检索、自动驾驶、生态建设等众多领域均有研发级别的合作,目前相关成果已广泛落地,对双方的产品技术发展产生了积极而深远的影响。

而展望未来,新华三也将继续携手百度,为智能交通、自动驾驶、智慧城市、智慧医疗、智慧教育、智慧金融、多域互联等领域推出更多场景化解决方案,开拓内容生态和智能服务领域的全新可能性,全面引领数字化时代的产业变革与升级。

以智算架构构筑超大模型底座

接下来要追问的是,为什么是新华三能够率先成为百度文心一言的首批生态合作伙伴呢?其实,要回答这一问题,就不得不提到类似ChatGPT和百度文心一言这样的AI基础模型(基于大规模数据集和大规模算力训练的大型预训练模型),要训练出这样的超大基础模型,往往是需要多方面的关键技术作为支撑的——除了大模型算法、分布式训练系统、高质量数据集的相关工具等,对计算、网络、存储等基础设施做出了巨大挑战。

例如,训练大模型首先就需要大规模算力资源做支撑;同时大型训练对显存以及数据集缓存要求同样很高,训练过程中还会面临显存墙问题(模型是否能跑起来)以及计算/通信墙问题(能否在合理时间内完成训练);此外,大模型的训练同样对网络也提出了更高的要求,即需高性能网络满足节点间参数同步,且GPU服务器节点间需要高速网络来实现模型训练参数交换和存取等等。

正是由于大模型的训练对存储、计算、网络等各个层面都提出了比较严苛的要求,长期深耕ICT领域的新华三,也基于自身在存储、计算、网络等领域深厚的技术积淀,打造出了一套全新的智算基础架构,该架构分为两大区域,即智算训练区和智算推理区,由此能够为大模型的训练提供强大的技术底座能力,具体来看:

【观察】抢先入局AIGC,新华三底层能力何在?

一是,在训练集群方面,目前大模型的训练使用的服务器通常都是搭载NVIDIA NVLink GPU模块作为标准机,而新华三能够提供H3C UniServer R5500 G5这样机型,其搭载了NVIDIA GPU模块,能够支持英特尔Whitley平台和AMD Milan平台,最大支持2颗Icelake(40C、270W)或2颗Milan(64C、280W)的CPU,存储方面能够最大支持12个U.2 NVMe SSD,其中8个支持GDS(GDS, GPU Direct Storage),可以最大化地满足训练集群的算力需求。

不仅如此,在2023年初,新华三还发布了搭载NVIDIA 全新NVLink模块的新一代机型R5500 G6,支持英特尔EGS和AMD Genoa平台,PCIe 5.0及400GE网络的加持,也能够给大模型的训练带来更高的算力提升。

另外,一些大型互联网公司还会使用自研GPU Box搭配计算节点的方式组建训练集群,GPU Box里面会搭载NVIDIA NVLink GPU模块或其他厂商的OAM模组,而OAM是开源的GPU模块,由OCP社区服务器项目组下的OAI小组开发并制定标准。在这方面,新华三也是OAI2.0规范制定的重要参与者,后续在R5500 G6上,新华三也可支持不同厂家GPU的OAM模组。

二是,在推理集群方面,GPU推理集群的规模主要取决于业务预期的QPS并发需求,一般会多机多卡多实例部署。同样,新华三也提供了相关的产品以满足实际的业务需求,以H3C UniServer R5300 G5为例,其最大支持2颗英特尔Icelake(40C、270W)CPU,并可搭配多厂家多种类型的GPU产品,包括GPU、XPU、NPU等。

而在大规模推理场景下,新华三 UniServer R5300 G5也支持多种类型的GPU方案,包括4 PCIe GPU方案、8 PCIe GPU方案和16 PCIe GPU方案,以应对不同客户不同算力的推理集群搭建需求。此外,在去年11月份,新华三还发布了基于AMD Genoa平台的GPU服务器R5350 G6,可实现90%的CPU性能提升和50%的内核数量提升,应该说多种类型人工智能加速卡的支持,可以帮助客户应对人工智能不同场景下对异构算力的需求。

三是,高性能存储和网络也是大模型训练的重要组成部分。其中,高性能存储一般采用分布式并行文件存储,而新华三CX系列存储,就采用了全对称分布式架构,可结合IBM Spectrum Scale,为客户提供高带宽、低延时的存储服务。

以新华三CX5036为例,配置2颗5218 CPU、4块1T NVMe和32块6T SATA HDD,4节点集群部署,测试大文件小IO(4KB)平均单节点IOPS可达2.55W(随机读)、2.36W(随机写),多客户端并发(16MB)平均单节点带宽可达3.57GB/s(顺序读)、2.08GB/s(顺序写),单客户端单流16MB IO聚合带宽可达5.45GB/s、1MB IO聚合带宽3.7GB/s。

高性能网络方面,通常有两种网络搭建方式:第一种是RoCE网络,作为互联网400G领域的市场领头羊,基于新华三提供的S9825/S9855交换机配合AI ECN方案,也可以迅速搭建大模型训练所需的高性能网络。与此同时,随着大模型训练所需网络带宽的不断提升,网络主芯片性能也会迅速增加,当800G/1.6T时代来临时,CPO/NPO交换机将会登上互联网舞台,在这方面新华三也提前做了布局,其S9825-32D32DO交换机,同时支持32个400G光模块接口和32个400G光引擎接口,后续可以平滑升级至51.2T平台;第二种方式是DDC方案,DDC网络架构(分布式分解结构)可以很轻易解决负载均衡和阻塞问题,同时也能实现更优的网络性能和更快的网络收敛。在这方面,新华三的DDC方案也在进行相关验证中。

由此可见,从新华三智算基础架构的技术细节中,可以看到新华三以智算基础架构为超大模型训练构筑了坚实的底座,不仅能够为包括AIGC为代表的超大模型提供关键技术支撑,同时也是新华三率先成为百度文心一言的首批生态合作伙伴的关键所在。

释放智能化生产力“乘数效应”

客观地说,智能化已经成为了当下中国产业升级和企业数字化转型中的新动能和驱动力。特别是由于线上线下生态及场景远比其他国家丰富、多元,中国经济中结构性的差异,以及细分行业中不同的应用场景需求,都给了基于AIGC为代表的新技术的创新以巨大的想象力,而新华三以智算架构构筑的超大模型底座,不仅可以帮助企业借助AIGC提升效率,创造新价值,持续推动产业智能化的升级,同时也让AI真正“扎根”百行百业奠定了关键基础,背后更体现出了全新的价值,可以从两个方面来做观察:

【观察】抢先入局AIGC,新华三底层能力何在?

一方面,是为AI超大模型的训练提供了坚实的技术支撑。随着关键技术与基础理论不断突破,大算力、大数据、大模型将成为未来AI发展的重点发展方向,由此带动自然语言处理、翻译模型、生成算法和数据集等细分要素持续提升,推动产出的内容细节、类型更丰富、质量更高。

这背后显然离不开强大的算力和网络的支撑。而新华三打造的智算基础架构,基于新华三长期在ICT基础设施领域的沉淀,充分融合了其在计算、存储和网络等领域的优势,就切实地为超大模型训练提供了技术支撑。

在此基础上,新华三还积极坚持前沿技术创新,其中全面支持在网计算的H3C P4可编程交换机,就能够支持Pytorch框架和DPDK UDP、RoCE通信方式,将数据需求聚合统一操作,优化通信网络拥堵,减少主机的数据处理量。据新华三内部实验室测算,使用H3C P4可编程交换机加速数据并行训练,模型训练精度不受影响,计算节点间通信数据量平均减少30%,最多可以减少48%的训练时间,可大幅提升分布式集群的整体训练效率,创造更加出色的应用价值。可以说在产品、技术和方案上的领先性,是新华三差异化的优势所在,更是其能够助力各类企业AIGC展开研发和推进的价值所在。

另一方面,新华三还正与产业各方积极合作,探索新范式和新路径,推动普惠算力更为广泛地落地,使能百行百业的智能化升级,共同推进中国人工智能产业的发展。

这方面,新华三率先成为百度文心一言首批生态合作伙伴就是具体的印证。众所周知,今天AI正在极大改变人们的生活方式,目前也正在开始加速渗透到企业的研发设计、生产制造、供应链管理、客户服务等各个环节,深刻改变着人们的生产方式。

因此,以提升效率和优化配置为核心主题的AI应用和创新,是数字经济深化发展的全新阶段,更是传统产业转型升级的必然要求。在这种大背景下,新华三和包括百度在内的产业合作伙伴通力合作,并通过旗下丰富的产品和解决方案为百行百业的用户注入云原生及人工智能技术,也能加速整个行业的智能化升级,释放智能化生产力“乘数效应”。

总的来说,中国产业智能化的转型升级,中国数字经济的落地和发展,任重而道远。在此过程中,新华三以全新的智算架构支撑超大模型训练,并与产业合作伙伴深度合作,让AIGC这样的新技术能够加速行业落地的步伐,而这种创新力、前瞻力和爆发力,相信也将能够推动中国的人工智能产业呈现出“百花齐放”的状态,更能够提速整个行业智能化时代的到来,这不仅是未来的趋势所在,也是新华三不断创新与突破的重要体现。

【观察】抢先入局AIGC,新华三底层能力何在?

申耀的科技观察,由资深科技媒体人申斯基创办,20年企业级科技内容传播工作经验,长期专注产业互联网、企业数字化、ICT基础设施、汽车科技等内容的观察和思考。文章来源地址https://www.toymoban.com/news/detail-500497.html

到了这里,关于【观察】抢先入局AIGC,新华三底层能力何在?的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 又一巨头宣布入局AIGC,一口气开源数个模型,还道出了它的变现之道

    金磊 发自 凹非寺 量子位 | 公众号 QbitAI AIGC (AI生成内容),这个概念在今年可以说是火得一塌糊涂。 例如Stable Diffusion,只要对它说一句话,“唰唰唰”地就能秒生成画作。 再如最近大火的ChatGPT,对答如流堪比人类,简直让网友们玩得不亦乐乎。 △ 左:Stable Diffusion作画;

    2024年02月10日
    浏览(41)
  • 观察着效应与AIGC

    量子坍缩波函数用数学表达式可以写成: Ψ = ∑ C_n φ_n 其中,Ψ表示波函数,C_n表示系数,φ_n表示归一化的本征态,∑表示对所有的n求和。 本征态通常是指某个物理系统的特定状态下的解,可以用数学上的向量或函数表示。对于一个离散谱的系统,本征态可以用一个列向量

    2024年02月10日
    浏览(31)
  • AI4DATA,生成式BI能力现状观察和业界实践探讨

    DATA for AI,还是AI for DATA,BI要不要抱AI的大腿,对于大数据领域从业者来说,这是个问题。 要谈生成式BI,那还是得先提一下生成式AI,作为近两年科技圈的当红小生,Generative AI可谓风头无俩。什么是生成式AI呢,宽泛的来说,Generative AI泛指各种能够进行自主内容创作和生成

    2024年02月20日
    浏览(59)
  • 观察|ChatGPT席卷全球,AIGC还将如何变革金融银行业

    近年来,虚拟数字人技术的发展为金融银行业数字化转型带来了新的探索方向。数字人作为元宇宙的核心交互载体,是未来银行与用户进行对话、打造沉浸式服务体验的重要链接渠道。截至目前,国内已有13家银行推出虚拟数字人员工,无论在手机银行还是线下网点都时常能

    2024年02月11日
    浏览(44)
  • 如何使用AIGC才能有利于创新能力的培养

    人工智能和大数据技术在许多领域中发挥着越来越重要的作用,但过度依赖这些技术可能会对创新能力的培养产生负面影响。 首先,过度依赖人工智能和大数据技术可能会导致我们失去独立思考和创新的能力。例如,在某些领域中,如果我们只是盲目地依赖AIGC系统提供的结

    2024年02月22日
    浏览(47)
  • 张晴晴:对话数据推动AIGC——大模型底层数据探索

    “Training data is technology” . 数据即科技,OpenAI的联合创始人IlyaSutskever在与知名科技媒体The Verge访谈中提到。ChatGPT自发布以来热度席卷全球,一周前惊艳亮相的GPT-4更是让人感叹我们迎来了AI发展的历史性时刻。 然而我们也困惑,OpenAI为何不开源GPT-4?在我们看来,更多的奥秘

    2024年02月09日
    浏览(80)
  • 用HarmonyOS元服务万能卡片训练一下文心一言的AIGC能力

    一、部分效果图展示 1.服务卡片 2.AIGC服务 二、平板与手机视频效果演示 1.平板视频,运行比较慢,需要耐心观看,之所以先用平板模拟器运行,是通过现在的DEMO方式手机文心一言网页版页面兼容性暂时没法解决,没法输入内容。 用HarmonyOS元服务万能卡片训练一下文心平板电

    2024年02月16日
    浏览(34)
  • AIGC之GPT-4:GPT-4的简介(核心原理/意义/亮点/技术点/缺点/使用建议)、使用方法、案例应用(计算能力/代码能力/看图能力等)之详细攻略

    AIGC之GPT-4:GPT-4的简介(核心原理/意义/亮点/技术点/缺点/使用建议)、使用方法、案例应用(计算能力/代码能力/看图能力等)之详细攻略 解读 :在2022年11月横空出世的ChatGPT,打遍天下无敌手的时候,就知道会有这么一天,知道它会来,也知道它一定来,但是,还是没想到,来的

    2024年02月03日
    浏览(38)
  • AIGC被ChatGPT带火!底层基础算力有望爆发式增长

    ChatGPT火爆全球的背后,可以窥见伴随人工智能技术的发展,数字内容的生产方式向着更加高效迈进。ChatGPT属于AIGC的具体应用,而AIGC是技术驱动的数字内容新生产方式。AIGC类产品未来有望成为5G时代新的流量入口,率先受益的有望是AIGC带来的底层基础算力爆发式增长。 什么

    2024年02月09日
    浏览(35)
  • AI实战营:生成模型+底层视觉+AIGC多模态 算法库MMagic

    目录  环境安装 黑白照片上色 文生图-Stable Diffusion  文生图-Dreambooth 图生图-ControlNet-Canny 图生图-ControlNet-Pose 图生图-ControlNet Animation 训练自己的ControlNet           下载样例图    样例效果: 测试结果:  测试效果: 在数据集上训练Dreambooth, 数据集下载链接 用训练好的模型

    2024年02月11日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包