AIGC靠GPU还是CPU?高性能计算两大技术方向演变

这篇具有很好参考价值的文章主要介绍了AIGC靠GPU还是CPU?高性能计算两大技术方向演变。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

2023 年的 AI 产业可以用风起云涌来形容。ChatGPT 的横空出世让生成式 AI 技术一夜之间红遍全球,很多从未了解过人工智能的普通人也开始对大模型产生了浓厚的兴趣。媒体、调研机构纷纷推出长篇专题,论证 ChatGPT、StableDiffusion、Midjourney 等文本和图像大模型会对哪些行业产生颠覆式影响;甚至有很多员工和企业开始利用这些大模型提升日常工作中的生产力,乃至取代人类岗位。毫无疑问,2023 年将是大模型技术开始爆发的转折点,一场影响深远的技术革命正在徐徐拉开帷幕。

在 AI 行业内,虽然 OpenAI 凭借 ChatGPT 暂时处于领先地位,但巨大的市场前景已经吸引了一大批企业与科研机构加入大模型的战场。谷歌、Meta、百度、阿里、字节跳动、腾讯、京东、科大讯飞、盘古……一众互联网巨头、创业公司与院校纷纷发布了自己的大模型服务或计划。ChatGPT 掀起了一场 AI 军备竞赛,稍有实力的互联网企业都主动或被动地加入其中,希望牢牢把握住这一罕见的历史机遇。

突然爆发的大模型热潮也让业界对硬件基础设施的需求飙升。千亿甚至万亿级参数的超大模型需要庞大的算力支撑,运营一个典型的大模型服务一般需要数千台多 GPU 服务器。如此大的算力需求给企业带来了沉重的负担,而核心硬件的获取难度则让局面雪上加霜。

另一方面,像 ChatGPT 这样的超大通用模型在行业实践中的应用前景也受到了质疑。很多观点认为,在垂直行业中,专门为领域知识优化的中小模型可能有着更好的表现。这些中小模型所需的训练成本相比通用大模型大幅降低,并且也不会高度依赖昂贵、难以获取的 GPU 硬件,可以使用带有 AI 加速硬件的新一代 CPU 与专用的 AI 加速芯片等,更加适合行业特定用途与中小企业使用。

AI 生产力
GPU 并非唯一选项

在 AI 领域,GPU 经常被视为唯一的计算硬件选项。凭借庞大的并行计算资源,GPU 能够快速处理深度学习过程中的矩阵运算,大幅提升模型的训练和推理速度。

但由于 GPU 价格高昂、内存容量受限、供应链问题、扩展能力不足等问题,企业与开发人员开始意识到,他们可以使用 CPU 这样的解决方案,在一些 AI 生产力场景中获得更高的性价比。例如,Hugging Face 公司的首席 AI 布道者 Julien Simon 最近演示了的 70 亿参数语言模型 Q8-Chat 就运行在一个 32 核心的第四代英特尔® 至强® 可扩展处理器上,速度比 ChatGPT 快得多。Q8-Chat 是基于 MosaicML 公司开源的 MPT-7B 语言模型,并充分利用了第四代英特尔® 至强® 可扩展处理器的 AI 加速引擎来提升性能。由于 CPU 具有很好的串行计算能力,在更多依赖串行或混合计算的 AI 任务中,CPU 往往具有比 GPU 更好的性能表现。

此外,CPU 虽然在模型训练场景中的速度往往无法与 GPU 相提并论,但在推理场景中有能力提供类似的性能水平。与此同时,CPU 易于扩展内存、软件兼容与扩展能力优秀的特性,也让企业在选择 AI 推理系统的软件栈时有了更高的灵活度。正因如此,包括美团、阿里云、Meta 在内的互联网头部企业都在探索利用 CPU 提升 AI 推理与部分场景的训练性能、降低 AI 硬件采购成本、减小对特定 AI 软件栈依赖的路径。在 AI 行业,CPU 的重要性正在与日俱增。

从推荐系统到视觉推理
CPU 如何在 AI 领域大放异彩

谈到 AI 硬件,CPU 长期以来扮演的都是"绿叶"的角色。开发者一般只关心 CPU 能够支持多少 GPU 计算卡,是否能长期稳定运行,而基本不会考虑用 CPU 来承载 AI 应用的算力需求。原因也很简单,相比 GPU 来说,CPU 的并行算力实在太过低下了。

但这种局面在今天出现了转机。2022 年底,搭载 AMX 加速技术的第四代英特尔® 至强® 可扩展处理器上市,CPU 第一次在很多应用场景中获得了与高端 GPU 媲美的 AI 性能。AMX 可以被看作是 CPU 核心中专为 AI 计算设计的一种加速模块,其专为 INT8 与 BF16 计算优化,相比传统的 AVX 指令集可以提供高出一个数量级的单周期指令吞吐性能。在 AMX 的帮助下,第四代英特尔® 至强® 可扩展处理器的 AI 运算能力大幅提升,在部分领域中取得了相比 GPU 更高的性价比表现。

推荐系统

推荐系统是非常重要和普遍的人工智能应用,其通常包括知识库、主题模型、用户 / 视频画像、实时反馈 / 统计、推荐引擎等基础组件,能够对于海量数据进行分析,并根据用户的偏好为用户提供个性化的内容与服务,助力提升用户价值。

现代化推荐系统对于 AI 算力有着较高要求。阿里巴巴作为全球最大的电子商务巨头,其核心推荐系统需要实时处理天猫和淘宝全球庞大客群每秒数亿级别的请求。该系统需要确保 AI 推理任务的处理时间在严格的时延阈值范围内,从而保障用户体验;同时系统需要确保一定的推理精度,从而保障推荐质量。为了实现性能与成本的平衡,阿里巴巴最近开始在推荐系统中采用了 CPU 处理 AI 推理等工作负载,并选择了第四代英特尔® 至强® 可扩展处理器进行性能优化。

阿里巴巴与英特尔合作,利用英特尔 oneAPI 深度神经网络库,将 AMX 加速引擎应用到了核心推荐模型的整个堆栈上。在 AMX、BF16 混合精度、8 通道 DDR5、更大高速缓存、更多内核、高效的内核到内核通信和软件优化的配合下, 主流的 48 核第四代英特尔® 至强® 可扩展处理器可以将代理模型的吞吐量提高近 3 倍,超过主流的 32 核第三代英特尔® 至强® 可扩展处理器,同时将时延严格保持在 15 毫秒以下。这一表现已经媲美阿里巴巴采用的高端 GPU 方案,同时在成本、灵活性方面有更强优势。阿里巴巴的这一方案已经投入生产实践,经历了双十一购物节等峰值负载压力的考验。文章来源地址https://www.toymoban.com/news/detail-519298.html

到了这里,关于AIGC靠GPU还是CPU?高性能计算两大技术方向演变的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 免费使用高性能的GPU和TPU—谷歌Colab使用教程

    楼主前一阶段在做视频插帧算法应用,鉴于在自己的本子上跑代码是在太慢,又不好意思在跑路后还是用学院的服务器账号,所以翻来覆去学会了在谷歌使用免费的算力进行模型训练和使用。在开始使用前,请您准备自己的Google账号并熟悉Jupyter Notebook的使用 什么是 Colab? 借

    2024年02月04日
    浏览(29)
  • 客户案例:高性能、大规模、高可靠的AIGC承载网络

    客户是一家AIGC领域的公司,他们通过构建一套完整的内容生产系统,革新内容创作过程,让用户以更低成本完成内容创作。 RoCE的计算网络 RoCE存储网络 1.不少于600端口200G以太网接入端口,未来可扩容至至少1280端口 1.不少于100端口200G以太网接入端口,未来可扩容至至少240端

    2024年02月11日
    浏览(33)
  • [AIGC] 快速掌握Netty,打造高性能IM服务器!

    前言:Netty 是一个非常优秀的网络应用程序框架,支持高并发、高性能的网络通信,适用于开发各种服务器程序,如即时通讯、游戏、物联网等。使用 Netty 可以大大提升服务器程序的性能和可靠性。本文将介绍 Netty 的基本原理和使用方法,并给出一个简单的 IM 程序示例,帮

    2024年02月06日
    浏览(25)
  • [AIGC] Nginx:一个高性能的 Web 服务器和反向代理

    Nginx(engine x)是一个高性能的 Web 服务器和反向代理,它由 Igor Sysoev 于 2002 年开发,并于 2004 年首次发布为开源软件。Nginx 是当今最受欢迎的 Web 服务器之一,它在互联网上被广泛使用,支持 millions 个网站和应用程序。 Nginx 是一个免费、开源、高性能的 Web 服务器和反向代理

    2024年02月20日
    浏览(37)
  • 企业如何构建高性能计算云?

    HPC是推动科学和工程应用发展的重要组成部分。除了将处理器向Exascale迈进之外,工作负载的性质也在不断变化—从传统的模拟和建模到混合工作负载,包括企业内部和云应用,还需要整合、吸收和分析来自无数物联网传感器的数据。同时,随着HPC基础设施上的人工智能工作

    2024年02月03日
    浏览(32)
  • 高性能计算与AI融合成为刚需|什么是高性能计算?应用领域有哪些?与人工智能的关系梳理

    本文一部分转载自杨净 整理自 MEET2023量子位 算力的需求,远比以往来得更为猛烈。甚至有人直呼:得算力者得未来。 元宇宙、AIGC、AI for Science的涌现,又给高性能计算(HPC)平添了好几把火。 在诸多挑战与机遇共存交织的当下,这一领域泰斗中国工程院院士、清华大学计算

    2024年02月08日
    浏览(44)
  • 从零开始学架构-计算高性能

            高性能是每个程序员的追求,无论做一个系统、还是写一组代码,都希望能够达到高性能的效果。而高性能又是最复杂的一环,磁盘、操作系统、CPU、内存、缓存、网络、编程语言、数据库、架构等,每个都可能影响系统的高性能,一行不恰当的 debug 日志,一个

    2023年04月24日
    浏览(76)
  • 高性能计算HPC笔记(一):概论

    学习自: B站北京大学Linux俱乐部:https://space.bilibili.com/3461562830424779 学习视频:北大未名超算队 高性能计算入门讲座(一):概论 这里PPT中有个问题:客户端只上传公钥给服务器,私钥是自己保留的。 概念 SISD:用一个线程去执行一条指令。 SIMD:使用单个instruction来操作多条

    2024年01月19日
    浏览(39)
  • 【高性能计算】opencl安装及相关概念

    异构计算是一种利用多种不同类型的计算资源来协同解决计算问题的方法。它的核心思想是将不同特性和能力的计算设备(例如CPU、GPU、FPGA等)组合在一起,以充分发挥它们在不同类型的工作负载和任务中的优势。 传统的计算模型通常依赖于单一类型的处理器,如中央处理

    2024年02月11日
    浏览(38)
  • 【高性能计算】监督学习之支持向量机分类实验

    叙述支持向量机算法的基本思想; 描述支持向量机算法的整个分类过程; 利用支持向量机对给定数据集进行分类识别; 对比支持向量机在不同参数设定下的分类性能; 对支持向量机算法的分类性能进行评估。        支持向量机(Support Vector Machine,简称SVM)是一种常见的机

    2024年02月10日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包