在整个云计算领域,能让芯片规模化的用起来,是决定造芯是否成功的天花板。在拉斯维加斯的亚马逊云科技2023 re:Invent则是完美诠释了这一论调。
亚马逊云科技2023 re:Invent开幕前两个小时,有一场小型的欢迎晚宴,《星期日泰晤士报》南非站记者Arthur Goldstuck谈到:“我们可能会目睹最重要的一场re:Invent,这次亚马逊云科技的技术发布,在未来五年都会是极具意义的。”
参与者们好奇,在生成式AI几乎席卷一切的背景下,一个处于领导者地位的云厂商,将会向外界讲出怎样的人工智能故事?
如果站在未来看当下,生成式AI可能是一场大型马拉松,但亚马逊云科技现在就已经在勾勒出它的地图。在亚马逊云科技CEO Adam Selipsky长达两个半小时的演讲中,一张“生成式AI技术堆栈图”图贯穿了整场。
亚马逊云科技“生成式AI技术堆栈图”(Generative AI Stack)
从上图可见,亚马逊云科技搭建了三层AI堆栈:最底层是用于训练和推理的「基础设施层」,这里包括一些亚马逊云科技的自研芯片;中间层是微调大模型或基础模型需求的「工具层」;最上层是「生成式AI应用层」,这里包括此次新推出的生成式AI助理Amazon Q。
概括而言,亚马逊云科技正在构建一种范式,去尽可能匹配这个时代下的更多客户的更多需求,正如Adam Selipsky所说——“我们在用一种跟传统完全不同的方式探讨生成式AI概念”。
不过,正所谓见微知著,我们决定将「芯片」,作为观察今年亚马逊云科技re:Invent新发布的切入点。
摄于2023 re:Invent一角
01
十年自研,逆向造芯
很多人了解亚马逊云科技,知道它是全球领先云厂商,构建底层软件的能力非同一般。但大家可能不那么了解的是,亚马逊云科技还是一个在芯片及硬件层有深厚技术底蕴的公司。
早在十年前的2013年起,亚马逊云科技就开始自研芯片,至今已形成了一个芯片全家桶,包括四个系列:
- 构成云服务技术底层核心的虚拟化芯片Amazon Nitro
- 通用处理器芯片Amazon Graviton
- 用于机器学习的“训练”芯片Amazon Trainium和用于机器学习的“推理”芯片Amazon Inferentia
而且实际上,近年来亚马逊云科技一直在年中举办“亚马逊云科技硅芯片创新日”,与产业交流相关创新。就在今年6月的2023年芯片创新日,Amazon EC2副总裁Dave Brown回忆起2012年,当时亚马逊云科技是如何进入芯片设计的故事。一晃,已是十年。
他描述了一群领导者,包括 Peter DeSantis 和 James Hamilton,如何设想“增加一个硬件设备来增强亚马逊云科技的安全性和性能”——这个简单的想法,开启了一个全新的时代,带来了多种定制的芯片产品。
而在此次re:Invent,就有两款亚马逊云科技自研芯片有了重大升级,分别是:
- Amazon Graviton4
- Amazon Trainium2
Amazon Graviton4 和Amazon Trainium (原型) (Business Wire提供)
Amazon Graviton系列芯片,无疑是芯片发展史上浓墨重彩的发明。提起ARM架构的云端芯片,大家似乎不陌生。但如果把时钟拨回到6年前,虽然当时业界已经通过iPhone,认可了ARM架构是移动端CPU的好选择。但是,开发并规模化商用ARM架构的服务器CPU,还是前无古人的创举。
而亚马逊云科技就是那个开创者,Amazon Graviton第一代诞生于2018年,“现在接近10%的服务器总销售额是ARM,其中很大一部分来自亚马逊云科技。在CPU方面,这家公司做得很好。”Bernstein Research高级分析师Stacy Rasgon在一次接受采访中如是说。
本次大会,Amazon Graviton已经更新到第四代,但依然没有放慢高速增长的步伐。据悉,与前一代相比,Amazon Graviton4性能提升30%,独立核心增加50%,对于高并发等应用所需要的内存带宽,更提升75%,并且,还进一步通过高速物理硬件接口的完全加密提升了安全性。
熟悉造芯的朋友们都知道,设计和成功流片一颗新架构的芯片只是造芯的基本功,而能让芯片规模化的用起来,才是决定造芯是否成功的天花板。
在管理理念上,亚马逊内部有一招很特别的法门,叫做“working backwards逆向工作法”。亚马逊云科技的成功造芯,或许正与此有关。
关于“逆向工作法”,曾经贝索斯在2008年致亚马逊公司股东的信中所做解释大意如下:如果我们能很好了解顾客需求,并深信这种需求是有长期价值。那么,我们的一贯做法是——耐心探索,直至找到解决方案……从顾客需求出发的“逆向工作法”(Working backwards)与“技能导向法”(skills-forward)形成鲜明对比。
简单来说,逆向工作法,就是先研究需求,再根据需求创造相应工具;而技能导向法,则是手里拿着一个锤子,看什么都像钉子。
亚马逊云科技的造芯过程,某种程度就遵循了逆向工作法。以亚马逊云科技最早的硬件系统Amazon Nitro为例。它的出现,就是为了解决Xen架构的虚拟化系统的资源消耗问题——服务器中大概只有七成的资源能够提供给用户。而Amazon Nitro针对虚拟化损耗,提出定制化硬件的思路,最终提供了裸机的性能。
而在与用户应用关系度更紧密的CPU层面,亚马逊云科技提供了针对不同负载优化的计算实例类型,来推动芯片的落地应用,从计算密集型、内存密集型,再到存储、IO敏感、吞吐敏感、网络延迟敏感等,一应俱全。
针对最新的Amazon Graviton4,亚马逊云科技就提供了Amazon EC2 R8g内存优化性实例,可以提升客户运行高性能数据库、内存缓存、大数据分析等工作负载的效率。R8g实例相比当前一代R7g实例提供更大的实例大小,虚拟处理器(vCPU)以及内存均提升了3倍。这让用户可以处理更大量的数据、更大规模的工作负载、更快的获得运行结果,并降低总拥有成本。基于Amazon Graviton4的R8g实例现已提供预览版,并将在未来几个月推出正式可用版。
对于Amazon Graviton的设计方式,同样是从逆向工作法开始的,Amazon Graviton自发布以来,它的设计出发点就是用户的实际工作负载,而不是测试软件的benchmark。通过一个“六边形性能分析”可以看到,Amazon Graviton4相比上一代是如何在数据应用中提升性能。这些性能的提升不仅仅存在于re:Invent上,更在客户每次用实际工作负载来测试Amazon Graviton芯片中。
Amazon Graviton4的六边形性能分析,以及在Amazon Graviton3和Amazon Graviton4上运行的MySQL示例
据统计,目前由Amazon Graviton支持的Amazon EC2实例种类达150多个,已经构建的Amazon Graviton处理器数量超过200万个,并拥有超过5万客户,包括Datadog、DirecTV、Discovery、Formula 1 (F1)、NextRoll、Nielsen、Pinterest、SAP、Snowflake、Sprinklr、Stripe以及Zendesk等。例如SAP,在使用Amazon Graviton服务之后,成本降低了35%,且分析速度更快,同时减少了45%的碳排放量。
不过我猜,Arthur Goldstuck和很多人在内,在re:Invent期间更关注的一颗芯,会是Amazon Trainium系列,因为这是面向模型“训练”的芯片,而这部分,算力的瓶颈问题众人皆知。
此次大会发布的Amazon Trainium2,是一款专为基础模型和大模型而生的产品,为拥有数千亿甚至数万亿个参数的基础模型训练做了优化,相比第一代Amazon Trainium(发布于2020年12月),性能提升4倍,内存提升3倍,能效(每瓦性能)提升2倍,几乎全线超过摩尔定律所定义的范畴。
同样,亚马逊云科技也有相同的实例推动新系列的落地。Amazon EC2 Trn2实例就采用了Amazon Trainium2,一个单独实例中包含16个Amazon Trainium芯片,Trn2实例可帮助在下一代EC2 UltraCluster中扩展到10万个Amazon Trainium2,通过搭配Amazon Elastic Fabric Adapter (EFA) 网络互连,提供65 ExaFlops超算级性能。基于此,客户只用几周就能训练出有3000亿个参数的大模型,这约是OpenAI的大模型GPT-3大小的1.75倍。
在这场发布的间隙,在采访中被问道“造芯对于客户带去什么价值”时,亚马逊云科技全球汽车及制造行业专业服务团队负责人Jon Allen表示:
“客户想要更快的、更便宜的东西,这是基本原则。”无疑,这也是非常“逆向工作法”的一个回答。他以汽车业务举例,“真正训练一辆自动驾驶汽车,起码得开车跑900万英里,如果用传统方式做数据训练,很多OEMs客户可能根本负担不起”。
02
生成式AI大时代,有自研,但不影响联盟
虽然亚马逊云科技一直持续自研芯片,但是封闭并非这家公司的基因。而在生成式AI时代起决定性作用的另外一家巨头,英伟达创始人兼CEO黄仁勋穿着标志性皮衣,甚至作为此次re:Invent的首位上场的合作伙伴,与Adam Selipsky进行了一场对话,在对话中黄仁勋提到:
“生成式AI正改变各种云端负载,为多元内容创作在底层注入加速计算动能。我们的共同目标是,为每个客户提供具有成本效益的先进生成式AI,为此英伟达与亚马逊云科技在整个计算堆栈展开合作,横跨AI基础设施、加速库(acceleration libraries)、基础模型、以及生成式AI服务。”
在真正的创新者面前,重要的不是是否有竞争,而是双方是否有能满足客户需求的能力,显然,亚马逊云科技和英伟达都在对方身上看到了这一点。
“GPU和GPU之间用NV link连接方式让我们的GPU可以直接存取CPU的记忆体,CPU可以直接使用GPU的记忆体,这是非常快地进行的。在更大的网络中,通过Grace Harper链接在一起。Amazon Nitro可以将GH变成一颗巨大的虚拟化的GPU。这么多的实例,我们可以跟亚马逊云科技EFA兼容起来用,这也是非常快速的速度来运用的,所有单元都可以变成超级的集群。”黄仁勋说道。
约13年前,亚马逊云科技是第一家把英伟达GPU芯片带到云上的云厂商,而接下来,双方还将扩大合作,主要包括四个方面:文章来源:https://www.toymoban.com/news/detail-755563.html
- 亚马逊云科技成为第一家在云端配备英伟达GH200 Grace Hopper超级芯片的云厂商。英伟达GH200 NVL32多节点平台为运用英伟达NVLink与NVSwitch技术连接32个Grace Hopper Superchips组成的实例。此平台将在Amazon Elastic Compute Cloud(Amazon EC2)实例上可用,与亚马逊云科技的网络相连,由虚拟化(Amazon Nitro System)及超大规模集群(Amazon EC2 UltraClusters)提供支持,让共同客户能扩展至数千个GH200超级芯片。
- 在亚马逊云科技平台上将推出英伟达DGX Cloud NVIDIA AI“训练即服务(AI-training-as-a-service)”。此服务将是首个配置GH200 NVL32的DGX Cloud,为开发者提供单一实例中最多的共享内存。在亚马逊云科技上运行的DGX Cloud将加速训练含有超过1兆参数的尖端生成式AI与大型语言模型。
- 英伟达与亚马逊云科技合作推动Project Ceiba,构建全球最快的GPU驱动的AI超级计算机,这是一个配备GH200 NVL32与Amazon EFA互连技术的大规模系统,该系统部署在亚马逊云科技上,为英伟达研发团队提供服务。该超级计算机将前所未有地配置16384颗英伟达H200超级芯片,能处理65 exaflops(衡量超级计算机性能的单位,每秒浮点运算可达一百亿亿次)速度等级的AI运算,英伟达使用该超级计算机推动其全新生成式AI的创新。
- 亚马逊云科技将推出三款Amazon EC2实例:P5e实例配置英伟达H200 Tensor Core GPUs,针对大规模与尖端生成式AI及HPC高性能运算工作负载;分别配置英伟达L4 GPUs与英伟达L40S GPUs的G6与G6e实例,可运行包括AI微调、推理、绘图以及影片工作负载等广泛应用。G6e实例特别适用于开发3D工作流程、数字孪生、以及其他使用英伟达Omniverse的应用,用来连接与构建各种生成式AI的3D应用。
提到大模型,总有人认为这是巨头的游戏。但是Jon Allen不这么看,“对中小企业和创业公司来说,我们的AI芯片带给他们与宝马等汽车巨头相同的计算能力。十年前的硅谷,只有十几人的小公司根本无法负担高昂的算力(与大玩家竞争)。现在不一样了,AI芯片确实创造了新机会。“文章来源地址https://www.toymoban.com/news/detail-755563.html
到了这里,关于云计算如何创芯:“逆向工作法”的性感之处的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!