AMD CTO访谈全文:AI推理芯片需求猛增,GPU供应短缺必将缓解

这篇具有很好参考价值的文章主要介绍了AMD CTO访谈全文:AI推理芯片需求猛增,GPU供应短缺必将缓解。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

AMD在这场AI芯片热潮中一路狂奔,华尔街仍用空前的热情为“英伟达最强劲的挑战者”买单。3月1日,AMD继前一日大涨9%后再涨超5%,股价创收盘历史新高。本周累涨14.8%,今年迄今涨幅达到30.6%。

AMD CTO及执行副总裁Mark Papermaster近期参加了播客节目《史无前例:人工智能、机器学习、技术与初创企业》,回答了AMD的战略、最新的GPU进展、推理芯片部署的位置、芯片软件栈,以及他们如何看待供应链,投资者应该对于2024年的AMD有哪些期待等问题。

主要内容包括:

与竞争对手相比,AMD的MI300芯片提供了更高的性能、更低的功耗和更少的架构空间,实现了更高效的计算。

AMD致力于开源因为它强化了合作和创新,通过不断开放其关键技术如ROCm软件堆栈,让客户可以自主选择,而不是把客户困在封闭系统中。

AMD确保其产品在主流深度学习框架上经过彻底测试和认证,并提供了高性能、稳定且易于部署的解决方案。

AMD获得了大量对AI定制推理芯片的需求,这些需求覆盖了广泛的嵌入式应用场景。因此,随着这一趋势的发展,AMD将提供更多定制化计算产品来回应这一需求

当前GPU的供应仍然受到限制,但随着供应链逐步完善,未来供应限制将会消失。

电力是芯片产能后一个关键的限制因素。所有大型大语言模型运营商都在寻找电力来源,对于AMD这样的开发者来说,应该更关注能效,我们会在设计的每一代产品中推动能效的提高,这绝对是最高优先级之一。

摩尔定律正在放缓,而AMD异构计算可以为不同的应用部署合适的计算引擎,如在个人电脑和嵌入式设备中配置超低功耗AI加速器,利用芯片组合成一个整体,选择最佳技术节点,并考虑软件堆栈的设计。

步入云计算时代,计算负载越来越多地转移到服务器上,因此AI硬件公司在设计产品时应将减少延迟作为主要考虑。

2024年AMD将完成对其整个产品组合的AI效能,预计在云端、边缘计算、个人电脑、嵌入式设备及游戏设备等方面实现重大部署。

以下为全文问答整理:

问:你能先告诉我们一些你的背景吗?你研究了各种有趣的东西,从iPhone和iPad到最新一代的AMD超级计算芯片。

:当然,我在AMD有一段时间了。真正有趣的是,我进入这个行业的时机非常好,作为德克萨斯大学电气和计算机工程专业的毕业生,我对芯片设计非常感兴趣,而我又生在芯片设计正在彻底世界的时代,今天每个人都在使用这种并研究技术。CMOS刚刚投入生产和使用。所以我参加了IBM的第一个CMOS项目,并创建了一些第一个设计。

我必须亲自动手,从芯片设计的每一个方面,在IBM工作了几年,我担任了不同的角色,推动微处理器的发展。首先,在IBM公司,有电力公司的PC。这意味着与苹果和摩托罗拉合作,以及我们在大型主机和大型风险服务器中使用的大型计算芯片。

真正得到了技术的各个方面,包括他们的一些服务器开发工作。但后来转向了苹果。史蒂夫·乔布斯(Steve Jobs)雇我运营iPhone和iPod。所以我在那里呆了几年。这是一个行业在下午发生重大转变的时刻。对我来说,这是一个很好的机会,因为我在2011年秋季结束了在AMD的工作,既是首席技术官,又负责技术和工程。就在摩尔定律开始放缓的时候,因此需要巨大的创新。

:是的,我想谈谈这一点,以及我们在计算创新方面可以期待什么。如果我们不只是在做梦,芯片上更多的晶体管无法做到这一点。我想,我们的每一位听众都听说过AMD,但你能简要介绍一下你服务的主要市场吗?

答:AMD是一家有50多年历史的故事公司。它一开始作为第二供应商公司,带来了真正关键组件和x86微处理器。但你快进到我们今天所处的位置,这是一个非常广泛的投资组合。10年前,当我们的首席执行官Lisa Su以及我进入公司时,使命是让AMD重新获得非常非常强大的竞争力。

超级计算一直是AMD的重点。大约十年前,我们就开始恢复我们的CPU路线图。我们重新设计了我们的工程流程,其中之一就是采用更加模块化的设计方法,即我们开发可重复使用的部件,然后根据应用需求将其组合在一起。

我们投资开发了一系列新的高性能CPU,同时还努力将GPU提升到更高性能。这两种类型的处理单元都很重要,因为超级计算就是异构计算。它需要CPU和GPU协调工作,共同完成最繁重的任务。

世界上最强大的超级计算机就采用了AMD第三代霄龙7A53 64核心处理器和Instinct MI250X GPU加速器。

就在2022年2月,AMD收购半导体制造商Xilinx,对电子行业的合并产生重大影响,从而进一步扩大了投资组合,这次收购扩大了AMD的投资组合,使其在超级计算机、云计算、游戏设备和嵌入式设备等领域都有所涉足。AMD还收购了平桑托公司,进一步扩展了产品组合。

:AMD在过去的十年里公司取得了令人瞩目的成就,尤其是在人工智能领域。自从你加入公司以来,一直在强调人工智能的重要性。过去十年中,人工智能的应用发生了巨大的变化,不仅包括传统的卷积神经网络(CNN)和循环神经网络(RNN),还包括变压器模型、扩散模型等新型架构的应用。

你能告诉我们更多关于最初在人工智能领域引起你注意的事情吗?那么随着时间的推移,AMD是如何开始越来越关注这一点的呢?你想出了什么样的解决方案?

: 我们都知道人工智能的发展早就开始了,竞争开始于应用程序领域的开放。而AMD的GPU在这场竞赛中发挥了关键作用,特别是在图像识别和自然语言处理方面的准确性提升方面。AMD意识到了人工智能领域的巨大机遇,并制定了深思熟虑的战略,以成为该领域的领导者。

因此,看看AMD在2012年到2017年之间的情况,其大部分收入主要基于个人电脑(PC)和游戏领域。

所以,关键是确保投资组合在构建系统模块化方面具有竞争力。这些基石必须是在领域的领导力,必引人们在AMD平台上使用高性能应用程序。因此,首先,我们实际上必须重建CPU路线图。那就是我们发布了Zen微处理器,在个人电脑上有一个Rising系列,以及在x86服务器系列中的Epic。所以这开始了公司的收入增长,并开始扩展我们的投资组合。

大约在同一时间,当我们看到异构计算的发展方向时,在我加入公司之前就已经提出了异构计算的理念。在Lisa加入公司之前,AMD进行了一次重大收购——收购了GPU制造商ATI,从而将GPU技术纳入了公司的产品组合,这是我被AMD的CPU和GPU技术吸引而加入了公司的原因。

事实上,它是唯一一家将CPU和GPU融合到一起的公司。对我来说,行业需要串行、标量、这些传统CPU工作负载的竞争,以及从GPU获得的大量并行处理能力, 因此AMDk考虑通过异构计算模式将它们结合在一起,以满足不同类型的计算需求。

我们早在2011年就开始为个人电脑应用程序制造联合CPU和GPU芯片,这比任何其他公司都要早。我们称之为APU(加速处理器单元)。然后,对于大数据应用程序,我们首先从HPC(高性能计算技术)开始,这种技术在国家实验室中使用,也在石油勘探公司中使用。因此,我们首先专注于大型政府招标项目,最终导致了我们在世界上最大的超级计算机中拥有AMD CPU和MDGP US。

这项工作几年前就开始了,它同样是硬件和软件的努力。我们一直在建立这种硬件和软件能力,直到去年的2023年12月6日,我们宣布了我们的旗舰产品MI300,分别为纯 GPU 的 MI300X 与 APU 架构的 MI300A,均采用 HBM3 内存,容量 192GB / 128GB。也是为高性能人工智能应用程序优化的一个变体,能够同时面向训练和推理。

所以这是一个漫长的旅程,我们很高兴我们的销量开始起飞。

:现在太棒了,我猜当你推出MI300时,你得到了Meta、微软购买它的承诺。刚刚提到你对一系列应用程序感到非常兴奋。你能告诉我们更多关于你最感兴趣的或者今天最看好的应用程序以及云端应用部署的方面吗?

:当然,当考虑到人工智能的主要应用领域时,你仍然会看到巨大的资本支出,为了提升大语言模型的准确性,包括训练和推理领域。这些模型像ChatGPT、Bard和其他语言模型一样,您可以向它们询问任何问题,它们试图吸收海量的数据,来对模型进行训练,这的确是人工智能和通用人工智能的终极目标。

这就是我们的重点所在。MI300是为了开始实现这一目标的,它是一个可以与行业领导者竞争的典范产品。事实上,MI300已经做到了,它在训练方面具有竞争力,且在推理方面领先,具有巨大的性能优势。我们为训练或推理处理所需的数学处理创建了非常高效的引擎。但我们也提供了更多的内存,以实现更高效的计算。

与竞争对手相比,MI300提供了更高的性能、更低的功耗和更少的机架空间,实现了更高效的计算。

问:竞争的一个重要方面,正如你刚才指出的那样,包括性能,例如整体性能,还有效率,以及软件平台等等。你如何考虑在优化数学库上的投资?你希望开发人员如何理解你们的方法?与竞争对手相比,你们的指导方式是什么?

答:这个问题非常好,在这个芯片领域竞争是多方面的。你会看到很多初创公司进军这个领域,但大部分的推理工作目前都是在通用目的的CPU上完成的,对于大型语言模型应用,几乎都是在GPU上完成的。

由于GPU在软件和开发人员生态系统中占据主导地位,因此AMD开始关注GPU的发展,在硬件和软件方面取得了成就。我们在CPU上是有竞争力的,我们的份额正在快速增长,因为我们拥有一代又一代非常强大的CPU。

但对于GPU,直到现在我们才真正开发出世界一流的硬件和软件。我们所做的是确保GPU的部署过程尽可能简单,强调利用所有GPU的语义,使得编码变得更加容易,尤其是对于使用低级语义的编码人员而言。我们支持所有重要的软件库和框架,包括PyTorch、ONNX和TensorFlow等,与开发人员密切合作,以确保他们的GPU能够与各种不同的软件环境无缝集成,并为开发人员提供灵活和高效的工具。

现在,由于我们拥有具有竞争力和领导力的产品,你会看到当你们使用AMD进行部署时非常容易。比方说,AMD与Hugging Face等合作伙伴紧密合作,确保他们的大语言模型在AMD平台上进行测试,并保证在与英伟达等其他平台上的测试结果表现相当。

同样,AMD在PyTorch等主流深度学习框架上也进行了测试,并成为了少数几个获得认证的产品之一,意味着AMD与他们的产品完全兼容。AMD也会定期进行回归测试,确保产品在各种情况下的稳定性和可靠性。AMD积极与客户合作,包括与一些早期采用其产品的公司合作,以获取反馈并优化产品。这有助于AMD确保他们的产品能够顺利部署,并在现有的业务环境中无缝运。

另外,AMD与一些早期合作伙伴进行合作,帮助他们将自己的大型语言模型(LLMS)部署到AMD的云端和机架配置中。这种合作意味着AMD已经开始与客户合作,并提供服务,以确保他们的产品能够在客户环境中顺利运行。

在AMD的十二月活动中,其他合作伙伴也站在了舞台上,这表明AMD与其他重要的合作伙伴合作,其中包括一些超大规模的合作伙伴。这种合作扩大了AMD的合作范围,并有助于将其产品推广到更广泛的市场。AMD还与许多OEM应用程序进行销售,并直接与客户合作。通过与客户直接合作,AMD可以更好地了解客户需求,并根据反馈加速产品的改进和优化过程。

这是一个非常受限制的环,缺乏竞争对每个人都不利。顺便说一句,如果没有竞争,行业最终会停滞不前,您可以看看在我们带来竞争前的CPU行业。它真的变得停滞不前了。你只是得到了渐进的改进。行业知道这一点,我们与众多伙伴建立了巨大的合作关系,我们对此非常感激。

作为回报,我们将继续提供一代又一代有竞争力的产品。

问:谈一谈rocm软件栈的开源原因、动机或者价值观。

: 这是个好问题,ROCm是AMD的开源GPU计算软件堆栈,旨在提供一个可移植、高性能的GPU计算平台。对于公司来说,开源是一个非常重要的问题,因为他们非常注重合作和开放的文化。开源技术将技术开放给了整个社区,这有助于推动技术的发展和创新。AMD的历史上一直致力于开源,CPU编译器LLVM就是一个开源项目。除了CPU编译器和GPU之外,我们还开放了ROCm软件堆栈,是他们的基础架构,对于赢得超级计算方面起着重要作用。选择支持开源的原因是因为相信这种开放的理念,同时强调这也是公司的理念之一。

所以,在2002年将 Xi Links 和 AMD 结合在一起,我所做的不仅仅是加深了对开源的承诺,关键是,我们不想通过专有的封闭式软件堆栈来锁定某人。我们想要的是以最佳解决方案取得胜利,我们致力于开源,并且致力于为我们的客户提供选择。

我们期望凭借最佳解决方案获胜,但我们不会将客户困在某一特定选择中。我们将凭借一代又一代的优势赢得胜利。

:我认为目前发展迅速的一个领域是人工智能计算的云服务。显然,有来自微软的Azure、亚马逊的AWS和谷歌的GCP这样的超级云服务提供商。但也有其他新兴的参与者,比如BaseTen和ModalReplicate等。可以说,它们在提供不同的工具、API端点等方面提供了差异化的服务,而这些超级云服务提供商目前尚未具备。另外,它们部分原因是拥有GPU资源,而目前GPU资源短缺,这也推动了它们的利用率。在未来3到4年内,您如何看待这个市场的发展?也许GPU会变得更加易于获得,不再出现短缺或限制的情况?

:这确实正在发生。我认为供应受限的情况将会消失,这是其中的一部分。我们正在加紧生产和发货,进展得相当顺利。但更重要的是,回答您的问题,我认为应该这样考虑:市场正在以令人惊叹的速度迅速扩张。我之前说过,今天大多数的应用程序都是从这些大规模的语言模型开始的,这些模型主要基于云,且不仅仅是基于云,而是基于超大规模的云,因为这需要一个庞大的集群,不仅用于训练,而且实际上还用于许多类型的生成型语言模型的推理。

但现在发生的情况是,我们看到一个接一个的应用程序呈非线性增长。我们看到的是一种泛滥现象,人们开始理解他们如何定制他们的模型,如何微调它,如何拥有更小的模型,不需要回答任何问题或支持任何应用程序。但它可能只是适用于您业务领域的某个专业领域。因此,这种多样性使得计算规模以及如何配置集群的需求变得非常丰富多样。市场正在迅速扩展,您需要为计算集群配置特定于应用程序的配置。它甚至进一步发展,不仅仅局限于这些庞大的高规模超大规模,而是向着我将其称为数据中心的阶层转变。

这一切都源于,当您考虑那些真正定制的应用程序时,它们可以在边缘设备上运行,直接在您的工厂车间实现非常低的延迟,将语言模型放在数据创建的源头,直接面向最终用户设备。

我们已经将我们的AI推理加速器集成到我们的个人电脑中,并在整个2023年持续发货。实际上,今年SES已经宣布了我们下一代AI加速个人电脑。而且,随着我们的Xilinx产品组合覆盖到嵌入式设备,我们从行业中获得了很多对定制推理应用的需求,这些需求覆盖了广泛的嵌入式应用场景。因此,随着这一趋势的发展,我们将看到更多定制化的计算安装,以满足不断增长的需求。

:很有道理,未来很大一部分或一小部分的推理(AI计算任务)将会被推向边缘计算。很明显,我们将在设备上,无论是笔记本电脑还是手机上,运行一些小型模型。这里提到的“边缘计算”指的是在数据产生地点附近进行数据处理,而不是将数据发送到数据中心或云进行处理。这样可以减少延迟,提高处理速度。

至少在短期内,对于大型模型或大型数据中心可能存在一些持续的潜在限制因素,关于GPU供应侧面临的主要限制因素是什么?包括封装问题、台积电的产能,以及其他可能的限制因素?有些人说在处理当前的限制之后,下一个问题是数据中心是否有足够的电力来运行这些设备。并且有点好奇应该如何考虑这些限制因素,以及供需状况何时能够更加平衡?

:坦率的说,供需平衡实际上是任何芯片制造商都必须管理的问题,你需要确保你的供应。回顾疫情期间,我们的设备需求大增,这使得我们的供应链紧张,因为当时PC电脑的需求大幅上升,人们在家工作,我们的X86服务器的需求也大幅上升。因此,在疫情期间,我们处于"紧急模式"。我们做得很好,虽然有基板短缺,但我们增加了更多的基板制造能力。

我们与我们的主要晶圆代工供应商台积电合作,与他们建立了深入的合作伙伴关系,我们已经合作了几十年。如果我们能提前预判并理解市场信号,我们通常能够满足供应,如果有短缺,通常也能够得到良好的控制。关于人工智能,很明显我们看到了需求的大幅增加。

晶圆厂正在作出响应,你必须不仅仅认为这是晶圆厂的问题,你绝对正确。关于封装,我们和我们的GPU竞争对手都使用了先进的封装技术。我会给你看的。虽然摄像头可能无法清楚地显示,但这是我们的MI300。你看到的是一整套芯片组。所以是较小的芯片,具有CPU功能、IO和内存控制器。它可以是我们专注于高性能计算的版本的CPU。

我们直接将我们的CPU芯片集成在同一个系统中。还有周围所有的高带宽内存,以供给这些引擎。这些芯片是侧向连接的,在MI300上,我们也将这些设备垂直连接。所以这是一个复杂的供应链,但我们在这方面非常非常擅长。我们是一家出色的公司,已经有18年了。我们的AMD供应链团队做得非常好,我认为总体来说,行业将会超越这类供应限制。

现在你提到了电力。我认为,这最终将是一个关键的限制因素。你看到所有主要的运营商都在寻找电力来源,对于我们这样的引擎开发者,这些引擎消耗的电力,我们非常关注能效,并且我们会在我们设计的每一代产品中推动能效的提高。这绝对是我们的最高优先级之一。

:随着摩尔定律的终结,即集成电路上可容纳的晶体管数量每两年翻倍的速度放缓,如何通过创新来继续提高计算能力成为了一个重要话题。你曾经表示,这种挑战激发了你加入AMD的兴趣,特别是想了解AMD将如何在不同的创新方向上进行投资。此外,对三维堆叠技术表示好奇,希望以通俗易懂的方式获得解释,这是一种通过垂直堆叠芯片来增加集成度和性能的技术。

:关于3D堆栈技术,简单来说,它是一种先进的封装技术,可以将多个芯片层叠在一起,从而提高了集成度和性能,同时还可以节省空间。当摩尔定律放缓时,芯片技术自身从一个代际过渡到下一个代际的能力降低了,这意味着我们不能再依靠新的半导体技术节点来缩小设备尺寸、提高性能、降低功耗并维持相同的成本。

因此,现在需要更多的创新,要求全面的设计思维,比如依赖于新的器件转换、新的晶圆节点技术。

而异构计算,意味着为合适的应用带来正确的计算引擎,例如我们在个人电脑和嵌入式设备中拥有的超低功耗AI加速器。这关乎为特定应用量身定制引擎,利用芯片组合成一个整体,选择最佳技术节点,并考虑软件堆栈的设计。这种优化需要从晶体管设计做起,一直到计算设备集成的全过程,并且还要兼顾软件堆栈和应用程序的视角。与所有在AMD工作的工程师一样,我为有机会进行这些工作而感到兴奋,因为我们拥有构建这些的基石,而且AMD的文化中内建了合作精神,不需要开发整个系统或应用程序堆栈,而是通过深入合作来确保解决方案的优化。

问:如何在当前全球政治经济格局中,确保芯片制造的安全和供应链的稳定性?

:我们必须考虑这些问题。我们非常支持与国际间互相合作,确实存在这样的问题:现在如何依赖芯片设计来运行那些至关重要的系统,确保供应连续性成为国家安全的问题。

因此,我们将这一点纳入我们的战略,并与我们的合作伙伴一起构建它。我们支持晶圆厂的扩张。你看到台积电在亚利桑那建造晶圆厂,我们与他们合作。你看到三星在德克萨斯建造晶圆厂,但不仅仅是在美国,我们实际上也在全球范围内扩张,比如在欧洲和亚洲其他地区的设施。

这种情况超出了代工厂的范畴,包装也是同样的问题,当你把芯片放在载体上时,你需要互联,你需要那个生态系统也具有地理多样性。

我们认为,让每个人都知道将会有地理多样性是非常重要的事情。我们正深度参与其中。实际上,我对我们所取得的进展感到非常满意。这不是一夜之间就能发生的事情。这是芯片设计与软件之间的区别。有人不能用软件,你可以迅速地提出一个新想法,并将产品非常迅速地推向市场,设计出最小可行产品,推出去,它可以迅速流行。但是,扩大供应链确实需要数年的准备工作,整个半导体行业从历史上看也是这样建立起来的。这是一个全球性的产业链,将会创造地理上的专业知识集群

这就是我们今天所处地位,但是当我们今天面临更加动荡的宏观环境,分散制造能力就显得尤为重要。这项工作已经在进行中。

问:怎么看AI硬件的发展?AMD现在为许多有趣的设备和应用提供动力没,今天在构建的东西怎么样?有Vision Pro,有Rabbit(这是一种以AI为首的设备),这种以健康为中心的HumanE,还有Figure。看起来像是突然间有很多新的硬件设备爆炸性的增长。我很好奇想知道你的观点,你认为是什么趋势预示了这些产品的成功?什么趋势可能预示着失败,我们应该如何看待这些新的事物和设备的集合

:这个问题非常好。我会从技术的角度开始,作为芯片设计师,这些不同类型的硬件同时产生的原因你应该感到自豪,因为你得到的计算能力越来越强,体积缩小了,而且功耗非常低。

你可以看到越来越多的设备,它们拥有令人难以置信的计算和视听能力。你看Meta Quest和Vision Pro这样的设备,这不是一夜之间发生的。你看早期的版本,它们太重了,太大了,计算能力不够。

因为如果你头戴设备的屏幕上看到光子和实际处理之间的延迟太高,你真的会在佩戴它并试图观看电影或玩游戏时感到身体不适。

首先,我为我们作为一个行业所取得的技术进步感到自豪。我们当然非常自豪于AMD在这方面的推动,但你提出的更广泛的问题是,你如何知道什么会成功?技术是一个邻居。

但如果有一件事我在苹果学到的是,真正成功的设备是满足需求的。它们真的给了你一个你喜欢的能力。这不仅仅是增量的。我可以做一些比我之前做的事情稍微好一点的事情。它必须是你喜欢的东西,创造一个新类别。它是由技术启用的,但产品本身必须真正激发你的兴趣,并给你新的能力。我会提到一件事。我提到了PC中的AI使能。我认为这几乎会使PC成为一个新类别。因为当你想到你将能够运行的应用类型,超高性能,但又低功耗的推理你可以运行。想象一下,现在如果我根本不会说英语,我正在观看这个播客。假设它是现场直播的,我点击我的实时翻译。我可以将它翻译成我的口语,没有可察觉的延迟。这只是无数新应用中的一个将被启用的。

是的,我认为这是一个非常有趣的时期,因为多年来,像AMD这样的公司从中受益,对吧?

你也在数据中心,但有如此多的计算负载移动到服务器,对吧?云的时代,所有这些复杂的消费者社交应用程序的时代。我认为在新时代,试图创造体验和战斗,像所有这些新的应用公司都在作为一个主要考虑因素而战斗延迟,因为你有网络,模型慢。你在尝试改变模型,你有事情想要在设备上再做一次。我只是觉得这已经有一段时间没有像一个真正的设计考虑了。先生,我同意你的看法。我认为这是下一组挑战之一,那就是真正解决不仅仅是在云端、边缘这些用户设备上启用高性能和AI应用的想法。

问:2024年AMD有什么部署?

答:对于我们来说,这是重要的一年,因为我们花了很多年时间发展我们的硬件和软件以支持人工智能,我们刚刚完成了对我们整个产品组合的AI使能。所以云端、边缘、我们的个人电脑、我们的嵌入式设备、我们的游戏设备,我们正在使我们的游戏设备通过AI进行升级,2024年对我们来说真的是一个巨大的部署年。

所以现在基础已经打好,能力也已经具备。我跟你们提到了我们所有的合作伙伴。2024年对我们来说是一个巨大的部署年份。我认为我们在人工智能领域经常被忽视,每个人都知道我们的竞争对手,但我们不仅想在人工智能领域被认识,而且基于结果、基于能力和我们提供的价值,我们希望在2024年被认为是真正使人工智能在云端、在大规模LLM训练和推理中用于再生性AI的广泛应用中得到启用并普及的公司,同样也是在整个计算领域中。

我认为这也是应用程序的扩展组合开始活跃的一年。我看看微软在谈论什么,在他们正在做的能力启用方面,从云到客户端。这是非常令人兴奋的。许多和我谈过的独立软件供应商(ISVs)都在做同样的事情。而且坦率地说,萨拉,他们正在解决你问的那个问题,我如何编写我的应用程序,以便我给你最好的体验,同时利用云端和你手中或在你的笔记本电脑上运行应用程序的设备。

所以这将是一个变革性的一年,我们在AMD感到非常兴奋,似乎处在了这一切的中心。文章来源地址https://www.toymoban.com/news/detail-839301.html

到了这里,关于AMD CTO访谈全文:AI推理芯片需求猛增,GPU供应短缺必将缓解的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • AI芯片:神经网络研发加速器、神经网络压缩简化、通用芯片 CPU 加速、专用芯片 GPU 加速

      神经网络研发加速器 神经网络编译器组成:编译器、图表示、图优化、计算优化、代码生成。   神经网络编译器 问题: 如何将高级别的神经网络模型有效转换为在多种硬件上运行的优化代码? ONNX的角色: 统一格式 :ONNX提供了一个标准化的格式来表示不同深度学习框架中

    2024年01月21日
    浏览(47)
  • AI芯片架构体系综述:芯片类型CPU\GPU\FPGA\ASIC以及指令集CSIS\RISC介绍

    大模型的发展意味着算力变的越发重要,因为大国间科技竞争的关系,国内AI从业方在未来的一段时间存在着算力不确定性的问题,与之而来的是许多新型算力替代方案的产生。如何从架构关系上很好的理解计算芯片的种类,并且从计算类型、生态、流片能力等多角度评估算

    2024年02月04日
    浏览(51)
  • AMD GPU虚拟化

    在GPU虚拟化场景下Linux内核层一般需要二套driver,一套是是常规的VF driver(比如amdgpu.ko、amdkfd.ko), 另一套是PF driver(比如gim.ko)用来sriov的初始化(SR-IOV extended capability),vfid的配置等。其中PF driver运行于Host侧,而VF driver运行于虚拟化VM侧,gim.ko和amdkfd.ko/amdgpu.ko之间可以通过Mailbox和

    2024年02月06日
    浏览(41)
  • AMD GPU内存管理(1):概览

    参考内核代码:Linux-6.1/driver/gpu/drm/amd HMM 待更新...... dumb buffer create/map         在AMDGPU的Graphics业务中,用到了GEM(Graphics Execution Manager),它是用于内核内部管理图形缓冲区,用户空间进程可以通过GEM来创建、处理和销毁GPU中视频内容的内存对象。如下是AMD GPU注册得drm_driver回

    2023年04月17日
    浏览(35)
  • AMD GPU 内核驱动架构分析(一)

    和CPU相比,GPU中包含了大量的并行计算单元,适合处理像素,矩阵,坐标等大量同类型的数据,因此,很多LINUX上的应用程序为了能够利用GPU的加速功能,都试图和GPU直接打交道,因此,系统中可能有多个组件或者程序同时使用GPU,比如桌面系统中OpenGL的实现MESA。这样会带来

    2024年02月09日
    浏览(64)
  • AMD GPU安装运行stable diffusion

    本文操作环境为Windows10/11+AMD AI绘画是一种利用人工智能技术进行绘画的方法。它可以通过机器学习算法来学习艺术家的风格,并生成类似于艺术家的作品。最近,AI绘画技术得到了很大的发展,许多公司和研究机构都在进行相关的研究和开发。例如,OpenAI最近推出了一个名为

    2024年02月05日
    浏览(48)
  • AMD GPU内存管理(2):GEM/TTM

    参考内核代码:Linux-6.1/driver/gpu/drm/amd 一、背景 在AMD的Linux GPU驱动中,只有计算相关的业务(amdkfd)直接使用TTM来allocate/free内存,当然在dma-buf来进行进程间通信内存共享时也用到了GEM。而在图形相关业务中既使用了GEM也使用了TTM。下面对GEM和TTM的核心结构和函数进行剖析。 二

    2024年02月10日
    浏览(43)
  • AMD芯片使用Stable-Diffusion

    由于A卡的Stable Diffusion工具的逐步完善,之前只能使用CPU跑,现在已支持AMD显卡进行AI绘图。 官网链接:https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-AMD-GPUs 按官方教程,我安装有异常情况,这里推荐使用:B站秋葉aaaki的【AI绘画】Stable Diffusion A卡专用整合包(

    2024年04月11日
    浏览(53)
  • 几种开源GPU驱动(NV/AMD/Intel)编译&架构分析

    2022年5月,社区终于等到了这一天,NVIDIA开源了他们的LINUX GPU 内核驱动, Linux 内核总设计师 Linus Torvalds 十年前说过的一句话,大概意思是英伟达是LINUX开发者遇到的硬件厂商中最麻烦的一个,说完这句话之后,祖师爷毫不客气的朝着镜头竖了中指并表达了对NVIDIA身体某部的亲

    2024年02月16日
    浏览(47)
  • 漫画 | 芯片战争50年,Intel为什么干不掉AMD?

    1957年,晶体管之父、诺贝尔物理学奖获得者肖克利的实验室发生了一次“兵变”。 八位学者受不了肖克利的学阀式管理,决定自立门户。 “八叛徒”获得了仙童公司的投资,成立了仙童半导体,这“八叛徒”都是科学天才,他们率先使用硅来制作晶体管,还发明了集成电路

    2024年02月07日
    浏览(48)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包