AMD:NASDAQ投资者会议记录

发布于: 雪球转发:0回复:0喜欢:13

### Advanced Micro Devices Inc. (NASDAQ:$AMD(AMD)$ ) NASDAQ投资者会议 2024年6月11日 9:45 AM ET

#### 公司参与者

Jean Hu - 执行副总裁、首席财务官兼财务主管

#### 会议通话参与者

未确认分析师

未确认分析师:

我告诉大家,我花了75%的时间在谈论人工智能。Jean Hu CFO,很高兴你能来。我想我们可以先谈谈一些动态变化。你刚刚参加了Computex,通常这是一个PC展会,但它展示了两家公司的AI路线图。也许我们可以从这里开始。两个有趣的领域是IPC和数据中心AI。也许我们可以先说说这些,然后再回答一些问题。

Jean Hu:

是的,首先感谢。感谢你们的邀请,也感谢大家今天下午的参与。你说得对,我们在Computex上确实非常激动人心。AMD有很多公告。我们的CEO Lisa Su实际上做了主题演讲,并揭示了领导的CPU、GPU和MPU架构,实际上AMD是唯一一家从数据中心到PC,再到我们嵌入式业务(即Xilinx FPGA业务),提供涵盖CPU、GPU和MPU的端到端解决方案的公司。我们认为边缘AI将在未来实现。所以我们有一个广泛的产品组合来覆盖所有领域。

回到公告方面,第一个是AIPC,因为它是一个消费者展会,我们实际上宣布了关于我们在AIPC 300系列中的权利。它是针对高级实际事物笔记本电脑的。它实际上有GP和最新的GPU和NPU,所有这些都在一个芯片上。微软的顶级型号是40 teraflops——我们实际上有20%的更多计算能力,我们是唯一一个达到50 teraflops来真正推动Copilot plus的公司。所以这是一个非常令人惊叹的产品。它将在七月上市。我们还宣布了我们的Ryzen 9000桌面处理器。它也在AI推理中具有领导性能。这是在PC方面的情况。

在数据中心方面,我们实际上预览了我们的下一代Gen 5 EPC CPU服务器,它被命名为Torrent,以显著扩展我们在每瓦性能和每美元性能方面的领导地位。这将在今年下半年推出,非常令人兴奋。但最重要的是,我们实际上预览了我们的GPU AI加速器路线图,每年都有更新。今年晚些时候,我们将推出MI325,它将拥有288GB HBM3E内存,具有显著的内存容量和带宽,比我们的竞争对手更好。明年,我们将推出基于CDNA 4新架构的MI350,它也将有288GB HBM3E内存,更重要的是,如果你看看一代代的性能改进,是35倍。该产品将与NVIDIA的Blackwell 200竞争,并具有类似的一代代性能改进。

到2026年,我们将推出MI400,这将与NVIDIA的Rubin GPU一起继续扩大我们的领导地位和趋势性能。所以总体上非常令人兴奋的路线图,我们对每年一次的更新感到相当满意,因为我们是第一个采用Chiplet架构的公司。这给了我们极大的灵活性,能够有更多的内存,并能够加速路线图。

#### 问答环节

未确认分析师:

对,我认为很明显NVIDIA一直在公开谈论一年一次的更新,而你在GPU方面也大致匹配了这一节奏。我经常被问到的问题是,他们介绍了GPU,他们有CPU,他们有Niccard,他们有EnvyLinkswitch以太网交换机。所以这是一个最终组成一个AI服务器机架的整个产品组合。我想大家的问题是,你如何应对这个?你谈了哪些合作伙伴?你能否也在所有这些其他组件上保持一年一次的更新节奏?

Jean Hu:

是的,是的,这是个好问题。在GPU方面,我们相信我们有非常有竞争力的GPU。在网络方面,如果你考虑互连,AMD一直在致力于Infinity Fabric,它连接了我们今天的GPU,这是一项非常成功的互连技术。最近有八家公司,包括MicrosoftMetaGoogle、AWS、Broadcom、AMD和Cisco。这八家公司成立了UAlink,我们将创建一个开放标准。这个标准将在第三季度推出。所以整个行业生态系统将有一个开放标准的互连技术,可以连接2000个GPU,这是非常重要的,因为这实际上是为了真正扩展互连方面的能力。

在网络方面,正如你所记得的,我们实际上收购了一家公司叫Pensando,它有一个可编程架构的DPU,我们不仅在今天的独立DPU上有巨大的客户兴趣,但它也是我们GPU路线图未来非常重要的网络技术。此外,还有CiscoBroadcom、Arista、Marvell和其他公司共同推动以太网网络。今天,如果你看全球,以太网是所有数据中心中最普遍的网络技术。所以我们确实认为,通过与生态系统合作伙伴的合作,我们将拥有网络技术、互连技术和DPU,以继续推动我们的路线图。

未确认分析师:

采用的另一障碍一直在软件方面。我只是想知道,你能否谈谈在开放软件方面的进展,以及显然如果是在Kudu中完成的,这是一个很费力的过程,对于客户来说很难,这是一个障碍。我们在这一进程中处于什么阶段,客户可以使用你的硅芯片?这个过程现在需要多长时间?

Jean Hu:

是的。ROCm 6.1是我们最近发布的软件栈。它有库对比工具,我们一直在与生态系统密切合作。如果模型是基于[技术问题] Trident和JAK编写的,你实际上可以直接使用MI300,这就是为什么当你看看黑客阶段时,他们可能有超过700,000个模型。所有这些模型实际上都可以直接在MI300上运行,这是第一个。第二个是针对你的问题,如果客户一直在使用Kuda,尤其是Kuda内核级别,我们实际上提供了库工具,让他们非常高效地进行转换。现在,对于一些客户来说,转换工作可能需要一天,有的则需要一周,如果是更复杂的模型可能需要更长时间,但它非常高效,所以基本上不再是一个障碍。我们将继续成熟ROCm软件栈、库工具和更多的工具,真正帮助客户轻松转换。

未确认分析师:

我想问你,NVIDIA在最后一次通话中提到,他们40%的业务是推理。我知道这可能很难理解,因为他们可能做两者,但在你的业务构成中推理与训练的比例是多少?或者,也许我认为它更多是推理权重,我有点好奇你的看法,为什么你的芯片在推理方面更好?是否因为你需要完成一些事情来获得更多的训练业务?还是因为你的芯片更好?

Jean Hu:

是的,是的。我认为你说得对。今天,如果你看看我们的收入,我们更多的是受到推理的影响。我认为有几个原因。首先,我们是第二个进入市场的玩家。训练绝对已经持续了一段时间,人们首先需要训练模型,然后推理是他们赚钱的地方。所以最初是关于训练模型,然后推理需求开始增加。所以当我们进入市场时,我们实际上看到推理应用和需求继续增加。其次,如果你看看MI300X,我们确实有192GB的HBM3E内存。所以从这个角度来看,它的内存容量和带宽明显高于竞争对手,这对于推理来说非常重要,因为你有非常大的内存容量,可以更快地进行推理。这就是为什么使用AMD的MI300进行推理的总拥有成本(TCO)要低得多,总拥有成本是客户关注的重点。这就是为什么我们看到客户喜欢使用MI300X进行推理应用。

未确认分析师:

去年我们实际上获得了供应,我认为每个人都知道CIOs是什么以及他们自己的模型是什么,这是一个很大的后续。我很好奇你是否听到更多关于HBM的噪音。所以在铸造能力方面,我假设你可以完成芯片,但在其他组件方面,今天的紧张程度如何?对于HBM供应商有什么担忧吗?

Jean Hu:

是的。我会说行业继续增加HBM和co-op方面的产能。所以这是绝对的情况。我们的团队做得很好。但是在上半年,我们继续看到HBM和co-ops的紧张情况,所以产能继续有限,但团队继续与供应链生态系统合作,将在下半年继续改善供应。我确实认为从内存方面来看,HBM方面,我们正在与所有三家内存供应商合作,产能将继续扩大。这是产能方面的好消息。

未确认分析师:

我确实想谈谈其他两个业务,如果有时间我们可以回到AI,但我想问问传统服务器,因为今年被认为是反弹年,而去年被认为是产能加上钱包的紧缩。我认为到目前为止,市场可能只略有上升。你对传统服务器市场的看法如何?

Jean Hu:

是的,传统服务器市场仍然相当混杂。去年我们都知道传统服务器市场实际上有所下降。如果你看看今年,在云环境中,客户们继续优化投资,对吗?AI投资优化仍在进行中。但我们在Gen 4

服务器CPU平台方面取得了巨大的进展。Gen 1和[无法辨认]在显著采用和市场份额增长方面表现非常显著。如果你看看第一季度,我们实际上达到了33%的收入市场份额。所以当你看看企业市场时,我们实际上开始看到更新周期的早期迹象。今天的CIO面临很多挑战。他们受到电力和空间的限制。他们还在努力弄清楚如何采用AI。所有这些事情使得TCO变得非常重要。当你看看AMD解决方案时,我们实际上可以用40%更少的服务器提供相同的计算量,使用我们的Gen 4家族。这意味着一开始可以将资本支出减少一半,运营这些服务器的成本也将减少40%。所以当你看看整个TCO,我们确实认为这将有助于更新周期,因为他们将有更多的空间和电力,可以更好地利用和规划他们的数据中心。

未确认分析师:

这是个很好的引导,我本来要问你的是——如果你听NVIDIA的说法,你会认为GP会随着时间的推移处理所有工作负载。但显然有很多工作负载是CPU处理的。在许多情况下,它们甚至可能会为CPU创建更多工作负载。我想你能谈谈现有CPU的使用情况有多长时间吗?他们是否可以继续忽略支出?然后你提到了更好的性能。我们是否看错了这个市场,单位方面你获得了更大的超级高核心数量,比如Bergamo,是否可能不是一个增长的单位市场,但ASP实际上是正确的看法?

Jean Hu:

是的,是的。我非常感谢这个问题。首先,当你看不同的工作负载时,确实有很多不同的工作负载。数据爆炸持续,不同的工作负载确实需要不同的计算引擎。当你看传统的基础应用程序时,你的ERP系统、数据库、购物网站、MetaFacebookInstagram,所有这些都不需要GPU。CPU在这些基础应用中具有最佳的TCO,这些应用继续增加。生成式AI实际上是增量的。它是对这些基础数据和工作负载的补充。所以你的问题很正确,当我们看服务器CPU市场时,我们实际上继续增加每单位的核心数量。所以单位实际上不是看这个市场的好方法,因为当你有192个核心时,你实际上解决了许多常规计算方面的问题。核心数量一直在增加,竞争对手和我们自己都是如此。所以我们继续推动核心数量更高。从ASP的角度来看,我们确实认为ASP会增加,因为核心数量增加。总体上,我们的看法是这是一个成熟的市场,它将继续增长。它可能不会像生成式AI那样高,但这是一个非常健康的市场,我们将在这个市场上继续增加份额。

未确认分析师:

我想问你在Computex AIPC上的其他公告,第一波出来的是ARM-based,你推出了一款可能多10个tops的产品。我认为对于客户来说,从软件角度来看这是无缝的。所以只是你的看法,有些高数字在ARM-based PC上出现。我意思是,这些卖点是什么?是否有电池寿命的争论?因为我认为另一方面,它们的价格并不便宜。它们无法运行所有软件。看起来AIPC会发生,对你和Intel都是好事,但有些负面影响。

Jean Hu:

很有趣,对吗?ARM PC已经存在[技术问题]。我们在这个行业已经很长时间了。ARM PC可能是第二轮,第一轮没有走远。我们都非常关注。这是第二轮,我认为根本上,如果你看AMD在AIPC方面的解决方案,不仅我们有最新一代的CPU、GPU和NPU性能,达到50 teraflops,我们实际上比ARM PC更了解整个PC生态系统,特别是商业方面,对吗?所有的应用程序,所有这些实际上都是基于X86一代一代的企业基础。所以这种向后兼容性,生态系统真的很重要,性能也很重要。所以从我们的角度来看,我们确实认为AIPC将真正帮助PC更新周期,而我们的领导产品AI将在七月上架,我们确实认为它将拥有领导功能和能力,帮助客户采用AIPC。

未确认分析师:

如果你看哪些具体驱动因素?在企业方面,有co-pilot。看起来没有人真的在划定一个界限,认为它必须在本地运行,对吗?所以对于消费者或企业来说,他们将会有六七年的不同型号。IntelAMD,有一个整体混合体,他们可能会——所以划定一个明确的界限,说不能运行某个co-pilot版本可能是不实际的。如果是这样,当我们谈论升级周期时,哪些应用是有趣的?你看到有人最终划定界限,说你需要有一年前的CPU,否则你不能运行吗?

Jean Hu:

是的,这是个好问题。如果你想想AMD,我们实际上是市场上第一个推出AIPC的公司。所以Ryzen 7000实际上是AIPC,但没有很多应用程序。所以即使我们有AIPC,从客户的角度来看,无论是企业还是消费者,最重要的是应用程序。关键是所有这些应用程序可以帮助企业提高生产力,帮助消费者进行内容创建或运行他们的家庭照片、视频等。因此,我们的观点是,当这些AI应用程序在今年下半年推出时,明年可能是你可以看到AIPC采用的时候。企业客户如果有AI应用程序可以在NPUs上运行,提高生产力,他们会采用它。所以我们确实认为重要的是将应用程序和生态系统对齐,确保我们不能支付溢价获得AIPC,但他们从中获得更多的生产力。

未确认分析师:

好奇你是否认为在业务方面,PC市场份额增长已经趋于稳定。我认为你在服务器方面仍在增加份额。我认为PC市场的部分原因是企业方面的渗透。Intel有非常强大的影响力,很难纠正这一点。所以我有点好奇,人们是否看错了,如果认为你的PC市场份额将保持在20%左右。这是否符合货币化?你是否认为在企业方面获得份额将是一个好处。

Jean Hu:

是的。也许如果我们退一步看,企业方面确实需要不同的市场进入策略。商业企业,他们的CIO如何购买PC,如何购买服务器,与消费者或超大规模数据中心非常不同。所以AMD在过去两年里在市场进入策略方面投入了大量精力。我们从IBM聘请了新的首席销售官。其中一个目标绝对是专注于企业市场进入策略,不仅增加销售人员,还了解如何接近企业客户。所以我们看到的成功首先是在服务器方面。实际上是我们能够向CIO展示总拥有成本的好处,所以他们可以转向AMD服务器。同样的情况在PC方面,你实际上必须说服企业CIO改变,以扩大你的市场份额。这需要更长的时间。但通过我们市场进入策略和能力以及我们产品组合的领导地位,我们确实认为我们将继续取得进展。就像我们在服务器方面增加份额一样,我们也认为在PC商业方面我们将继续增加份额并取得进展。市场进入策略非常非常重要。

未确认分析师:

我问了你所有这些战略问题。你做得非常好。我会问你一个CFO问题。我实际上想知道如果你考虑明年,有一些大变化。谁知道AI的数字会是多少。显然AIPC可能会增加毛利,而数据中心的事情你告诉我可能会压缩毛利。你如何看待这些变化?显然我们不知道每个的幅度,但我们如何看待你的毛利现状以及未来可能的情况?

Jean Hu:

是的。所以如果你看看我们的毛利,我们一直在进步。2023年公司的毛利是50%,在第一季度我们实际上提高了毛利到52.3%,我们实际上指导第二季度达到53%。毛利增加的一个关键驱动因素实际上是数据中心的构成。尽管在嵌入式业务方面有逆风,但我们仍然能够提高毛利。下半年我们认为会有相同的动态,嵌入式业务将逐步恢复,但主要的毛利增加驱动因素仍然是数据中心。我认为明年也是类似的情况,因为构成变化将更加有利。数据中心一般毛利高于公司平均水平。然后希望当嵌入式业务稳定并恢复时,这将是一个有利因素,继续帮助我们提高毛利。你知道的是我们的游戏业务毛利低于公司平均水平,游戏周期已经是第五年,将进入第六、第七年。所以游戏业务将更加平静——这不是好事,但实际上有助于毛利构成。

未确认分析师:

好,到此为止。谢谢Jean。

Jean Hu:

好的,非常感谢大家。