发布于: Android转发:0回复:3喜欢:3
苹果AI服务器调研纪要】
Q: 苹果AI服务器的规划和数量预测是怎样的?
A: 苹果今年开始涉足AI服务器市场,预计从2024年到2027年,总共将采购7万到8万台AI服务器。2024年,苹果计划采购的AI服务器数量为2万台,其中1.2万台用于推理任务,搭载英伟达的40推理卡;剩余的8000台用于训练任务,配备8张英伟达H100 GPU卡。
Q: 苹果AI服务器的代工合作伙伴是谁?
A: 当前,苹果主要与鸿海富士康合作,由其代工AI服务器。不过,苹果正规划使用自研芯片的AI服务器,这部分业务可能会引入新合作伙伴。从2025年起,苹果预计在其推理服务器中加入自研M2芯片,初期渗透率约为10%,到2027年,自研芯片在推理服务器中的占比有望达到50%。
Q: 苹果自研芯片服务器的代工情况如何?
A: 苹果自研芯片的AI服务器代工商尚未确定,目前富士康和立讯精密都在争取这份业务。基于英伟达芯片的AI服务器将继续由富士康独家代工,因为富士康最初同意代工AI服务器是着眼于三年8万台的长期合约,不会轻易改变。
Q: 苹果自研芯片服务器的市场影响是什么?
A: 苹果自研芯片的AI服务器将侵蚀英伟达的部分市场份额。例如,原先的8万台服务器中,如果加入自研芯片服务器,英伟达服务器的数量可能会降至7万台或6.5万台。自研芯片主要用于推理服务器,预计从2025年开始,自研芯片服务器的比例将逐年提升。
Q: 苹果AI服务器中训练和推理服务器的比率是多少?
A: 2024年,推理服务器占60%,训练服务器占40%。然而,这一比例将随时间变化。预计2024年末,苹果的私有云生物模型训练完毕后,2025年将转向以推理为主,推理服务器占比可能高达80%。到2026年,随着模型成熟,推理和训练服务器的比例将趋于平衡,大约为70%推理和30%训练。
Q: 苹果AI服务器中训练和推理服务器比例变化的逻辑是什么?
A: 在AI算力模型成熟的背景下,推理通常占主导地位,占比约为70%,训练占比30%。然而,由于2024年苹果侧重于训练模型,训练服务器比例较高。随着模型训练完成,2025年推理服务器比例将显著提升,而训练服务器比例下降。到2026年,模型应用达到稳定状态,推理和训练比例将稳定在70%对30%。
Q: 苹果的GPU与通用组件如网卡、CPU和存储设备是否有区别?
A: 苹果在其服务器中使用的GPU与通用组件如网卡、CPU和存储设备并无本质区别。这些组件通常采用行业标准规格,包括基于英伟达芯片的内存、硬盘和网卡,苹果并未自行生产这些部件,而是采用与业界标准兼容的组件。
Q: 苹果AI服务器的价格区间如何?
A: 基于英伟达L40推理卡的服务器,单台售价在6万至7万美金之间,而搭载H100训练卡的服务器,价格则在21万至22万美金左右。这些价格反映了不同功能和性能等级的服务器成本差异,训练服务器通常配备更强大的计算资源,因此价格更高。
Q: 苹果AI服务器的部署量及其用途?
A: 据了解,苹果计划部署约2万台AI服务器,其中大约1.2万台用于推理任务。这些服务器主要用于支持苹果的终端消费者设备,如手机、穿戴设备和平板电脑的数据推理需求,服务于苹果庞大的用户群体。
Q: 苹果AI服务器在国内与海外的部署策略?
A: 苹果的AI服务器在海外和国内的部署是分开的。由于美国的出口管制政策,苹果的AI服务器及其相关组件目前无法进入中国市场,这意味着苹果的AI训练服务器完全部署在海外,而推理服务器在国内的部署受限。苹果在国内的数据中心目前主要使用通用服务器,而AI服务器的部署预计至少要等到2027年以后,即苹果在海外的AI模型应用成熟之后。
Q: 苹果AI智能手机的国内支持策略?
A: 在2027年之前,苹果AI智能手机在国内的支持将主要依赖于国内的通用服务器和公有云服务,如亚马逊微软的云平台。苹果过去一直通过公有云平台进行数据处理,但随着自身需求的增长,开始自研AI服务器,以更高效地处理大规模数据。
Q: 苹果与亚马逊合作的未来趋势?
A: 苹果与亚马逊等公有云平台的合作量在AI服务器自研后可能出现变化。目前观察到,在公有云平台上,苹果的AI服务使用量正在下降,而通用服务器的使用量保持稳定。苹果在国内主要与亚马逊合作,而在海外与Google合作。苹果尚未表现出自研通用服务器的意图,目前的重点仍是AI服务器的自研与部署。
Q: 苹果AI服务器自建策略的未来展望?
A: 苹果计划未来所有AI服务器都将自建,以实现对AI计算资源的完全掌控和优化。这一策略反映了苹果在AI领域日益增长的雄心和对数据安全、隐私保护以及计算效率的重视。通过自建AI服务器,苹果能够更好地支持其产品和服务的创新,同时减少对外部云服务提供商的依赖,提升自身在AI领域的竞争力。
Q: 苹果AI服务器部署对国内数据中心的影响?
A: 苹果AI服务器在国内的部署受限,短期内不会对国内数据中心造成重大影响。苹果在国内的数据中心将继续以通用服务器为主,而AI计算需求将通过海外数据中心或国内的公有云服务来满足。未来,一旦苹果在国内部署AI服务器,将对国内数据中心的结构和功能产生深远影响,促进数据中心向更高性能、更智能化的方向发展。
Q: 苹果AI服务器对数据隐私和安全的考量?
A: 苹果在部署AI服务器时,必须考虑数据隐私和安全法规,尤其是在中国,数据必须留在国内,不得出境。这意味着苹果必须确保海外AI模型的成熟度和安全性,才能考虑在国内部署AI服务器,以符合中国严格的网络安全法律法规。苹果的AI服务器部署策略体现了对数据主权和安全的尊重,同时也反映出其在全球市场中面临的复杂监管环境。
Q: 苹果AI服务器对行业生态的影响?
A: 苹果自建AI服务器的决策将对行业生态产生深远影响。一方面,苹果的自研服务器将减少对公有云服务的依赖,可能影响到亚马逊、微软等云服务提供商的业务。另一方面,苹果的这一举动将推动AI硬件和软件的创新,促进整个行业向更高效、更个性化的AI服务转型。此外,苹果的AI服务器部署策略也将激励其他科技巨头重新审视其数据中心策略,可能引发新一轮的技术竞赛和市场布局调整。
Q: 苹果在公有云上的AI服务器使用情况如何,以及自建服务器的影响?
A: 苹果目前在公有云上运行了近10万台虚拟机,用于AI相关的计算任务。随着自建AI服务器的推进,这部分虚拟机的需求可能会被逐步取代。苹果投入巨资研发AI服务器,单款服务器的研发成本估计在2000到3000万美元之间,这还不包括后续的生产成本。只有当产量达到一定规模,成本才能得到有效摊薄,从而比租赁公有云资源更为经济。
Q: 富士康与苹果合作背后的利益考量是什么?
A: 富士康与苹果合作生产AI服务器,关键在于苹果承诺的三年内8万台服务器的订单量。较小的订单量对富士康的吸引力有限,因为大规模生产才能保证成本回收和盈利。如果苹果的M2芯片渗透率提高,或立讯精密加入合作,富士康可能无法独享全部订单。富士康拥有丰富的服务器代工经验,而立讯精密在这方面相对较弱,但立讯通过合作可以积累经验并进入服务器ODM市场。
Q: 立讯精密为何要争取苹果的服务器代工合同?
A: 立讯精密尽管在消费级产品上有与苹果的合作经验,但在企业级服务器代工领域尚属新手。国内服务器ODM市场竞争激烈,立讯要想在浪潮、超聚变、华三等厂商中脱颖而出,需要成功案例来证明自身实力。苹果的合同不仅能提升立讯的技术能力和市场信誉,还能为其服务器代工业务的长期发展打下基础。否则,缺乏大型项目支撑,立讯的服务器业务可能在短期内就被淘汰。
Q: 苹果自研服务器背后的动机是什么?
A: 苹果自研服务器不仅仅是为了数据安全,更是为了应对AI模型训练所需的大量计算资源。以往,苹果主要聚焦于终端产品,对用户数据的处理较为保守。但现在,苹果希望通过分析海量用户数据,提供个性化的产品推荐和服务。在公有云上运行AI服务器,当虚拟机数量超过1万台时,成本效益开始下降,特别是在数据传输方面。因此,自建服务器不仅可以降低成本,还能增强数据安全性,确保核心算法和用户隐私不受外部威胁。
Q: 苹果自建AI服务器的具体成本考量是什么?
A: 苹果在评估公有云成本时发现,当AI服务器虚拟机的数量超过1万台后,其性价比明显低于自建物理服务器。这是因为AI服务器处理大量数据时,数据的输入和输出会产生高额费用。自建服务器可以更有效地管理数据流,减少数据传输成本,同时通过规模效应降低单位成本。苹果在考虑自建服务器时,既关注了成本因素,也重视了数据安全,力求在控制成本的同时保护用户数据的安全和隐私。
Q: 苹果自建服务器对行业有何影响?
A: 苹果自建AI服务器的决定,不仅展示了其在AI领域的雄心,还可能引领行业趋势。其他科技巨头可能会效仿苹果,加大对自建数据中心和服务器的投资,以优化成本结构和加强数据控制。这将促进服务器硬件、软件以及相关技术的创新和发展,同时也可能引发公有云服务商调整策略,以适应大企业对自建基础设施的需求变化。
Q: 英伟达H100、H200、B100、B200显卡的出货量如何?
A: 根据最新数据,英伟达H100显卡在2023年第一季度出货量约为84万张;第二季度出货量为64万张;第三季度为24万张;第四季度为14万张。H200显卡在第二季度出货量为23万张;第三季度为60万张;第四季度为75万张。至于B100和B200显卡,B100在第三季度出货量为8万张,第四季度为22万张;B200在第三季度出货量为10万张,第四季度为40万张。这些数据反映了英伟达在高性能计算和AI领域的强劲市场表现。
Q: 英伟达在推理卡市场的份额变化趋势?
A: 英伟达在推理卡市场的份额与训练卡市场不同,后者几乎由英伟达垄断,市场份额超过95%。然而,在推理卡市场,英伟达的份额相对较低,大约在70%-75%之间。随着Google、AWS等云服务提供商推出自研推理卡,英伟达的市场份额可能面临侵蚀。为应对这一挑战,英伟达推出了B200卡和GB200整机柜服务器,旨在提升推理性能,保持市场领导地位。
Q: 英伟达B200卡的特点与战略意义?
A: B200卡本质上是一款训练卡,但在推理性能上有了显著提升,比B100高出四倍。其HBM容量和互联带宽的增加,使其成为既能满足训练需求又能胜任推理任务的全能卡。英伟达通过GB200整机柜服务器,旨在让AI用户能够在训练完模型后直接使用同一平台进行推理,避免额外购买第三方推理卡,以此保持市场份额。
Q: 苹果自研服务器的未来部署规划?
A: 苹果自研服务器的部署规划预计如下:2023年2万台,2024年2.5万台,2025年2.5万台,2026年近3万台(35000台)。到2027年底,自研芯片在推理服务器中的比例预计将达到50%。值得注意的是,苹果在2027年之前,自研服务器芯片的使用比例较低,直至2027年才大幅攀升至50%。

全部讨论

今天 01:14

图片评论

今天 00:45

用谁家硬板?会不会又是鹏鼎和东山二家?东山透露过泰国工厂硬板产能是应海外客户之邀而建。

今天 00:29

明个易中天开盘凶多吉少