东方之子 的讨论

发布于: 修改于:雪球回复:16喜欢:4
未来5年人工智能芯片每年的市场规模预计在2000亿到4000亿美元之间,可以按这个预测期间计算英伟达的未来利润。英伟达2023年第四季度的毛利率为76%,净利率为56%。
目前,AWS、微软、谷歌、META等数据中心的服务器/网络设备使用更新期限由过去的3年延长至5年,也就是说5年以后,每年人工智能芯片的市场规模将稳定增长。
$英伟达(NVDA)$ 黄仁勋在2024年2月12日的迪拜世界政府峰会上表示:“全球约有一万亿美元的数据中心已建成。在接下来的四、五年中,我们将拥有价值2万亿美元的数据中心,它们将支持全球的软件运行。”
他这句话的意思是未来四五年内将增加价值1万亿的数据中心,也就是平均每年2000多亿的数据中心业务。
$AMD(AMD)$ 的 Lisa Su 的预测较为激进,她预计到2027年人工芯片市场将达到4000亿美元。
也许黄仁勋的估计较为保守一些,他不想把饼画的太大,以免更多的竞争者入局人工智能芯片,加剧行业的竞争。目前世界上市值最大的七家公司(Magnificent Seven )都全力以赴加大投入进入人工智能行业。
英伟达黄仁勋预计,在未来几年的计算技术进步将使人工智能的开发成本远低于据称山姆·奥特曼正在筹集的7万亿美元。
$超微电脑(SMCI)$

热门回复

$英伟达(NVDA)$ 很快将成为世界上市值最大的公司,因为全世界的科技巨头们和各国政府都在抢购、等待英伟达最先进的人工智能芯片GPU ,快速迭代、人工智能软硬件通吃,CUDA生态系统和ai Enterprise操作系统构建了英伟达强大的护城河。
$超微电脑(SMCI)$ $AMD(AMD)$

$英伟达(NVDA)$ 上周五英伟达大跌5.5%,而同行的$AMD(AMD)$和下游的$超微电脑(SMCI)$ 全天走势非常稳健。
从竞争力、估值(英伟达今年的估值仅36倍)、业绩及未来的市场增长空间等方面来看,英伟达远远优于同行的AMD和下游毛利率微薄的超微电脑,但在周五的交易中,英伟达遭受了多个机构的联合无脑打压,我猜测的原因是:
1、在英伟达这波强力的上涨过程中,很多机构踏空,从机构在美股科技七雄(Magnificent seven)的持股比例可以看到,机构持股英伟达的比例相对较低;
2、有太多的散户加入到英伟达这波上涨过程中,还有大量的期权交易;
3、机构通过联合打压、把大量投机盘及期权交易彻底清算,放出巨量说明也有大量资金买入,未来英伟达将稳健的上涨,因为通过这次大震荡以后,留下来的持仓将是坚定不移长期看多的投资者。这一点我们可以从2024年2月16日以后超微电脑的走势中可以看到:2月16日大跌20%,放出上市以来的巨量,随后两天企稳,然后创出新高,至今走势非常稳健。
英伟达占有AI芯片的90%以上的市场份额,拥有1000多万专业人才使用的CUDA生态系统、AI Enterprise操作系统(每个GPU每年收费4500美元),拥有很高的护城河,可以说未来10年将保持领先地位。
大势基本判断:预计美联储将在6月份开始降息,美国经济强劲,美国大牛市将持续向上拓展空间,包括英伟达在内的七巨头的估值非常合理,并没有高估。人工智能的发展仅仅处于初级阶段,人工智能的大牛是远远没有结束。

$英伟达(NVDA)$ 准备拆股!英伟达过去5次的拆股历史表明:拆股后其股票价格都有很好的表现!
当地时间3月20日,英伟达(NVIDIA)的联合创始人兼首席执行官黄仁勋在接受采访时说道:“我们确实在考虑拆股这一选项。我非常喜欢这样做的一个原因是,拆股能够降低每股价格,使得我们的员工更容易购买到公司的股票。作为公司,我们要确保照顾好我们的员工,而拆股正是实现这一目标的有效手段之一。”
拆股通常被视为一种提高股票流动性和吸引更多投资者的策略。通过将一股拆分为多股,公司可以降低每股的价格,使更多的小额投资者能够买得起。对于英伟达的员工来说,拆股将意味着他们能够以更低的成本购买到公司的股份,进而成为公司的小股东,分享公司未来的增长红利。
$超微电脑(SMCI)$ $维谛技术(VRT)$

英伟达CEO黄仁勋在周二向媒体透露,全新一代Blackwell架构人工智能GPU芯片B200预计将在今年晚些时候首批交付,售价预计在3万至4万之间,要等到2025年才会大批量供应。
美东时间周一,在英伟达发布B200芯片后,扎克伯格发布声称,Meta计划使用Blackwell产品来训练该公司最新人工智能模型Llama。社交媒体巨头Meta是英伟达最大的客户之一,今年1月,Meta首席执行官马克·扎克伯格曾透露,该公司计划在今年年底前储备约35万枚H100芯片,到那时Meta将拥有相当于大约60万个H100的处理器。
据英伟达CEO黄仁勋介绍,B200芯片集成有2080亿个晶体管,是上一代芯片800亿个晶体管的2.6倍,在处理给聊天机器人提供答案等任务时,B200芯片的速度比上一代芯片快30倍,如果要训练一个1.8万亿参数量的GPT模型,需要8000张Hopper GPU,消耗15兆瓦的电力,连续跑上90天。但如果使用GB200 Blackwell GPU,只需要2000张,同样跑90天只消耗四分之一的电力。不只是训练,生成Token的成本也会随之显著降低。
英伟达上一代获得巨大成功的产品H100的定价约在2.5万-4万美元之间,由于无与伦比的卓越性能,能够及时满足市场如饥似渴的高效算力需求,可以预计新一代Blackwell架构人工智能GPU芯片B200将再现辉煌!
亚马逊、微软、谷歌和甲骨文也纷纷表示将在其运营的数据中心中部署BlackwellGB200。
$英伟达(NVDA)$ $微软(MSFT)$ $谷歌A(GOOGL)$

2万亿美元的数据中心是不是就可以理解为净资产了,如果这样的话现在市值就很合理