发布于: 雪球转发:0回复:14喜欢:0

请教一下,目前算力成本是不是太高了,以目前英伟达GPU去推理制作短视频AI,即使是sora模型,是否需要消耗高昂的算力成本,大模型大致成熟以后,互联网大厂微软meta等自研芯片在推理卡以取代英伟达GPU推理卡,是否需要很长时间?$中际旭创(SZ300308)$ $英伟达(NVDA)$ $天孚通信(SZ300394)$

精彩讨论

全部讨论

02-27 12:07

这个周期会比较长,现在是概念炒作阶段,空间最大,等以后业绩落地了,大概率是还债的时候,可以参考比亚迪和阳光电源走势。

02-27 13:25

英伟达算力成本的确比较高。要想取代英伟大GPU,可能还需要一段时间。相信随着科技的进步,用户的增加,算力成本会有下降。
一片英伟达顶级GPU的成本为8万元,GPU服务器的成本通常超过40万元。以ChatGPT为例,公开数据显示,ChatGPT一次模型训练需要的总算力消耗是3640PF-days(即每秒计算一千万亿次,需要计算3640天),耗资千万美元级别。按照国盛证券报告,以2023年1月ChatGPT独立访客平均数1300万来计算,对应芯片需求是3万多片英伟达A100 GPU,约合算力成本8亿美元。

02-27 12:59

科技的变化很快,我觉得未来肯定不是一家独秀,应该是多点开花的,而且人工智能是未来二十年的主流方向,我觉得两三年或许就可以取代了

02-27 12:25

根据国盛证券报告,以ChatGPT在1月的独立访客平均数1300万计算,其对应芯片需求为3万多片A100 GPU,大概需要的算力成本为8亿美元,每天的电费成本在5万美元左右,一张A100价格在10000美元左右。
而随着技术的不断迭代发展,同等算力的芯片的成本是趋于下降的,因此大厂自研芯片,在推理卡上面上面应用,可行性不是特别大,他们又没那么多限制。
而但从芯片的理论实现而言,一款芯片的开发周期,至少要1年之久(全新结构至少要2年),从设计到流片,再不断迭代,还要跟上英伟达的节奏,就目前而言,投入跟产出完全不成比例。