发布于: 雪球转发:0回复:1喜欢:2

$科大讯飞(SZ002230)$ 假日又重新看了英伟达CUDA,国产算力生态。 初创企业,无问芯穹。科大讯飞的国产算力底座。做了些推演。

在分析国内人工智能,国内算力的时候,一定要把国内状况和美国状况分开来去看的。

美国人工智能的情况。在算力卡上英伟达目前一家独大,各家科技巨头在all in大模型。 算力的门楷基本上堵死了小公司做通用大模型的可能。 巨头之间又比自身的进度,模型架构。 各家科技巨头同时也在研发自身的算力卡。 英伟达为什么能一家独大, 是各家巨头不敢慢。所以阶段性的主要矛盾变成了必须抢卡,抢速度。 接下来在算力上的主要矛盾又变成了,英伟达卡的领先程度+自身的毛利和巨头自研卡的算力和成本之间的矛盾。 如果英伟达能一直保持迭代和技术领先, 高毛利的卡还能带给客户更低的成本, 那长期来看还得用英伟达的卡, 这是一个动态的平衡过程。

国内的卡是什么情况, 一个是制程问题+产能问题+互联问题,一个是生态问题。

国内大模型的进度在当下是时间的落后。各家大模型公司前面囤了一批卡,足够当下的训练。 问题就是之后了,拿不到卡,如何去解决大模型升级之后的算力问题。

芯片制造上不多说。

生态问题上目前国内卡是要调优的,不能像英伟达的卡一样拿过来就用。

所以之后,能上量,能迭代的国产算力卡肯定是更好的。 现阶段,国内算力卡基本都在一条起跑线上。 百度阿里用自研。昇腾的卡要调优。 小企业也就基本很难去用国内的卡。 科大讯飞基于昇腾的算力底座也许拉长了看也许是个优势。

大模型上,要不是融到资的,要不是本身现金流非常大的。 美国的大模型公司不缺钱,不缺算力。 所以更在乎进度,模型能力。

国内算力被卡,就出现了更多的不确定性了。 未来算力卡的来源,模型的大小都变成了企业需要考虑的问题。 进度慢的情况下, 资金来源也是个问题。 能利用现有的模型技术变现,进行长期投入。 大概也是个非常重要的点。

国产人工智能任重而道远。

全部讨论

对大部分人工智能企业来说,时代来了竞争风险反而加大了,没有创新,竞争力的公司都要被大浪淘沙。