发布于: 修改于:雪球转发:0回复:7喜欢:1

没事还是多研究一下产业链现状吧

最近一直在研究文生视频

文生视频VS对话式的文字解答

最大的区别在哪里?

你要产生一段1分钟的4K 30FPS的视频 大约需要330MB

一万个汉字占用两万字节,即20KB

这是几何倍数的增长

那么 文生视频 需求在哪里?

答案 还是在推理端

大模型 还是一样的训练

而推理 抓取TOKEN 文生视频几何倍数的增长

周鸿祎那天发视频说了一个数据

一块H100 一个小时 才能生成一个5分钟的视频

什么概念?也就是

如果C端 有个客户向大模型下达了一个文生视频的指令

如果只有一块H100 需要1个小时 才能给你生成一个5分钟的视频

1小时等于60分钟 5分钟等于300秒

等同于等待1分钟只能生成5秒的视频

倘若同时在线10万人 则需要10万张H100卡

推理端的潜力 是爆发性增长的

而推理端爆发 需要考虑几个问题

1:推理服务器的价格

2:推理服务器的性能

3:推理服务器的能耗

这三个 将是未来铲子能否卖得好的重中之重

需求量大 价格得便宜 性能得不差 最好需要省电

这也就是SORA 诞生了快半年 依旧不能对大众开放的主要原因

算力不足 太吃算力了

所以 未来2-3年 推理端 大爆发

拭目以待

全部讨论

06-16 00:38

07-10 20:22

只是超大模型训练侧算力国内跟不上,推理侧国内没问题。参考并行科技董事长陈健博上采访。并行科技也是做算力服务的,这一行才做赚钱,并行一直到今年才能盈亏平衡。

06-19 20:21

越研究股价越跌。你是把整个行业套到农尚上面,以为农尚也是高科技公司

佛山,1000P,6.8亿。
不知道谁能供货。
各地开始陆续出来了

06-16 11:45

老师好

目前应用端,国内还没有起来。