发布于: 雪球转发:0回复:71喜欢:12

我觉得AI大模型这个领域很难后发先至。。主要是2个原因。1:产能有限,想追赶的时候无法短时间买到足够的算力。2:训练需要大量时间,损失的时间是实打实的。

全部讨论

AI大佬们都说了,现在的transformer模型有严重缺陷,天花板很低。对于一个天花板很低的玩意,就不要谈什么先发优势了。

没必要后发先至,后发后至就行。只要过几个月有,这几个月没什么关系,没几个用户会跑。

05-28 08:06

在我看来,软件类的(也包括算法)技术优势不会形成壁垒,它会很快的外溢,哪怕后发,也会在一定时间内追赶得差不多。国内的大模型进展就是个例子。
大模型领域的关键是应用场景,谁搞定了个杀手级应用场景,并形成数据飞轮,就会有很大的优势。
一点看法不一定对。

中文语言有独特性

技术后发先至很难,市场后发先至很容易

05-28 10:25

时间的本质是算力,算力的核心是芯片,芯片的难点是设计和制造,其中制造的更难突破

05-28 08:11

模型修改后 很多训练是从头开始
就像当年的搜索 雅虎拥有大量爬虫 有海量资源 但是谷歌提出新模型后 一样可以打败雅虎
我认为先发优势的关键在于 有没有用户粘性 技术领域 显然没有

05-28 08:26

我挺乐观的。。AI的各个部分都得放在全产业链里讨论,例如你模型做的很牛,我禁止下游用你的模型那也是白搭。。目前看,人工智能的上游算力被英伟达垄断国产化率不足10%,美国禁止出口,这正好给了我们硬件产商机会。中游大模型的进步基于数学突破,这很缓慢。目前奥特曼的公司领先,但其它的也差不了太多。至于未来的算力约束,完全不必担心,只要国产化芯片起来了,需要大力出奇迹的事,是我们的强项。下游应用,目前没看到什么爆款应用,但是结合互联网toc来看,这也是我们的强项。

只要你敢开源,我就敢遥遥领先。

05-28 09:01

只有GPU才合适大模型计算?搞CPU的公司都已经动员起来了。将来存在新型架构的CPU的AI算力追赶GPU的可能。被英伟达一家独大独占垄断,在西方也是难以接受的事。