发布于: | 雪球 | 回复:0 | 喜欢:1 |
百度之前太自信了,技术跟踪不够,去年11月份才改的技术路线,改成了openai同路线,但不是MOE。本来4月份百度大会要发布新一代模型的,moe架构,没搞成功。字节传闻是挖了openai的一个大牛。字节是研发晚,之前调用gpt4的数据,还被openai直接抓包了。说明数据这一块没什么储备。但技术上字节比较强。语音做的不错。底座实话说不怎么样。
年报,中报可以跟踪的。给你看个我朋友整理的图表。科大升级版本都在llama之后,那时候一个劲捂着不说参数这些。研发没什么增加,新招聘博士和硕士没什么增加,哪来的AI人才。而且大模型是需要顶尖专家带头的。一般的人才就是基础工作,科大也给不起那么多钱,请这些顶级AI人才。
对啊。标准的起个大早赶个晚集。智谱去年也是,搞什么独树一帜GLM架构,1月份版本才改,现在好了,初创领先优势丢掉了。都是对最先进的技术跟踪不够,还有就是太自信。moe不会是终极架构,但当前是最优架构,跟得上最先进的模型才行。现在没moe架构,在国内都落后。