发布于: 雪球转发:0回复:0喜欢:0
回复@强哥121: GPT只开源了GPT1和GPT2,一个是1亿参数的,一个是10亿参数的。国内之前一堆开源几十亿参数,几百亿参数的大模型,以此来吸引风投。阿里的通义千问,直接开源了千亿级参数的大模型,想要运行阿里巴巴开源的模型,起步资金要几千万以上投资,才能运行阿里的开源模型。其他的GLM4之前,开源的几个版本,也是刷到开源模型第一。就给全世界贡献的开源大模型的数量上,以及在开源模型领域,拿到的第一的次数,国内属于是第一。至少,国内给全世界开源了百款以上的开源大模型,基本上,除了百度等等少数公司是一开始就不开源的。其他的,大部分都是走先开源,把自己的代码全部上传,给全世界使用,评测,开源模型竞赛中,获得口碑后,再吸引投资的路线。像是GLM模型,智谱公司的模型,一开始就是以清华开源模型的形式亮相的,吸引到风投后,就开始不在开源了。大模型创业路径,现在都是,一开始有自己的开源的大模型,再开源世界刷名气,等到达到某个时间点的第一,就不再继续开源,拿到风投,后续版本商业化。//@强哥121:回复@长安卫公:硬件差四代以上,算法靠抄开源的,GPT4之后不开源了,只能摸黑。整体看,21年之前差距是一年,24年开始,差距是10年起步。
引用:
2024-02-16 18:16
据说OpenAI有十分之一员工都是中科大的。
感觉国内与OpenAI最大的差距一在算力硬件;二在发展尺度。
但愿后面能后来居上吧,正如2000年后,国内的互联网一样。
至少现在,国内应该是唯二还在牌桌上的人。
$恒生科技指数(HKHSTECH)$