发布于: 修改于: Android转发:0回复:0喜欢:1
$掌阅科技(SH603533)$$中文在线(SZ300364)$ $英伟达(NVDA)$ GPT1的参数量是1.2亿,GPT2的参数量是15亿,扩大了10倍,GPT3的参数量1750亿,又扩大了100倍,也就是GPT3的出现开始出现了一些以前人类没有发现过和认知到的东西,也意味着LLM的参数量达到一定规模,其结果会出现质的变化。GPT4的参数量是1.76万亿,相对GPT3又扩大了10倍,同时对算力资源的要求也更加苛刻,尤其加速能力上,需要短时期完成训推拿到结果,毕竟人类寿命是有限的。GPT4一问世,对现有人类社会的生产方式和商业模式产生了颠覆,智慧化数字生命已经出现。那么GPT5的参数量大家可以估算下大概多少?皮衣黄为什么要通过硬件堆砌这种简单粗暴的方式提升其产品的加速能力?我个人估计相对GPT4仍然扩大10倍或不到10倍。扩大100倍那不可能,这个星球上没有算力能支撑其训推,钱多任性硬堆的并且家祭无忘告乃翁的例外。