chatGPT,有个头缀chat是因为他是基于文本的人工智能模型,当下gpt4只能用于NLP(自然语言处理)领域,即输入文字,他给你输出的也是文字。至于百度的视频输出,不能说他做了视频领域的应用就说他已经超越了GPT模型,当下舆论基本一边倒,普遍嘲讽百度,还是有一定道理的。

GPT1是在18年发布的,当年Google的bert和open AI的GPT是可以一决高下的,只是bert选择的是嵌入式模型,提取包含上下文意义的向量,对特定任务做微调;而GPT选择的是生成式,利用双向transformer语言模型进行预训练,通过fine-tuning模式解决下游任务。GPT最初选择的道路就是更难的训练模型,当下来看,只从NLP领域来说,GPT确实是胜过BERT的。

GPT2相较GPT1的进步其实不大,从文本量来说,GPT2的文本量只有GPT1的8倍,即40GB,参数量是15亿,为GPT1的9倍左右,并没有跨越式发展,但是GPT2不再训练下游任务,不再进行微调,只需要通过暗示来限制GPT的回答范围,即你设置一下关键词暗示他,比如书写一段300字的关于天气的作文,天气、300字、作文就是关键词,他就不会偏离太多。

GPT2在数据量上没有跨越式发展,但理念上采取的是zero—shot,零次学习,即让机器具有推理能力,实现真正的智能。

2020年GPT3横空出世,文本量暴增至40TB,增长1000倍,参数量达到恐怖的1750亿(参数量越多,机器回答的偏离幅度越小,给你满意答案的可能性越大)。

前段时间火起来的是GPT3.5,这个版本的GPT已经会唱跳up绘画了,我也体验过几下,并在上面找到了天润乳业的一些关键数据,不得不说确实好用,只是GPT是基于网上已有文本给的答案,有些时候网上答案是错的,他给的答案也是错的。而且他会拼凑答案,导致牛头接马嘴。

GPT4今天再次大火,众人各呼要失业,回头再看国内好像什么都没有,百度的文言一心看起来像是大忽悠,达摩院这些都没再发声,似乎GPT4要统治整个世界了一样。

其实大可不必,训练模型不止有GPT一个,GPT既不是最早的训练模型,也不是最大的训练模型,而且当下GPT还只用于NLP领域,其他领域的AI也是很牛逼的。据机构估算,22年每4天就会有一个大的训练模型出世,Google虽然BERT拉跨了,但不排除还有一些其他的反击手段,我们虽然还没有拿的出手的训练模型,不代表没有人做的出来。

GPT4问世,确实算的上一个划时代的生产力工具,AI掀起的第四次浪潮,难道不应该期待一下吗?

至于人类的命运,我认为不必过度焦虑,车到山前必有路,船到桥头自然直#今日话题# @今日话题 @雪球创作者中心 

 $浪潮信息(SZ000977)$ $三六零(SH601360)$ $百度(BIDU)$
雪球转发:1回复:5喜欢:3

全部评论

边缘性投机03-17 11:58

这不是一个单纯的技术,与信息开放思想自由,高质量信息,意识xt价值观密切联系,封闭国家没机会。 还不考虑算法算力,通道别人已经关闭

马克周的商业之旅03-17 09:20

经济(交易)的地基是人,而不是技术,任何技术发展,最应该担心的并不是每个人类个体,因为每个人类个体都是受益者,只有被新技术替代的老技术的拥有者———企业,才应该担心,百度现在手足无措是正常的。

鸡血怪人03-16 23:26

小黑子

freetstar8903-16 22:58

World changer

善护念_无所住03-16 22:47

先说说而已