发布于: 雪球转发:0回复:2喜欢:3

ChatGPT背后的技术动力源泉就是LLM大语言模型(LargeLanguage Model),LLM背后的核心原理就是统计计算。通过建立一个有上千亿个变量的复杂数学方程来模拟我们大脑中的语言规则,一旦得到方程,每个词都变成了概率,语言就可以被计算出来。相当于我们只要有这个方程就知道这句话该这样说,或者这句话之后表意什么。举个例子,假如我们让AI做续写 “The best thing about AI is its ability to”,让它给我补充后面的句子该填写什么,这时机器会怎么做呢?它通过海量语料发现前面出现“个句子The best thing about AI is its ability to”之后,出现 最 高 概 率 的 五 个 词 是 do 、understand 、 make 、predict、learn,它在其中选择概率较高的learn补全了这。本质上所谓的大语言模型就是选出最可能的下一个词。

如果大家用过ChatGPT类的产品,会发现一个很有意思的交互特征,就是它的词是一个一个往外蹦的,不是因为他们做成特殊的交互,是因为机器真的在算,只有算出上一个词,再把这个句子重新带回去,才知道出现最高概率的词是什么,所以它的展现只能是一个词一个词往外蹦,这不是模拟打字的效果,而是它真实的在后台计算。

全部讨论

2023-05-19 13:23

有个抖音号”瓦清”对ChartGPT的自学习解释的很通俗易懂。怎么让AI看到猫的图片,知道是猫而不是狗,这是个大问题

2023-05-19 13:04

上天言好事,回宫降吉祥。