大部分人将被ChatGPT取代

发布于: iPhone转发:1回复:4喜欢:1


ChatGPT应用是生成式AI,它与“决策式AI”
最大的不同是它能生成全新的内容。

生成式AI的难度,在于对人类语言的理解。人类语言含糊、复杂、多义,还有大量象征、隐喻和联想。ChatGPT之所以惊艳,建立大量人类语言的理解模型,机器渐渐学会了预测问题的意图,准确率也越来越高,最后形成各种语言策略(SFT)。
其次是训练奖励模型(RM),通过训练让系统学会像人类一样表达各种微妙的意思。
第三步就是让系统具备自我学习的能力。

ChatGPT理解了人类的语言,,它最终会发展为一个有知觉的、有自我意识的强人工智能。

ChatGPT真的能理解我们的语言,有自己的思维,并用人类的语言和我们交流。当你与它持续交流后,它会越来越理解你想得到的内容。

在大量的用户训练下,ChatGPT会更加智能。

但ChatGPT不是万能的,正如人类也不是万能的。ChatGPT也会犯错,正如人类会犯错一样。ChatGPT也会不懂装懂,正如人类也会装。ChatGPT也喜欢套话空话,正如人类一样。
如果你问了一个专业上的错误的问题,很可能得到看上去很有用其实是错误的答案,而且因为ChatGPT太会不懂装懂了,很容易让人信以为真。

ChatGPT它更像“员工”,而不是员工的工作工具。
ChatGPT与决策AI不同,它并不寻求像专家那样找到复杂问题的最优解,而是针对大部分人日常工作的非专家级内容,输出相对合理有用的内容。

你提问质量越高,ChatGPT生成的文本质量越高,未来世界将属于会提问的人。

人类的大部分工作之所以容易被ChatGPT取代,是因为这些工作需要产生大量文本或其他形式的内容,这些内容本身难度并不高,ChatGPT正好能胜任。

全部讨论

2023-02-09 20:20

正如 Tremblay 所指出的,ChatGPT 和 Bard 等 AI 聊天机器人的一个主要问题是它们会一本正经的胡说八道。这些系统经常「产生幻觉」—— 即编造信息 —— 因为它们本质上是自动生成系统。
当前的 AI 不是查询已证实事实的数据库来回答问题,而是接受大量文本语料库的训练并分析模式,以推定任何给定句子中的下一个单词出现的概率。换句话说,它们是统计性的,而不是确定性的 —— 这一特征导致一些 AI 学者将它们称为「废话生成器」。
当然,互联网上已经充斥着虚假和误导性信息,但微软和谷歌希望将这些工具用作搜索引擎,这可能会使问题更加复杂。在搜索引擎上,聊天机器人的回答几乎会被认为是全知机器的权威答案。