Meta首席AI科学家杨立昆:现有大模型存在重大缺陷,永远无法到达人类智能水平

发布于: 雪球转发:7回复:13喜欢:11

ChatGPT的横空出世,让稍显拗口的“大型语言模型”(LLM)这个词成了聚光灯的宠儿。从OpenAI、Anthropic等明星创企到谷歌、微软和Meta等公司,都在持续推进LLM的能力和商业应用前景。

然而,Meta人工智能首席科学家杨立昆 (Yann LeCun) 却认为,目前的LLM路线无法通往AGI,且非常危险,显示出业界对AI发展路线图的分歧。

杨立昆:LLM存在重大缺陷,无法实现真正的AGI

近日,在接受媒体采访时,杨立昆直指当前的LLM技术存在“理解逻辑能力极其有限”、“无法对物理世界建模”、“无法形成持久记忆”、“无法进行层级规划推理”等重大缺陷,并称单纯追求推进LLM的发展“本质是上不安全”的,无法实现真正的AGI。

LeCun指出,现有的LLM尽管在自然语言处理、对话交互、文本创作等领域表现出色,但其仍只是一种"统计建模"技术,通过学习数据中的统计规律来完成相关任务,本质上并非具备真正的"理解"和"推理"能力。

但直到今年,包括OpenAI、谷歌在内的科技巨头,都将LLM视为迈向AGI的关键一步。OpenAI CEO山姆·奥特曼就曾多次表示,GPT模型是朝着AGI方向发展的重要突破。

杨立昆所推崇的,是所谓“世界模型”(World Modeling)方法,即能够像人类一样,借助观察和体验,循序渐进地学习认知这个世界,从而形成“常识”,最终实现AGI。

杨立昆认为,“世界模型”更接近真正的智能,而非只学习数据的统计特征。以人类的学习过程为例,孩童在成长过程中,更多是通过观察、交互和实践来认知这个世界,而非被单纯“注入”知识。而杨立昆的“世界模型”路线,则是试图通过对视频、音频等媒体的模拟与补全,让AI也经历这样一个自主学习的过程。

不过,他也承认实现“世界模型”并非易事,这一雄心勃勃的目标可能需要耗时10年才能实现。业内专家对此也存疑。

图兰大学计算机科学教授亚伦·库洛塔指出,“常识”一直是人工智能发展的痛点,教会AI模型“因果关系”并非易事,很容易出现“难以预料的失败”。此前也曾有Meta内部员工质疑杨立昆的“世界模型”理念含糊不清,更像是一种噱头

Meta需要将AI快速产品化 但首席科学家却频频拆台

从本质上看,杨立昆与OpenAI、谷歌等公司对人工智能发展路径的分歧,也反映出科技巨头在AI领域投入上的矛盾与分歧。

对砸下重金购买GPU的Meta来说,首要的使命是短期内快速推出商业化AI产品,在元宇宙的失败之后,公司在AI探索上的成果对Meta的未来至关重要。且扎克伯格面临着巨大的盈利压力,上月,当扎克伯格誓言要将Meta打造成“全球领先的人工智能公司”时,Meta就一度蒸发近2000亿美元的市值,反映出投资者对其人工智能投资回报的疑虑。

但身为首席科学家的杨立昆更看重探索性研究和长期价值,不那么在意短期的收入。他这一番公开宣称LLM路线存在重大问题,也是在打自家公司的脸——Meta也是那些斥巨资研发“危险的LLM”的公司之一。

外界早就揣测,Meta CEO扎克伯格和杨立昆之间可能存在某种微妙的矛盾,例如,去年底,扎克伯格将“AI产品化”工作剥离出杨立昆手中,成立独立的“GenAI”团队,直接分割了杨立昆“学院派”的权力。

总体而言,Meta仍然是AI浪潮的主要受益者,今年迄今,Meta股价累计大涨35%。

本文来自华尔街见闻,欢迎下载APP查看更多

精彩讨论

浊静徐清05-23 12:51

老美公司花大钱,
不断试错。
中美在计算芯片端,保持隔离状态。
中国只能购买计算能力差一两年的产品。
老美的 AI“灯泡”,确实会保持领先一段时间。
直到老中的计算芯片跟上来了。
这对于老中的 AI 公司,
其实,喜忧参半。
也就是说,相对来讲,老中的 AI 公司,
资本回报率可能更高一些。

path2billion05-23 12:29

老杨的观点是对的。现有的语言模型局限性很明显,不是真正的逻辑推理。按照台湾的李宏毅的说法,就是一个复杂的“文字接龙”模型。感觉泡沫在这里正在形成。当有一天华尔街和大众都明白这一点,这个泡泡就会破了。但是破了之后,人们会继续利用ai进行辅助性工作,也就是李开复的书里讲的未来大多数工作都是“人和ai协同工作”,而不是ai取代人。

全部讨论

05-23 12:51

老美公司花大钱,
不断试错。
中美在计算芯片端,保持隔离状态。
中国只能购买计算能力差一两年的产品。
老美的 AI“灯泡”,确实会保持领先一段时间。
直到老中的计算芯片跟上来了。
这对于老中的 AI 公司,
其实,喜忧参半。
也就是说,相对来讲,老中的 AI 公司,
资本回报率可能更高一些。

05-23 12:29

老杨的观点是对的。现有的语言模型局限性很明显,不是真正的逻辑推理。按照台湾的李宏毅的说法,就是一个复杂的“文字接龙”模型。感觉泡沫在这里正在形成。当有一天华尔街和大众都明白这一点,这个泡泡就会破了。但是破了之后,人们会继续利用ai进行辅助性工作,也就是李开复的书里讲的未来大多数工作都是“人和ai协同工作”,而不是ai取代人。

05-23 12:41

很多人都无法达到AGI, 且千差万别

去年ChatGPT问世,我就有这样的判断,他对知识小白有些帮助,对专业人士就像个弱智。

现有的LLM尽管在自然语言处理、对话交互、文本创作等领域表现出色,但其仍只是一种"统计建模"技术,通过学习数据中的统计规律来完成相关任务,本质上并非具备真正的"理解"和"推理"能力

上层建筑决定经济基础,底层逻辑不佳,前面投入产出不会差多少,但未来投入越大,产出越差!

05-23 12:30

人工智能如果达到人类水平,那要人类干嘛???
当然是他可以强但不能太强是最好的

05-25 00:24

人类自己的历史才数万年而已,却口口声声“永远”,实在荒谬

05-23 14:26

AI缺陷

05-23 13:37

很好 让大漂亮在错误的方向狂奔下去吧!

05-23 12:41

那挺好,达到了反而麻烦