李想,轻松拿捏特斯拉唯一王牌

发布于: 雪球转发:0回复:0喜欢:2

作者|潘磊

今年的2024中国汽车重庆论坛,我愿称之为一个分水岭。

很多人都看到了一场论战。

好几家车企的老板、PR,疯狂炮轰比亚迪

好像只有打倒比亚迪,这些车企才有饭吃。

但这场论坛也有极具启发意义的演讲,对自动驾驶非常关键,却被那场有关的内卷的辩论淹没了。

这场演讲来自理想汽车创始人、董事长兼CEO李想。

我知道很多人不喜欢李想,也不服李想。

有人天天发视频,在网上对李想各种内涵。

按我的想法,这么做的原因,无非就是想从理想那里要点好处,但被拒绝了,所以就恼羞成怒+气急败坏,通过拍段子发泄不满。

这很不好。

但幸好这些人不是主流。

我想提醒的是——李想治下的理想汽车,是迄今为止第一家、也是唯一一家实现了正向现金流的“造车新势力”。

仅凭这一点,李想就足以在中国汽车史上扬名立万。

按照中国人的记史习惯,历史不为普通人立传,只为那些做出了开创性业绩的顶级牛人立传。

李想显然符合这个条件。

他肯定犯过错,但不能因此就对他冷嘲热讽,从而否定他,或者打倒他。

因为按照唯物辩证法的观点,事物都是连续的运动的发展的不断变化的。

世界上根本不存在所谓的“完人”。

用这个标准去要求李想,显然也并不合适。

当然这些话都扯远了。

现在我们回到李想的这个顶级牛逼的演讲。

李想一上来就强调,他讲的可不是什么辅助驾驶,甚至不是“智能驾驶”,而是自动驾驶!

不用说,这是一个相当炸裂的观点。

我在之前那篇文章中说了,李想能把生意做这么大,他最顶级牛逼的一点,就是惊人的学习能力。

这种学习能力的一个典型体现,就是他能够从日常小事,洞悉复杂事物的运行规律。

我承认,关于自动驾驶,以及所谓的端到端,或者Transformer,以及神经网络等,我绝对是一知半解。

但李想演讲中提到的一个类比,让我对自动驾驶有了更为具象的观察角度。

他是这么说的:人类开车为什么不涉及学习Corner case(极端情况)?

如果不能解决这个问题,自动驾驶团队每天干的活,都是靠人工去调试各种各样的Corner case。

他的意思是,这会陷入一个与Corner case有关的魔咒。

我的理解是(这不是李想说的,是我自己的猜测),这就像是在一张白纸上画圆圈,你画的圆越大,你的认知范围扩大的同时,你面临的未知也更大了。

李想说,(很多)车企往往用几千人的自动驾驶团队去搞Corner case,而且团队越大,Corner case就越多。

这就像一个蚂蚁一样(这也是我自己的理解),你爬的路程越多,你面临的未知就越多。

你唯一能够解决的策略,就是把自己升维到人类视角,然后才能成为这个星球的主宰。

但如果想上升到宇宙主宰,那还需要新的法则。

这就跟罗辑悟出黑暗森林法则一样。

当人们不了解这个法则时,在宇宙中几乎就是裸奔状态。

当罗辑搞定了这个法则,人类也总算找到了一条延续文明的路径。

李想也举例称,通过他爱人开车剐蹭这件事,他发现一个一个去解决Corner case根本没用。

最终,剐蹭问题通过参加宝马驾驶培训初级班得以解决。

这个培训班只教了两件事——一是看路的能力,二是踩刹车的能力,不涉及任何Corner case。

基于此,李想认为可以把人类学习开车的能力,复制到车端。

李想也提到了一本《思考,快与慢》的书,这本书描述了人类大脑在工作时,分为系统一和系统二,前者负责一些需要快速响应的事情,后者则解决涉及到推理或者博弈的未知问题。

人类开车时,95%使用系统一,5%使用系统二,所以既把能耗维持在了一个理想状态,也不需要去解决无穷无尽的Corner case。

现在的问题,就是把自动驾驶的系统一和系统二,对接到人类大脑的系统一和系统二。

最终的结果是,用端到端来承载大脑的“系统一”,用VLM视觉语言模型来承载“系统二”。

具体分配是,系统一解决自动驾驶能力(即端到端),系统二解决兜底和泛化能力,这里面还涉及生成式的小模型,等等。

李想表示,这是他带领的团队在过去一段时间内,最为重要的一个技术突破,而且已经通过了验证。

基于此,李想认为无监督的L4级自动驾驶,将会在3年内实现。

坦率地说,看完李想的演讲,我依然有点懵逼。

如果对应到罗辑发现黑暗森林法则的意义,看上去李想又搞定了一个很多自称自动驾驶大牛的人,都没有搞定的难题。

这非常超现实。

当时我也无法领会李想这次演讲的意义,我唯一能做的,就是迅速把他的演讲全文发到我自己的公众号上。

我知道他这篇演讲很重要,但我无法完全理解。

但有一件事的发生,让我觉得李想或许真的洞悉了有关自动驾驶的秘密法则。

因为特斯拉CEO埃隆·马斯克,出来作证了。

特斯拉2024年度股东大会上,马斯克承认,FSD问题不少且面临挑战。

最大的问题就在于,AI模型越先进,对其的评估难度就越高。

马斯克说,一个模型通过学习后能够解决一个问题,但同时又出现了一个或者若干个新问题。

特斯拉已经在高达几千个复杂路口进行针对性测试,以解决复杂路况难题。

但问题在于,没人敢保证这几千个路口的路况,能够解决所有与路口有关的Corner case。

这就进入了李想所说的一种Corner case陷阱——你解决的Corner case越多,你遇到的Corner case也会更多。

特斯拉的优势在于,可以通过利用自己卖出的数百万台汽车,评估和优化AI模型的能力。

但问题依然存在。

Corner case之所以被称为Corner case,就在于其代表了未知的极端工况。

这就像宇宙一样,没人知道宇宙的边际到底在哪。

唯一能够解决问题的,就是像罗辑那样搞定黑暗森林法则。

所以事情到此为止,开始变得很有趣。

现在李想对于自动驾驶这道世纪难题的解法,还需要若干年后才能获得验证,也才能知道是否有效。

就像罗辑发出一个信标,以验证黑暗森林法则是否存在一样。

但无论如何,李想给出了一个新颖的思路。

对于我们普通人来说,李想其实也给出了一个解决问题时的超前思维模式——他一直在解决问题,而且总是把效率排在很高的位置。

他通过阅读《思考,快与慢》这本书,以及他的爱人学车获得了启发。

而我作为行业观察者,虽然没看过那本书,但照样从他这里获得了启示,而且是免费的。

他真的是什么都说了,而且毫无保留。

所以我真心希望李想能带领理想更上层楼,继续在中国汽车史书写他的故事。