子非墨鱼 的讨论

发布于: 雪球回复:0喜欢:1
FSD12这个版本是端到端模型,这个模型中是不需要识别看到的是什么物体的(包括红绿灯),他只需要知道这种特定画面里人是怎么操控车的即可。这也是为啥老马裁撤了整个规控团队只留了几十人的模型团队,代码量也从几十万行到几千行,因为算法的进化成了数据驱动而非逻辑驱动。

热门回复

这更解释不通了啊。按你说的“他只需要知道这种特定画面里人是怎么操控车的即可”,这是雾天场景,正常人类开车时,即便不停车、至少会大幅减速的...这就是“人是怎么操控车的”。为啥这个场景下自动驾驶并未按正常人类的操纵方式行事呢?

具体原因肯定要Tesla分析才能给出,我们这里都是瞎猜,比如薄雾天气过这种火车通过的路口的训练数据没有,另外你还是要深入了解下V12

不啊,有没有火车并不重要,而是雾天开车有没有大幅减速吧!因为正常人类开车肯定会大幅减速的。

其实,激光雷达在雨雾天气下影响非常大。表现还不如视觉,你肯定更惊讶了

因为这种场景训练的少,以后专门训练就会好了。

分析个毛线,其实就是现在纯视觉的局限性而已。马斯克架上去下不来来了。估计也是焦急,等待摄像头将来大幅突破,然后就能圆了自己的问题了

雷达和视觉分工迥然不同,譬如人,一个是手,一个是脚,

现在特斯拉就是万能的黑箱,谁也搞不清楚,只能盲目相信老马。因为神经网络自身的缺陷,导致纯视觉方案的逻辑比不过人脑,感知能力也比不过激光。纯视觉会在某个不经意的时刻,莫名其妙让驾驶者挂掉。

虽然神经网络理解的方式和人不太一样(真的很不一样),但是这不是模型失效的理由……成熟的产品应该能够处理好各种corner case

感觉他的意思是 感知决策控制一体的端到端模型 模型并不显式的确定影像每个像素的语义 而是将高维的语义信息传递给决策/控制层 让其自主判断