莫名其喵 的讨论

发布于: 雪球回复:18喜欢:3
我重新看了一下18年Andrej Karpathy的一个演讲,对测试视频中车辆出现的漂移和异常转向等现象有了一个猜测。

可以注意到,视频中出现车辆操作异常的时候,其实视觉感知都是没问题的,问题是出在驾驶行为、尤其是转向行为的自动决策上。

在下图Andrej的ppt中可以看到,当年特斯拉正在逐步把手工编写的逻辑替换成机器通过训练习得的操作逻辑,而steering这部分是替换的比较慢的。

我猜测,这些年里特斯拉autopilot团队的主要精力放在了感知上,而没有怎么改进车辆操作。车辆操作部分的很多逻辑可能还是手写的。所以最终呈现的结果,就是视觉感知非常棒,但车辆操作还有些莫名其妙的低级错误。感知的提升使得对车道线、道路交通的其他参与者有了更精确和稳定的识别,于是非复杂路况下,手工编写的代码表现得更平滑了(输入的数据更少跳跃)。然而相对复杂的路况下,手工代码无法应付复杂状况的缺陷并不能通过出色的感知来弥补,这就体现在车辆的莫名漂移和过度转向等等。

感知这一块特斯拉确实完成了很多非常有挑战性的工作,比如距离信息的计算,从2D labeling转向4d labeling等等,更不用说各种corner case。而Beta 9相比之前的版本在感知上也有非常大的变化,实现了包括八个摄像头的融合、去除雷达等新功能。而出色的感知又是车辆操作不可或缺的基础,所以特斯拉集中资源解决感知的问题是完全可以理解的。

目前来看,感知这一块特斯拉已经有了长足的进步,也许我们可以期待一下车辆操作部分的更快改善了。
我重新看了一下18年Andre

热门回复

应该是正相反,手写的代码不会出现这种问题,应该是2.0的代码造成的,这个需要进一步学习进化。

从你把AK的全名打出来我就知道你的专业。。。 学习学习。[大笑]

2021-07-12 10:34

不知道,我猜测只有一部分是机器学习

决策都是有限状态机吧。 状态机补丁好打 问题可追溯

我看了昨天你说的那个视频。我感觉那么低级的错误有频繁出现,似乎只在这个视频里面,其他视频没那么严重。我感觉这段视频不能代表fsd beta v9的正常水平,需要等更多视频出来才能下结论。并且基于这段视频做的推断也是毫无意义的。

2021-07-12 08:29

这只能说是我的gut feeling了[捂脸]

2021-07-12 07:45

“车辆操作部分的很多逻辑可能还是手写的。所以最终呈现的结果,就是视觉感知非常棒,但车辆操作还有些莫名其妙的低级错误。”,没有这个逻辑关系。非手写的一样有莫名奇妙的低级错误。

2021-07-12 00:03

第一,自动驾驶上的无监督学习基本上是不可能的,只能说尽量增加自动标注的准确性;第二,如果不写人工算法,autopilot就没法存在,怎么赚钱呢?

关键是操作最后也是应该走向无监督机器学习吧,那为什么不一开头就把架构设好,分段训练,而是用人工算法过渡?