FSD12这个版本是端到端模型,这个模型中是不需要识别看到的是什么物体的(包括红绿灯),他只需要知道这种特定画面里人是怎么操控车的即可。这也是为啥老马裁撤了整个规控团队只留了几十人的模型团队,代码量也从几十万行到几千行,因为算法的进化成了数据驱动而非逻辑驱动。
至于识别出错这种情况,同楼有人回复过了,现在基于神经网络的黑箱这种通用方法,是很难判断识别出没出错,机器并不知道。类似ChatGPT,它并不能判断自己在一本正经的胡说八道
FSD12这个版本是端到端模型,这个模型中是不需要识别看到的是什么物体的(包括红绿灯),他只需要知道这种特定画面里人是怎么操控车的即可。这也是为啥老马裁撤了整个规控团队只留了几十人的模型团队,代码量也从几十万行到几千行,因为算法的进化成了数据驱动而非逻辑驱动。
产品不行,比不上五菱,不知道为啥全球这么多人买
这样若出问题可以把责任推给驾驶员