gwitter 的讨论

发布于: 雪球回复:68喜欢:2
“端到端”人工智能听着好像高大上,其实就是一种类似于不求甚解的死记硬背题海训练的学习方法,伴随数据和算力的提升而提升。最大的问题是训练出来的模型(神经网络每个连接的权重数字)是不可解释的。如果出现长尾的例外情况,模型如何调整权重无法预知。自动驾驶安全第一,长尾例外的危险不能简单以平均比人驾驶安全来忽视。

热门回复

我觉得纯视觉方案因为CEO 的坚持已经把基本的“简单直接”的工程规律违背了,一条路走下去只会落后于其它融合感知的辅助驾驶和自动驾驶方案。再举一例:自动雨刷,特斯拉(马本人?)坚持摄像头视觉方案而不采纳最最简单成熟便宜的湿度传感器。特斯拉的自动雨刷功能已经是个被笑话的梗,连离开特斯拉的AI基础设施负责人都公开调侃,就这样也不改变,再多数据再训100年也没用。

司机是可以学习的,车能吗?

现在用的v12就是纯视觉方案,uss的超声波雷达用户可以选择用,或者选择不同,来使用纯视觉方案,hw4.0,目前模拟hw3.0运行fsd,也是用的纯视觉方案,hw4.0以后会表现更好,鉴于毛豆3和毛豆y都没有4d雷达,以后毛豆x和毛豆s的雷达怎么用还不好说

已经有新车拆机视频显示安装的雷达,可以自己搜。装了就是装了,如果没装为何向政府备案多此一举呢?22年拆了雷达也是事实。安装雷达等其它传感器是正确路线,但“纯视觉”调门太高无路可退了。另外,上海制造在中国销售的还装了超声波传感器,也不‘’纯‘’。

只靠视觉能省钱,但能实现无人自动驾驶值得怀疑。实际上人类不‘’只‘’依靠视觉驾驶。最简单的例子就是听到警笛和救护车声音要减速让行。

别理睬那个傻叉,它不知道什么叫“端到端”。

这个要看技术发展,还有待考证,到底纯视觉能不能采集足够信息。我个人认为是可以的,因为人假如有360度的视角,就可以做到只用视觉开车。

那目前的人工定义规模模式呢?

这个雷达出来我就关注过的,所以知道是以色列的,而不是自研,之前毛豆x装过这个,还被人拆解了,毛豆y一直没装,只预留了借口,目前还没发现装的必要,就没有装,我一直在关注毛豆y,毛豆x价格高,预先装了也能理解,但是fsd v12就没有启用雷达,hw4.0目前运行v12都是模拟hw3.0运行的,所以前段时间很多人在x上反馈hw3.0 3.5比hw4.0运行fsd感觉更好,至于超声波雷达,也就是uss,现在在自动泊车里面可以选择使用纯视觉自动泊车还是传统搭载uss方式的自动泊车,这个有帖子有视频说明,因为没有uss的车辆很长一段时间不能自动泊车,现在纯视觉解决了这个问题,也给uss车辆同步更新了这个功能,usa车辆可以自己选择用哪种方式,所以搭载uss的车辆以后会变得没必要,新的都没搭载uss了,还实现了比用uss更好的体验效果

这个有啥用?被取笑的是特斯拉的雨刷,不是你我的手机啊。