pangpangdudu 的讨论

发布于: 雪球回复:13喜欢:5
感知是第一步。感知不完整、不准确的情况下,哪谈得上智能?强光、黑夜、浓雾这些情况下摄像头看不清,怎么解决?

热门回复

我一直认为视觉方案的极限就是人眼。如果我们用肉眼开车存在看不清、看不见的情况,纯视觉方案在这些情况下也同样会看不清,靠“智能”、“算力”、“神经网络”是不够的。激光雷达也好,毫米波雷达也好,都是对视觉方案的一个必要补充,安全性必然优于纯视觉。毫米波雷达的分辨率不够,而激光雷达过去成本太高,让特斯拉走了纯视觉路线,现在成本不断下降,国内已经卷到400美元,2-3年内会到250美元,已经完全可以负担了;而和毫米波雷达直接竞争的短距离补盲激光雷达,价格会到100-150美元(某些厂宣称的900人民币其实是补盲雷达),毫米波雷达似乎变成了鸡肋。$Ouster(OUST)$ 有一个专利技术是彩色点云,给激光雷达的点云赋予真实世界物体的颜色。再过5-10年,当激光雷达的分辨率足够高,又能直接探测到真实的距离,纯视觉方案可能会消失,因为摄像头的功能被激光雷达取代了。当然这一天还很远。

我掌握的数据趋势来看,这些情况已经不是问题了。但是数据量还不够大,还需要等待数据收集。事实胜于雄辩,我会在数据量足够后,专门写一篇硬核数据分析文来讨论极端天气下的端到端模型整体安全性。

这样数据对比已经有一家第三方美国评测公司做过,结论就是在统计显著的意义上,特斯拉的纯视觉系统做的不如混合感知系统的车型更好。

50年前也有第三方的美国评测公司说中国不太行……刻舟求剑是大忌。

但是第一步可以是先达到人眼级别的自动驾驶能力。现在连第一步都还没实现,视觉本身还没得到充分利用。[笑]

刻舟求剑是大忌,共勉

这样子下去光学镜头跟光学测距迟早融合在一起成为一个设备

这个预期差有点大,彩色点云技术胖胖可以展开说说么

关于激光雷达,这几个特殊场景作为竞争优势的提法到处传播,但是仔细分析一下,并不是这样:
1,雾天,激光雷达用的红外光同样非常容易被水分吸收。考虑到他是个主动(有源)传感器,来回都会被吸收一遍,理论上效果是不如摄像头这种被动(无源)传感器的。实际上使用起来也是,现在摄像头的去雾效果已经挺不错了,可以做到高于人眼视觉的效果。
如果一定要说穿透大雾的能力,那也是毫米波雷达更适合。
2,黑夜,有大灯。这个不用展开了吧。激光雷达本质上也是一种大灯。
3,强逆光,理论上确实主动传感器会好一点。但实际上现在摄像头做的也挺好的。
实际上激光雷达的主要价值,是解决用视觉获得的二维信息反向推理三维世界过程中,永远难免避免的corner case。他毕竟是一个天生的三维传感器。
但是这个价值随着视觉的发展越来越小,而这个多余传感器融合带来的问题却始终都在,除了成本,还有感知速度慢,点云质量问题比如噪点鬼影等等。所以这个传感器最终会怎么样,还是有待商榷的。

现在的激光雷达点云虽然有眼色,但都是伪彩色,这些颜色是根据反射率的差异而人为加上去的。Ouster的彩色点云可以显示目标物体在真实世界的颜色。分辨率足够高的话,这样的激光雷达实际上就变成了一个三维测距的摄像头。现在也有摄像头能测距,depth camera,但是测距能力普遍只有几米。