自己研究生的方向就是机器学习可解释性 真的就是玄学 而且很容易有偏离常识的偏见 现在机器学习牵扯到安全的很多场景无法落地就是这个原因
华为自动驾驶量产的横空出世引起了所有人的关注,其引发的热度不亚于两年前的那个上海车展,华...
深度学习模型是通过大量数据样本提取特征,归纳出模式,且提取出的特征和模式存在上亿个参数里面,本身可理解性就不高。非要扯什么从概率上可解释,只能说强行拔高了。
前面还讲做的双目测量多牛,双目方案本身由于采用被动成像,深度信息只能通过特征点配准后计算得到,而光学特征受外部光照因素影响又很大,和激光测量比精度、稳定性要差不少,就有一条便宜。但激光雷达规模上量后这几年便宜了很多。所以不知道强行吹双目意图何在。
之前搞的手机拍月球,在手机镜头光学素质几乎不可能达标(主要是焦距、孔径由于手机体积限制不能做成长焦大孔径)的情况下,通过深度学习对月球进行深度PS,算是“拍”出了月球。
不吹牛会死么?