发布于: 雪球转发:2回复:5喜欢:3
上学的时候做过大量神经网络的模型。从结果上来看,这个模型的拟合度最高,maximum likelihood最强。但是过程完全是黑箱操作,我们只知道结果好,不知道具体的运算过程。 所以就和你问的专家一样,出现bad case是无法解释的,因为我们不知道是怎么算出来的。。//@仓又加错-Leo:回复@张小丰:我问了下技术专家,说“黑盒应该是说可解释性比较低,很多badcase,就算看到了,也不好解”
引用:
2021-04-19 08:54
2021年上海车展前夕,搭载华为自动驾驶系统ADS的北汽极狐阿尔法S华为HI版车型的实测视频开始 在网上刷屏。视频中的华为ADS在交通复杂的闹市表现出了极高的算法鲁棒性,宛如一个驾龄多年的老 司机。
华为自动驾驶量产的横空出世引起了所有人的关注,其引发的热度不亚于两年前的那个上海车展,华...

全部讨论

anatman32021-04-20 17:48

自己研究生的方向就是机器学习可解释性 真的就是玄学 而且很容易有偏离常识的偏见 现在机器学习牵扯到安全的很多场景无法落地就是这个原因

-冬青-2021-04-20 11:11

会死

BlueInvestor2021-04-20 11:05

目前深度学习可解释性还是个待解决的难题。现在主要是堆参数,本质上还是拟合,做不到因果推断,更多的是相关性。

星蒙2021-04-20 10:58

深度学习模型是通过大量数据样本提取特征,归纳出模式,且提取出的特征和模式存在上亿个参数里面,本身可理解性就不高。非要扯什么从概率上可解释,只能说强行拔高了。
前面还讲做的双目测量多牛,双目方案本身由于采用被动成像,深度信息只能通过特征点配准后计算得到,而光学特征受外部光照因素影响又很大,和激光测量比精度、稳定性要差不少,就有一条便宜。但激光雷达规模上量后这几年便宜了很多。所以不知道强行吹双目意图何在。
之前搞的手机拍月球,在手机镜头光学素质几乎不可能达标(主要是焦距、孔径由于手机体积限制不能做成长焦大孔径)的情况下,通过深度学习对月球进行深度PS,算是“拍”出了月球。
不吹牛会死么?

笨笨的Bowser2021-04-20 10:40

华为用的是deep reinforcement learning?那只能是黑盒啊,agent怎么决策的很难回溯出来