比如无红绿灯支路让干路,端到端AI怎么知道哪个是支路哪个是干路?再比如,无红绿灯停止线,后到等另外一个方向先到的先通过,怎么学习到?
所以很多时候,需要的不是模型的可解释性,而且给人类一个理由,符合人类认知模型的理由。反过来,即使是人类做了某个决定,一般也没有办法从“模型”上解释为什么他会做出这个决定。
不是准确率问题,是可解释性。同一个黑人,人工审核不发放贷款就没被诉讼风险,AI审核(对了)不发放贷款也有被诉讼风险,且大概率会输掉官司。
特斯拉不是会给司机驾驶行为打分吗,可以只学高分司机的数据
可否详细说说,车路协调,为什么走不通呢?
看过了,你的可解释性还是没理解对,看下我前面举的例子再理解理解
仓老师可以看我后面补充说明。所谓模型可解释性,其实在人类自己身上就不存在。
这是目前法律规定的。。不管司机同不同意,只要你使用,出了问题就是第一责任人
驾校有教[笑]
可解释性不是你理解的这样
从国家和政府的角度,都希望无人驾驶落地,看下德国的最新关于无人驾驶的法案,开篇就是:为了确保本国无人驾驶处于领先地位。美股最新的无人驾驶法案则更彻底:法案名称就叫:确保美国无人驾驶技术领先地位法案