仓又加错-刘成岗 的讨论

发布于: 雪球回复:41喜欢:5
再来,端到端的自动驾驶怎么知道路权的?
比如无红绿灯支路让干路,端到端AI怎么知道哪个是支路哪个是干路?
再比如,无红绿灯停止线,后到等另外一个方向先到的先通过,怎么学习到?

热门回复

所以很多时候,需要的不是模型的可解释性,而且给人类一个理由,符合人类认知模型的理由。
反过来,即使是人类做了某个决定,一般也没有办法从“模型”上解释为什么他会做出这个决定。

不是准确率问题,是可解释性。同一个黑人,人工审核不发放贷款就没被诉讼风险,AI审核(对了)不发放贷款也有被诉讼风险,且大概率会输掉官司。

特斯拉不是会给司机驾驶行为打分吗,可以只学高分司机的数据

2023-09-05 21:04

可否详细说说,车路协调,为什么走不通呢?

看过了,你的可解释性还是没理解对,看下我前面举的例子再理解理解

仓老师可以看我后面补充说明。所谓模型可解释性,其实在人类自己身上就不存在。

这是目前法律规定的。。不管司机同不同意,只要你使用,出了问题就是第一责任人

驾校有教[笑]

可解释性不是你理解的这样

从国家和政府的角度,都希望无人驾驶落地,看下德国的最新关于无人驾驶的法案,开篇就是:为了确保本国无人驾驶处于领先地位。美股最新的无人驾驶法案则更彻底:法案名称就叫:确保美国无人驾驶技术领先地位法案