仓又加错-刘成岗 的讨论

发布于: 雪球回复:41喜欢:5
再来,端到端的自动驾驶怎么知道路权的?
比如无红绿灯支路让干路,端到端AI怎么知道哪个是支路哪个是干路?
再比如,无红绿灯停止线,后到等另外一个方向先到的先通过,怎么学习到?

热门回复

采访到了小米自动驾驶负责人。供大家参考。
问:【更复杂的一些情况,关于路权的。比如无红绿灯支路让干路,端到端AI怎么知道哪个是支路哪个是干路?】
答:【理论上端到端的方案,只要训练数据充分,是能够做到的。模型不一定能够显式推理出支路、干路这样的概念(除非做multi task训练,把这样的中间结果也作为训练目标),但最终可能可以体现出这样的行为。就像LLM,很多的概念并没有被显式标注和训练,但确实在某些神经元上有所体现。不过我对现在自动驾驶完全端到端的可量产性还是比较怀疑。现在对应LLM,图像/视频上的方法是相对落后的。】
问:【停止线这个例子是老马自己说的,他说大部分司机都不完全停止,他说清洗数据,那成本也太高了吧。】
答:【那就还是把完全停止的数据留下做训练样本了,可以自动化清洗,如果知道清洗的规则,大部分是能自动做的,但这样跟直接加驾驶规则其实也差不多了。】
问:【那等于是,规则放在数据清洗这一步来做了?】
答:【好处是清洗不会太彻底,还是留了些弹性。(停止线的例子)应该是大概率会停,碰到极端情况可能确实不停,比如给救护车让行之类的。】
问:【这样的规则太多了,我还想到一个远离大货车的例子,我观察路上很多车都没有远离大货车,如果数据不清洗肯定不如用“远离大货车”规则的自动驾驶安全。】
答:【对。规则的问题就是太多了,人处理不好组合爆炸和互相矛盾的情况。用模型训练的话,他把明显不合理、不合交规的数据清洗掉就行了。剩下规则咋组合,就看模型的学习和泛化能力了。】
问:【给救护车让行也是能端到端学习到的吗?】
答:【理论上可以啊。LLM现在展现的理解能力已经远超这个了。现在主要是图像/视频处理的方法还没突破。】
问:【视频做结构化后可以吧?】
答:【现在还有巨大的gap。比如给一段视频,能不能预测出合理的下一帧,这个是LLM现在已经具备的能力了。另外给一段视频,针对视频内容提问,能不能给出正确的答案。】
$特斯拉(TSLA)$ $小鹏汽车(XPEV)$ $理想汽车(LI)$

我同意这个看法。很难通过监管部门的批准。我以前举过一个可解释性的例子:【好比一个黑人走进银行申请贷款,AI审核后拒了,黑人起诉银行,银行该怎么解释AI拒绝的理由才能让法官和陪审团相信不是种族的原因才拒绝的呢?如果是打分制(即交通规则硬编码),拿出打分表格就能赢得官司,AI,出示什么证据来辩护?这就是一个“AI可解释性”的例子。】

看怎么定义落地了,现在所有的辅助驾驶都事先声明司机是第一责任人,那么司机同意就落地了。

任何事情复杂到一定程度,会远远超越人类能理解的范畴,黑盒是 AI 的特点,没必要非得解释清楚。就好比制药,用实际效果证明其有效性,且效果远大于副作用,到达一个可以接受的程度即可。
事实上特斯拉在路上的车,已经有非常多的 FSD 使用数据,安全性也能得到有效的证明,随着效果的逐步提高,到达那个可以接受的程度就可以了。

2023-09-05 16:09

谢谢回复。
"我觉得如果到了一个不用ai就解决不了的时候,他们就愿意承担这个风险了",哈哈。拆散看,你说的接近于全部我基本上都同意,我对这类问题思考有一段时间了,当然起先是由于自动驾驶、人机共驾的安全性有效性问题,2020 年开始,我当时思考的结果就是,哪怕是当时的磕磕绊绊的技术,如果实在必要,用大规模随机双盲的办法也是有可能证明智能驾驶的价值的。
你说的里面做了很多假设,theoretical guarantee,药理啊,choose or die ,不想讨论太深,因为可能没有结论,科学本身就是质疑的,在我看来到处都充满了不确定性,就像你说的“人类的科技并没有什么真正的guarantee”,都不是 100% 的,这还涉及到宇宙本质的问题。
我很明白很理解,当前现实肯定是 rule-based 的确定性的东西绝对主导的。但我感兴趣的,也非常好奇的,我们讨论的是一个面向未来的东西,现在越来越多的基于基因的疗法,也碰到这个问题,关于可证明可解释到哪个地步是可以接受的,在 AI 不断深入我们生活的趋势下,这一块未来的趋势是怎么样的?就好比语音识别的方法现在本质上也是基于概率的,现在准确率已经非常高了,rule-based 的东西早就不行了,那你说语音识别的东西多久会被用于 mission critical 的东西的单一依赖?
另外,你说的这段非常有意思,“我所做的研究就是尝试给一些safety critial的领域的ai控制器尽可能大的安全保证,这种保证更多是worst case,比如我要证明用我的控制器,这个电网至少不会平白无故blockout。”,说回到特斯拉,#FSD v12# 的人工代码并不是零,我相信也做了类似的处理,而且 ChatGPT 据说也不是一个纯模型直出的东西,也是其他东西,而且持续有补丁的。

2023-09-05 13:18

转。$小米集团-W(01810)$ 自动驾驶出境了😂。我这两天也看了不少专业圈子一线从业者的讨论。关于都非常关注的“可解释性”,不知道有没有注意到那个直播视频仪表盘的显示?另外,我发现可能超过 95% 以上的人没有看过特斯拉的两位专业技术人员 6 月底在 CVPR 的两个学术演讲,大家都在把马斯克的话作为唯一推理依据,借助一线经验,这些讨论本来可以在那个基础上更深入,会更有价值,但很可惜,可能 end to end 离一线实在太远,属于想都不敢想的,所以可能关注兴趣不是很大,直到马斯克本人开始吹,这里也佩服马斯克本人网红体质引起巨大关注的惊人能力。但大家的结论大体都是一致的,正如我这里写的 网页链接 ,即使这个东西理论上可行,工程实现上也充满了巨大挑战。

2023-09-05 12:01

从我们科研人员的角度来说,这种模型没有可解释性,没有任何理论证明安全性(no theoretical guarantees)。在已有数据集上,不论结果再好,在真实世界都有可能出问题。所以就不可能被真的大规模普及。这是AI在safety- critical问题上的局限。

2023-12-01 17:04

不管什么技术,就荷兰而言,我了解到现在种族是不能作为任何输入条件来筛选分析数据的。育儿津贴案税务局大败就是税务局用了双重国籍这个指标来筛选。网页链接
现在敏感到如果结果出来都是某些种族太多,大家会去质疑输入条件。学生房补案件(出去住可以有450欧每月补助),据说有些种族喜欢借住在叔叔阿姨家,但是亲戚家离他们自己家很近。所以会触发上门临检,三次都没有人在家会问邻居,或者没有住在那里迹象会被要求退回补助。
其实原文描述的这是个非常典型的种族歧视的例子,按照你肤色来抽检(你有没有被冒犯是一回事,他们有没有权力这么做是另一回事)。原评论里赞的很多的说很多华人喜欢相互借卡什么的,主要因为我们从小是单种族长大的环境,不敏感。一个是并没有证据只有华人这么做;另外一个是,即使其他跟我长得类似的人做错事情了,我就可以被重点查吗?

2023-09-22 11:53

赞这一段思考

2023-09-05 13:57

给个统计数据行不?比如我们这里情况相似的人群白人和黑人通过率木有明显差异。