蟹粉小笼 的讨论

发布于: 雪球回复:10喜欢:1
所谓的特斯拉端到端,就是感知决策一体化。相对于感知,决策分开的业内主流方案能减少层级误差,决策更准确。但是,一体化后决策的可解释性就没了,就是一个黑盒。对于安全性影响可是很大的,特别是美国训练的拿到国内来用,可靠性是多少只有天知道了。估计最靠谱的就是重新训练,由于制裁的因素,重新训练的代价有点大,而且效率无法保证。而且,包含激光雷达的融合感知方案也可以使用端到端,所以,特斯拉进入国内后的前景也是有很大的不确定性的。

热门回复

1.可解释性是人类的执念。我们执着哲学,哪怕我们解释不了自己为什么存在。但是,无论是GPT-4的transformer还是Midjourney的diffusion,都没有可解释性。这一波的AI革命是由“黑盒子”引领的,是实用主义者引领的,追求可解释性是舍本逐末。2.国内特斯拉卖了很多年了,没有FSD不代表没有摄像头,很多地方不让特斯拉进不是没有道理。特斯拉在国内有自己的数据中心,数据也不用出境,一切技术上的问题都不是问题。最终其实就是一句话:我们敢让FSD进来吗?

没有可解释性就没有可调整的空间了,生成式人工智能,说到底就是人脑的仿生机器人。他继承了人脑的创造性,同时也会有人脑的缺点。从实用角度考虑,可解释性越差可靠性越低。ChatGPT也是这样,莫名其妙的地方总会胡说八道,使用的时候太容易被忽悠,特别是不了解的领域。这样的可靠性是不可能实用的。

另外,端到端也不是100%,感知后的结果也不是没有预留信号结构供后续分析。没有绝对的黑箱。

最后一段扯远了。比亚迪的车没有智能驾驶美国也不让进啊?政治作业就在政治课堂里讨论。这里只谈纯技术

神经元的端到端思维模型只要模仿出来了,就是最好的解释,而且这个机器仿生智能的大模型没有情绪化和生理性干扰,算力可持续提升,高质量的数据喂养量可以持续不断的提升,这些就是可以带来高于人类驾驶技能的最好解释。更何况芯片数量也既算力可以提升至比主控驾驶技能的人脑的算力更高之结论是肯定的,而且8个摄像头比肉眼所能兼顾到的方向数量少,反应时间也没有优势。

是确定会进来了,但是还是不看好。数据是出不去的,那只能在国内训练。国内算力太紧张了,在制裁的背景下,FSD的国内化训练效率不会高的。除非美国脑子坏了直接解除封锁。

调整的空间在于输入事故案例正确的决策数据,强化训练。

fsd的可靠性是基于统计的,比如100亿英里,正常平均死100人,fsd死亡1到10人都是可以接受的可靠性。解释性没有意义。

我同意现阶段不会是100%,仍然会有heuristic layer,但是最终目标肯定是无限接近100%。另外,据我了解的是,目前已知的所有端到端的大模型都不会预留信号结构,这本质上是强行让大模型的能力退化。无论是gpt-4还是claude 3,一般的共识就是他们都完全没有自我解释性。学术界现在有一些尝试,是通过训练另一个模型,来对不可解释的模型做一些预测性的理解,比如在语言模型上将“吸引注意力”的token进行高亮,但是这和你说的不是一码事。

我说的就是简单的贸易保护。