发布于: | 雪球 | 回复:10 | 喜欢:1 |
1.可解释性是人类的执念。我们执着哲学,哪怕我们解释不了自己为什么存在。但是,无论是GPT-4的transformer还是Midjourney的diffusion,都没有可解释性。这一波的AI革命是由“黑盒子”引领的,是实用主义者引领的,追求可解释性是舍本逐末。2.国内特斯拉卖了很多年了,没有FSD不代表没有摄像头,很多地方不让特斯拉进不是没有道理。特斯拉在国内有自己的数据中心,数据也不用出境,一切技术上的问题都不是问题。最终其实就是一句话:我们敢让FSD进来吗?
没有可解释性就没有可调整的空间了,生成式人工智能,说到底就是人脑的仿生机器人。他继承了人脑的创造性,同时也会有人脑的缺点。从实用角度考虑,可解释性越差可靠性越低。ChatGPT也是这样,莫名其妙的地方总会胡说八道,使用的时候太容易被忽悠,特别是不了解的领域。这样的可靠性是不可能实用的。
神经元的端到端思维模型只要模仿出来了,就是最好的解释,而且这个机器仿生智能的大模型没有情绪化和生理性干扰,算力可持续提升,高质量的数据喂养量可以持续不断的提升,这些就是可以带来高于人类驾驶技能的最好解释。更何况芯片数量也既算力可以提升至比主控驾驶技能的人脑的算力更高之结论是肯定的,而且8个摄像头比肉眼所能兼顾到的方向数量少,反应时间也没有优势。
是确定会进来了,但是还是不看好。数据是出不去的,那只能在国内训练。国内算力太紧张了,在制裁的背景下,FSD的国内化训练效率不会高的。除非美国脑子坏了直接解除封锁。
我同意现阶段不会是100%,仍然会有heuristic layer,但是最终目标肯定是无限接近100%。另外,据我了解的是,目前已知的所有端到端的大模型都不会预留信号结构,这本质上是强行让大模型的能力退化。无论是gpt-4还是claude 3,一般的共识就是他们都完全没有自我解释性。学术界现在有一些尝试,是通过训练另一个模型,来对不可解释的模型做一些预测性的理解,比如在语言模型上将“吸引注意力”的token进行高亮,但是这和你说的不是一码事。