发布于: 修改于:雪球转发:0回复:0喜欢:0

$特斯拉(TSLA)$ 很多人担心自动驾驶的主要靠数据训练的机制的鲁棒性问题,觉得应该要有更加先进、可靠的机制作为自动驾驶的底层原理。这种担心是有道理的,但这是个具有普遍性的大问题,或者说这是目前人类脆弱科技的边界地带。

1. 这是一大类问题。这类问题是不可能有像数学公式一样的有确定解的,不只是自动驾驶,语音识别($科大讯飞(SZ002230)$ )以及语言相关的自动化也是类似的问题,连基因编辑,比如这两天很火的 $Intellia(NTLA)$ CRISPR 编辑突破性实验,从更底层的原理也是属于这类问题,没人能保证 100% 正确,但是巨量、海量的数据能逼近 100%

2. 关于安全性。这类问题理论上不可能有 100% 的安全性,所以比如就基因编辑来说,现在伦理上都主要用来治疗缺陷病症,而且是很棘手的,有点对这个病“死马当活马医”的意思,对优化提高,甚至对可遗传的生殖细胞的基因编辑,这些好像都是禁区,因为原理上没法确保 100% 的安全性,目前的路子还是要积累海量数据,不管是人数上的,而且还是拉长时间尺度上的数据

3. 很大可能性,更先进、更可靠的的底层机制也要从目前这种海量训练基础上得来或者说这些是一个必要基础,就我看到的资料,目前有些候选的雏形,但都在非常初始的阶段。

风险提示:全部观点纯粹是本人在各方面有限情况下得到的偏见,不构成任何投资建议,风险自担,盈亏均与本人无关