不是这样的,是机器学习泛化能力和过渡拟合,不是什么解决问题后出现新问题,是问题根本没解决
举个例子,搞深度学习的都知道有个老大难的问题,叫捷径学习。因为你是在用给算法新的数据的方式在解决问题,你不知道算法学到的到底是你想要的底层逻辑,还是一个你意想不到的无关逻辑。让算法看片子识别肿瘤,在一家医院结果很准,拿到新的医院发现不行,分析下来原来算法是把片子最下面诊断信息里疑似肿瘤的代码当作关键特征了,然而换了一家医院,这家的片子没有这个字段。
这还只是端到端解决判别问题,如果是难10000倍的规划、控制问题,那个不可控就更可想而知。如果你是特斯拉的投资者,千万不要陷入线性外推的思维误区。看到它出来一个基本可用的版本只花了1年,按按计算器,四舍五入,觉得明年满世界都是特斯拉的robotaxi了。
实际上任何行业投资决策都不应该线性外推,AI相关领域尤甚。
$特斯拉(TSLA)$
不是这样的,是机器学习泛化能力和过渡拟合,不是什么解决问题后出现新问题,是问题根本没解决
我们是不是对机器人太苛求了。咱们人类司机考了路考二把刀就上路了,每天交通事故不少。难道机器人就不能犯错?
在智能驾驶水平发展到一定阶段,核心不是技术而是法律如何规定自动驾驶提供者和使用者的契约关系。
按计算器的人没时间想这些,他们想的是明天高开多少,开板跑不跑
机器是学习人,人驾驶都无完解!好在机器出错率低!
碰运气的AI
概率上达到20万公里以上老司机的水平就很不错了。毕竟我三十万公里了路上还出小碰擦。
说到捷径,
菊花就不瞌睡了
简单易懂的理解端~端智能驾驶的科普好文
这个很正常,端到端模拟的是人类学习的思维,只不过快多了。但这是未来。
很有可能就是这么一种体验:很快就能到80%可用【L2+++】,让人觉得未来已来,世界即将被颠覆。然而80%到90%可能需要花5年【L3水平】,90%到95%可能要花10年【L4水平,等价于robotaxi】。 这个描述符合复杂系统的理论推演,本人做了点狗尾续貂。