机器视觉比人类视觉误差小,这个大家应该都认可。但是在视觉神经网络中加入雷达等参数,效果会不会更优呢?答案是不一定。因为深度学习系统隐层参数集有限,如果需要处理的特征元过多,则可能发生过载现象无法求解。同样的,人类驾驶员路过车流很快、拥挤变道、喇叭此起彼伏的路段时,也很难保持平常心冷静处理,失误率会大增。
AI的基础,贝业斯链式法则也不是求取绝对准确值,而是迭代缩小误差值。
毕竟事无绝对,相对更优就行。只要深度学习卷积网络比人类驾驶更安全,就是进步。2015年image net 已经证明机器视觉的误差值,比人类更低。
机器视觉比人类视觉误差小,这个大家应该都认可。但是在视觉神经网络中加入雷达等参数,效果会不会更优呢?答案是不一定。因为深度学习系统隐层参数集有限,如果需要处理的特征元过多,则可能发生过载现象无法求解。同样的,人类驾驶员路过车流很快、拥挤变道、喇叭此起彼伏的路段时,也很难保持平常心冷静处理,失误率会大增。
n阶张量就是n个特征元连乘。比如3个态乘积,即3个态复合的量子计算机是 2*2*2=8个态空间(而普通计算机是2+2+2= 6个状态空间)。
当阶数n很大时,计算量区别非常明显。比如n取10时,10个2相乘=2*2*2*2*2*2*2*2*2*2=1024个复合态(而如果10个2相加只有20个状态)。
一般人下意识认为,视觉和雷达的混合体的总参数=视觉参数+雷达参数
实际上是,视觉和雷达的混合体的总参数=视觉参数*雷达参数
因为贝叶斯概率运算是乘法,不是加法
哦,参数集过多?多的过chatgpt吗?万亿参数。你要说算力实时跟不上还可能,所以智驾要求算力硬件很强,这方面才可能是目前的难点,因为算力不足会减少参数,导致场景分析不完整