发布于: 修改于: iPhone转发:0回复:2喜欢:1
给你们科普一下,现在特斯拉都是拿视频直接训练,其实真正拿来训练的只有百万级的视频片段,就是那种几秒钟的短片段。也不写程序策略告诉车在某种情况怎么办,就是让AI原生学习,比如看到绿灯走、看到视频里都这么操作AI就学着这么操作。所以现在的FSD是个黑箱,因为没有规则的输入,虽然99%的情况下你会惊叹“像极了人在开”,但这个箱子里会发生什么,就连特斯拉公司自己也不清楚。我一直认为scaling law下的大模型不适合用在服务机器人、自动驾驶汽车这种会对人造成直接伤害可能的领域,就是因为他的不可控。AI“涌现”一下非常规的,可能你人就没了。虽然非大模型的AI看上去相对于大模型更笨拙,但你是能把握他的原理,是可预测的,而且优化起来更方便,可以不断累加他的能力。

全部讨论

04-05 08:28

rule base model也不是100%可靠哦