星际风魔 的讨论

发布于: 雪球回复:7喜欢:0
知道啥?从视频中学习?那得多少资源,你要车上装个大模型?放几个机柜?电源够吗?你知道ai服务器多耗电吗?吹吹可以

热门回复

05-23 18:26

基于对算法,端到端,视频特征直接抽取并映射 的不了解,现任同济大学汽车学院教授、博士生导师、汽车安全技术研究所所长~朱西产,也拥有同样落后的观点。

视频和静态图像的数据量差别不是几十个数量级的差别

05-23 23:10

FSD:对视频中像素特征直接提取映射到特定控制输出 的 过程 的 基于TRANSFOER算法 的 端到端的 一个模型。
识别像素特征,映射到车轮的模型。体积很小。

你就是啥都不知道就来喷呗…

你这个还是静态的考虑,而且抽取的方式一定会忽略细节,是对于大数据量处理的折衷方案,实时视频的每一秒按24幅画面来计算,每一幅都有不同,通过图像之间不同来判断位移和辨认问题,并且过滤无关信息,FSD现在能上路已经非常不错了,但是要做到完全正确,从99%的正确率达到99.9%的正确率,所需要的算力,大大超过从50%到99%所需要的算力

视频不是可以上传么?学习是指积累,不可能实时,而且学习的过程是费GPU,但使用时就不需要用那么多算力。训练成型之后,车上算力应该都能应付。就像是一个老司机,刚开车前几年是困难,后面就没有什么大事了。

你懂啥,商汤获奖的玩意儿就是处理图片,也要100多ai服务器,100多层深度学习,就是你说的什么抽取处理?你知道啥是深度学习吗