Follow_Tesla 的讨论

发布于: 雪球回复:42喜欢:55
$特斯拉(TSLA)$ 总结下我听到看到的直播内容:
1. 45分钟的路程中,路况均不复杂(车道线清晰,非机动车及行人较少),有一次红路灯判断失误的接管,其余时间均表现良好,几乎无法判断是人类还是机器驾驶。
2. 使用的是运行在HW3上的FSD V12beta内测版,在这个版本中中没有任何代码来提示减速带减速、给骑自行车的人让路或在停车标志处停车。所有的一切判断都是神经网络训练后给出的。
3. 现在的FSD v12软件在HW4硬件上并不兼容,需要重新训练。
4. FSD v12完全不依赖于地图,它可以像人一样仅仅通过视觉开车。
5. 英伟达给了特斯拉很多算力支持,特斯拉在2023年将投入20亿美金在计算资源上,2024年也一样。
6. 没有如约去小扎家敲门,怂了?炒作?还是确实小扎不在家?

热门回复

用int 8代替float 16是AI推理中常用的节省算力的方法,并非你所理解的数据精度。看起来是模型太复杂车端的算力不够导致的。

2023-08-27 22:56

$特斯拉(TSLA)$ 马斯克:HW4 软件将落后 HW3 至少六个月,因为我们的重点是让 HW3 上的 FSD 运行良好并在国际范围内提供。

2023-08-27 10:26

$特斯拉(TSLA)$ 自动驾驶软件总监 Ashok:这种端到端的神经网络方法将产生有史以来最安全、最有能力、最舒适、最高效、总体上最好的自动驾驶系统。用其他任何东西都很难打败它!
同时,车队需要大量的高质量数据、大量的计算和世界一流的工程团队才能达到这一点!

2023-10-13 15:48

【据State of AI 2023】
Tesla现在有16000张A100和10000张H100以及大约10000张V100(老款)没有计入。
加上Tesla自己的Dojo,目前应该大约10 Exaflops(Exaflops:一百亿亿次浮点运算/秒)的训练算力。
【评论】
作为参考:小鹏600 Pflops,理想1200 Pflops,华为ADS目前的训练算力规模是1800 Pflops(Pflops:一千万亿次浮点运算/秒,1 Exaflops=1000 Pflops)$特斯拉(TSLA)$ 目前算力规模是10000 Pflops。

2023-08-26 17:01

【据Elon在“X”直播FSD Beta V12 Alpha】
Elon:“Tesla即将启用一个价值$2.5亿由10000块英伟达H100 GPU组成的训练集群。”$特斯拉(TSLA)$

2023-10-12 11:52

【据The information报道】
Tesla正在Giga Texas新建Dojo训练集群。
【评论】
❶截止今年6月,Tesla基于$英伟达(NVDA)$ 芯片共建立起约5.5 Exaflops训练算力;
❷今年6月起,Dojo正式SOP上线运营,截止目前应该是超过了10 Exaflops;(专用训练芯片比较猛)
❸要实现明年100 Exaflops,目前的增幅依然不够,海外的FSD和Optimus机器人会带来全新的训练需求,所以还要开新的训练集群了;$特斯拉(TSLA)$

不会不会,这位@Follow_Tesla 朋友我关注很久了,他不懂技术而已,屁股不歪,相反他一直在采集各方面的信息。

特斯拉摄像头调教过的,RYYB偏黄色,比人眼看得远多了类似于夜视模式,我在暴雨天用Ap自适应巡航开过好几次,比我开得好太多了。

2023-08-26 21:31

所有其他人都在讨论视频数据不够精确、容易出错的时候,老马考虑的是降低视频数据的精度。我并非专业人士,但感觉走出这一步有一定的难度。

2023-08-26 21:05

是的,我也很期待。这不仅在于投资,也是我对自我认知的检阅。