确实,现在做出一个llm不难。难的是做出一个好用的llm。大巨头的llm,还是会出现睁眼说瞎话的问题。
不完善,对聊天llm可能大家不是特别在意,但用到自动驾驶就会有问题。
可能还是得像老马说的那样,搞出一个对现实世界物理规则有理解的模型才行(这同时肯定也解决了机器人),我也相信只有那个时候自动驾驶才是真正可能的。
这对数据、算力和算法的要求可想而知。
我是智能驾驶重度用户,但我认为五年内大家都只会“优化”,难以质变。
他们家的ppt技术永远很领先,实际是高速上把广告牌上车辆图片识别成真实车辆急刹导致后车追尾……
端到端,对数据、算力和算法的要求都非常高。
投入多如特斯拉,搞一套智能驾驶系统都各种资源不足,他们家2套,ad pro和ad max,光数据这关就有大问号(他家智驾硬件顶配的max车型的销量占比并不高)。
从复杂度上讲,我觉得所有雷达+视觉方案,会比纯视觉又要高不少。
(我现在认为,所有采用雷达+视觉,又宣传端到端的,都是耍嘴皮子。只有人工不参与雷达与视觉的融合了,或者用ai直接跳过了这一步骤,那才能探端到端)
确实,现在做出一个llm不难。难的是做出一个好用的llm。大巨头的llm,还是会出现睁眼说瞎话的问题。
不完善,对聊天llm可能大家不是特别在意,但用到自动驾驶就会有问题。
可能还是得像老马说的那样,搞出一个对现实世界物理规则有理解的模型才行(这同时肯定也解决了机器人),我也相信只有那个时候自动驾驶才是真正可能的。
这对数据、算力和算法的要求可想而知。
我是智能驾驶重度用户,但我认为五年内大家都只会“优化”,难以质变。
自动驾驶的数据门槛应该会比 LLM 的大一些。
LLM 的数据,大部分源自公共的网络,论文、书籍、问答论坛等等。而自动驾驶的数据,则来自各个公司自己的数据,司机的驾驶录像等。这些数据,公司之间是不太会共享的。这样的话,特斯拉这种积累了很多数据的公司,就优势大一些。
恩,特斯拉有优势,而且是全球数据优势,但是貌似不足以形成壁垒,其他几家车厂也卖了近百万车还在持续增加中,随着时间推移收集数据量也不会太少,就是时间的问题,可能晚个一两、或者三四年也能追上个七七八八吧?
我现在最大的疑惑有两点:1、貌似OpenAI开始的LLM没啥技术门槛?我试用了几个大模型或者根据业界的评测,就像Gemini,Claude和LLaMA离OpenAI也就半年到1年的差距? 2、现在自动驾驶也采用大模型,如果OpenAI那边的大模型算法不能成为门槛,那推测自动驾驶这里的大模型是不是也不是门槛? (这里的讨论的假设是算力(国内算力不足的情况假设可以用多几个性能较低的gpu堆积的方式解决算力问题)不是问题,随着时间的推移,数据也不会是问题,那就没有啥是有技术门槛的了)。