因为你可以根据场景选择使用不同的模型啊…… 模型之间可能是类似电路中的“串联”模式,这时候你更精细化的去做,把框架做小了,其实最后是节约算力的。还有“并联”模式,一次只从中间选一个,那请问算力如何增加?
制造业可以每个模型的参数少,他每个细分的场景多用一个模型就是了。本身定义比较明晰的框架,参数是不需要用那么多的。
假设每个模型需求的算力是相同的,增加模型数量几乎并不会增加算力的需求,你把所有模型揉一块儿,参数数量急剧增加,对算力要求呈几何级别增长。不仅如此,制造业不是互联网公司,可以靠虚无缥缈的概念去蹭热点,可以用不可靠和可靠的数据混杂,输出给用户。制造业你的数据不可靠,那结论就是他会影响到你的良率,而且因为使用多个模型的问题,一步错步步错,最后整个下游的产品都可能直接报废。
所以,我这次不仅没有说错,反而是捅了隆基的马蜂窝,打蛇打到了7寸,这时候隆基的水军才一窝全部出动了。
$隆基绿能(SH601012)$ $TCL中环(SZ002129)$
$TCL中环(SZ002129)$ 来来来,@Cakewalk 到底懂不懂AI。能说出深度学习跟chatgpt没啥关系的人,你很懂AI哦?这张图除了引用的英文科普强化学习的部分,其他两段自己的观点,全都无厘头的离谱。你懂AI?别搞笑了,别再误导人了
呵呵,1000个参数的AI模型?你知道过拟合不?你知道一张图像作为...