发布于: iPhone转发:0回复:12喜欢:0
回复@Cakewalk: “增加模型数量,几乎不会增加算力需求”。服了,你是真自大//@Cakewalk:回复@USTC侠:类ChatGPT的应用早就用到网络认知战上了,国内各个网络平台海外的水军用的就是类似的技术。你认为美国人是慈善家,会把一门技术公开让人这样用?他是有目的在背后的。
制造业可以每个模型的参数少,他每个细分的场景多用一个模型就是了。本身定义比较明晰的框架,参数是不需要用那么多的。
假设每个模型需求的算力是相同的,增加模型数量几乎并不会增加算力的需求,你把所有模型揉一块儿,参数数量急剧增加,对算力要求呈几何级别增长。不仅如此,制造业不是互联网公司,可以靠虚无缥缈的概念去蹭热点,可以用不可靠和可靠的数据混杂,输出给用户。制造业你的数据不可靠,那结论就是他会影响到你的良率,而且因为使用多个模型的问题,一步错步步错,最后整个下游的产品都可能直接报废。
所以,我这次不仅没有说错,反而是捅了隆基的马蜂窝,打蛇打到了7寸,这时候隆基的水军才一窝全部出动了。
$隆基绿能(SH601012)$ $TCL中环(SZ002129)$
引用:
2023-06-24 11:00
$TCL中环(SZ002129)$ 来来来,@Cakewalk 到底懂不懂AI。能说出深度学习跟chatgpt没啥关系的人,你很懂AI哦?这张图除了引用的英文科普强化学习的部分,其他两段自己的观点,全都无厘头的离谱。你懂AI?别搞笑了,别再误导人了
呵呵,1000个参数的AI模型?你知道过拟合不?你知道一张图像作为...

全部讨论

因为你可以根据场景选择使用不同的模型啊…… 模型之间可能是类似电路中的“串联”模式,这时候你更精细化的去做,把框架做小了,其实最后是节约算力的。还有“并联”模式,一次只从中间选一个,那请问算力如何增加?